Man practicing slackline over the sea in Minorca Balearic Islands Spain
Man practicing slackline over the sea in Minorca Balearic Islands Spain

Responsible AI Pulse survey

Como pode a IA responsável fazer a ponte entre o investimento e o impacto?

Related topics

A IA compensa quando é incorporada de forma responsável: maiores lucros, colaboradores mais felizes e menos erros dispendiosos.


Sumário Executivo

  • As empresas com supervisão e monitorização em tempo real estão a transformar a IA de um risco num motor de crescimento.
  • As perdas financeiras significativas associadas ao risco da IA são reais e vieram para ficar para quem não tiver os controlos certos implementados.
  • Os pontos cegos da liderança podem deixar as empresas expostas; é essencial ter uma supervisão dos promotores cidadãos.

As empresas que estão a superar a concorrência com inteligência artificial (IA) não estão apenas a criar melhores modelos — estão a criar salvaguardas mais inteligentes que lhes permitem aproveitar oportunidades de mercado extraordinárias. O último inquérito EY Global Responsible AI Pulse revela que as organizações que adotam a IA responsável - através de princípios claros, execução robusta e uma governação sólida - estão a destacar-se nas métricas onde os ganhos relacionados com a IA têm sido mais difíceis de alcançar: crescimento de receitas, redução de custos e satisfação dos colaboradores. Estes ganhos não são marginais, são a diferença entre a IA como centro de custos e a IA como vantagem competitiva.

Quase todas as empresas inquiridas já sofreram perdas financeiras devido a incidentes relacionados com a IA, com uma média de danos que, de forma conservadora, ultrapassa os 4,4 milhões de dólares. No entanto, as empresas que dispõem de medidas de governação, como a monitorização em tempo real e os comités de supervisão, correm muito menos riscos e obtêm melhores resultados. 

A IA responsável não é um exercício de conformidade. É uma alavanca de desempenho - e os dados mais recentes comprovam-no.

O percurso responsável da IA: as empresas estão a adotar uma abordagem abrangente

A IA responsável é melhor entendida como uma viagem - uma viagem que passa por três fases. Em primeiro lugar, vem a comunicação, em que as organizações articulam um conjunto claro de princípios de IA responsável a nível interno e externo. Segue-se a execução, quando esses princípios são transpostos das palavras para a ação, através de controlos, indicadores-chave de desempenho e formação dos trabalhadores. Por último, vem a governação, a supervisão necessária para ajudar a garantir que as ações e os princípios se mantêm alinhados, através de medidas como comités e auditorias independentes. 

 

A maioria das empresas já iniciou este percurso. A segunda vaga do inquérito EY Global Responsible AI Pulse perguntou aos líderes C-suite sobre as etapas de adoção responsável da IA nestas três fases. Em média, as empresas implementaram sete em cada dez medidas.  

 

A adoção é ainda maior em setores como a tecnologia, os media e o entretenimento e as telecomunicações (TMT), onde uma maior dependência da tecnologia e dos dados para a prestação de serviços essenciais torna a IA responsável ainda mais crítica. As organizações destes setores têm mais probabilidades do que outras de comunicar os princípios da IA responsável às partes interessadas externas (80% vs. 71%). Estão também mais avançados em termos de governação: 74% criaram um comité interno ou externo para supervisionar a adesão a estes princípios (vs. 61% noutras indústrias), e 72% realizam avaliações independentes de práticas responsáveis de governação e controlo da IA (vs. 61%).


Embora se registe uma quebra ao longo de cada etapa do percurso da IA responsável, a diferença é mínima, diminuindo apenas alguns pontos percentuais, em média, de uma etapa para a seguinte. E nos casos em que as medidas ainda não foram implementadas, as empresas afirmam, na sua esmagadora maioria, que tencionam atuar. Em todas as medidas de IA responsável, menos de 2% informam que a sua organização não tem planos para as implementar.

Este progresso é importante. A IA responsável não pode ser alcançada apenas através de princípios - requer uma abordagem "all of the above". Uma articulação clara dos princípios, controlos sólidos e uma governação forte são essenciais para garantir que a IA responsável passe das palavras à realidade.  

A IA responsável é o elo que faltava

A IA já proporcionou grandes vitórias a muitas organizações. Oito em cada 10 inquiridos referem melhorias na eficiência e na produtividade - o principal objetivo de muitos dos primeiros casos de utilização. Quase tantos afirmam que a IA impulsionou a inovação e a adoção de tecnologias - ajudando a acelerar as actividades em que a IA generativa se destaca, como a ideação, a descoberta, a investigação e o desenvolvimento e a prototipagem rápida. Cerca de três em cada quatro afirmam que melhorou a sua capacidade de compreender os clientes e de responder rapidamente às mudanças nas condições do mercado.


No entanto, em três áreas críticas - satisfação dos trabalhadores, crescimento das receitas e redução de custos - a IA não proporcionou uma melhoria de desempenho semelhante. De acordo com o inquérito EY AI Sentiment, metade dos cidadãos estão preocupados com a perda de emprego devido à IA e muitos continuam hesitantes no que diz respeito ao papel da IA na tomada de decisões no local de trabalho. Traduzir os investimentos em IA em melhorias tangíveis na demonstração de resultados também continua a ser uma tarefa difícil para muitas empresas.

Cathy Cobey, EY Global Responsible AI Leader for Assurance explica, "As organizações lutam para alcançar um ROI positivo nos seus investimentos em IA devido às complexidades da integração da IA nos processos existentes, que exigem reengenharia, upskilling e investimentos contínuos no fluxo de dados. Além disso, os desafios na integração de tecnologias antigas e a necessidade de evoluir os quadros de governação impedem a sua capacidade de obter benefícios financeiros tangíveis."

No entanto, quando aprofundámos os dados, surgiu algo notável: as empresas que abraçaram a IA responsável estão a ultrapassar os obstáculos que as outras estão a ultrapassar. As organizações que estão a adotar medidas de governação - especificamente a monitorização em tempo real e os comités de supervisão - têm muito mais probabilidades de registar melhorias no crescimento das receitas, na satisfação dos funcionários e na redução de custos, as áreas exatas em que a maioria tem dificuldade em obter retorno.


Esta ligação sugere uma relação simbiótica. As empresas que avançaram mais no percurso da IA responsável são as que registam melhorias nas áreas que precisam de maior impulso, e não é difícil perceber porquê. Os trabalhadores ansiosos podem ser tranquilizados por um compromisso público do seu empregador relativamente a uma IA responsável. A comunicação de uma abordagem responsável pode construir a reputação da marca e a fidelidade do cliente - conduzindo, em última análise, ao aumento das receitas. Além disso, uma governação sólida pode ajudar a evitar violações técnicas e éticas dispendiosas, bem como reduzir os custos de recrutamento e retenção - benefícios que, em última análise, se repercutem nos resultados e aumentam a poupança de custos. 

Para os líderes empresariais, a mensagem é clara - aumente o retorno dos seus investimentos em IA avançando no percurso da IA responsável. 

O preço de ignorar os riscos

Embora a adoção responsável da IA gere benefícios, o inverso também é verdadeiro: negligenciá-la pode ter um custo elevado. Quase todas as empresas do nosso inquérito (99%) comunicaram perdas financeiras decorrentes de riscos relacionados com a IA e 64% registaram perdas superiores a 1 milhão de dólares. Em média, a perda financeira para as empresas que enfrentaram riscos é, de forma conservadora, estimada em 4,4 milhões de dólares.1 Isso corresponde a uma perda total estimada de 4,3 mil milhões de dólares (EUA) entre os 975 inquiridos da nossa amostra.  

Os riscos mais comuns pelos quais as organizações declararam ter sido afetadas negativamente são o incumprimento dos regulamentos em matéria de IA (57%), os impactos negativos nos objetivos de sustentabilidade (55%) e o enviesamento dos resultados (53%). Até agora, questões como a explicabilidade, a responsabilidade jurídica e os danos à reputação têm sido menos proeminentes, mas prevê-se que a sua importância aumente à medida que a IA for sendo utilizada de forma mais visível e em grande escala.

É encorajador o facto de a IA responsável já estar associada a menos impactos negativos. Por exemplo, aqueles que já definiram um conjunto claro de princípios de IA responsável registaram menos 30% riscos em comparação com aqueles que não o fizeram. 

Os pontos cegos da direção deixam as empresas expostas

Apesar dos riscos financeiros, é evidente que muitos líderes C-suite não sabem como aplicar os controlos certos para mitigar os riscos da IA. Quando lhe foi pedido que fizesse corresponder os controlos adequados a cinco riscos relacionados com a IA, apenas 12% dos inquiridos acertaram em todos. 

Como seria de esperar, os CIO e os CTO tiveram o melhor desempenho, mas mesmo aqui apenas cerca de um quarto respondeu corretamente aos cinco casos de utilização. 

Os Chief AI Officers (CAIOs) e os Chief Digital Officers (CDOs) tiveram um desempenho apenas ligeiramente melhor do que a média (15%), o que provavelmente reflecte uma experiência mais baseada na ciência dos dados, no meio académico e no desenvolvimento de modelos do que na gestão tradicional dos riscos tecnológicos. Consequentemente, podem ter menos experiência na gestão de riscos relacionados com a tecnologia do que os seus homólogos CIO e CTO. 

É preocupante o facto de os CRO - os líderes que são, em última análise, responsáveis pelos riscos da IA - terem um desempenho ligeiramente abaixo da média, com 11%. E, na extremidade inferior do espetro, os CMO, os COO e os CEO tiveram o pior desempenho (3%, 6% e 6% respetivamente). 


Esta falta de consciência tem consequências. As empresas que perderam mais de 10 milhões de dólares devido a riscos de IA referem, em média, que têm 4,5 em 10 dos controlos corretos implementados, enquanto as empresas que perderam 1 milhão de dólares ou menos têm 6,4. Este facto evidencia uma clara necessidade de melhorar as competências dos diretores executivos, sobretudo porque os custos financeiros e de reputação dos riscos de IA continuam a aumentar.

Desafios futuros: IA agêntica e cidadãos programadores

 O desafio da governação não termina com os modelos atuais. À medida que a IA agêntica se torna mais prevalecente no local de trabalho e os funcionários experimentam o desenvolvimento dos cidadãos, os riscos - e a necessidade de controlos cuidadosos - só tendem a aumentar. 

A natureza autónoma da IA agêntica introduz novos riscos que podem aumentar rapidamente.

O que é encorajador é que a maioria das organizações já está a implementar políticas de governação para gerir estes riscos. Oito das 10 medidas de governação da IA agêntica que identificámos estão a ser implementadas por mais de 75% dos inquiridos. Isto inclui monitorização contínua (85%) e processos de escalonamento de incidentes para comportamentos agênticos inesperados (80%). Embora as organizações tenham começado bem, ainda existem desafios na conceção de controlos eficazes que possam supervisionar adequadamente os sistemas que funcionam continuamente, se adaptam rapidamente e requerem uma intervenção humana mínima.  


"Na era da IA agêntica, em que os sistemas operam com crescente autonomia e complexidade, as organizações devem dar prioridade à supervisão em tempo real: A monitorização contínua e as capacidades de resposta rápida são essenciais para navegar nas complexidades destas tecnologias. A natureza autónoma da IA agêntica introduz novos riscos que podem escalar rapidamente, tornando necessários controlos robustos para evitar interrupções dispendiosas e garantir a integridade do sistema", observa Sinclair Schuller, EY Americas Responsible AI Leader.

Uma área específica que está a ficar para trás é a preparação para uma força de trabalho híbrida IA-humana. Apenas um terço (32%) afirma que a sua equipa de RH está a desenvolver estratégias para gerir esses ambientes. Ainda assim, dada a natureza incipiente da IA agêntica, este número pode ser visto como promissor, uma vez que indica que as empresas estão a começar a pensar estrategicamente nas implicações a longo prazo da tecnologia.

Cidadãos programadores - oportunidade ou ponto cego?

O aumento dos "programadores cidadãos" - funcionários que utilizam ferramentas sem código ou com pouco código para criar os seus próprios agentes de IA - apresenta um desafio mais complexo.

Um terço (32%) das empresas optou por proibir totalmente esta prática. Entre as restantes, a tolerância varia entre casos de utilização estritamente limitados e o encorajamento ativo, com algumas empresas a promoverem mesmo as melhores práticas entre equipas.


O que mais deve preocupar os líderes é a incoerência entre a política declarada e a supervisão no mundo real. Entre as organizações que permitem programadores cidadãos, apenas 60% dispõem de estruturas formais a nível da organização para ajudar a garantir o alinhamento com os princípios de IA responsável e apenas metade tem uma grande visibilidade da atividade real.  E mesmo entre as empresas que proíbem a prática, 12% admitem que não têm visibilidade da atividade real - criando uma lacuna de governação onde o desenvolvimento da IA sombra pode florescer sem ser detectado - o que significa que estão essencialmente a voar às cegas.

O aparecimento da IA agêntica e dos programadores cidadãos sublinha um tema central das nossas conclusões: a IA responsável deve evoluir a par da tecnologia e dos comportamentos no local de trabalho. Quadros claros, supervisão proativa e sensibilização da liderança são fundamentais se as organizações quiserem aproveitar os benefícios destas tendências sem agravar os seus riscos.

Implicações para os líderes empresariais 

Aqui estão três ações que os líderes da C-suite podem tomar para reforçar a sua governação e controlos de IA e impulsionar os resultados empresariais:   

1. Adotar uma abordagem global da IA responsável

A relação simbiótica entre a adoção responsável da IA e as melhorias de desempenho impulsionadas pela IA tem uma mensagem clara para os líderes empresariais. Para obter mais valor dos seus investimentos em IA - particularmente em áreas cruciais como o desempenho financeiro e a satisfação dos funcionários - é fundamental que as empresas avancem na jornada da IA responsável. Uma abordagem abrangente inclui articular e comunicar os seus princípios de IA responsável, executá-los com controlos, KPIs e formação, e estabelecer uma governação eficaz. 

2. Preencha as lacunas de conhecimento na direção 

A IA afeta todas as facetas da sua organização. É fundamental que os líderes da C-suite compreendam tanto o seu potencial como os seus riscos - e os controlos necessários para os mitigar. No entanto, o nosso inquérito revela lacunas significativas no conhecimento dos controlos mais adequados.

Como é que o seu C-suite se compara? Identifique onde estão as maiores lacunas e preencha essas lacunas com formação específica. No mínimo, assegure-se de que as funções mais próximas dos riscos de IA estão bem informadas sobre as salvaguardas adequadas. 

3. Antecipe-se aos riscos emergentes da IA agêntica e dos desenvolvedores cidadãos 

A IA agêntica promete novas capacidades poderosas, mas também acarreta riscos significativos. É fundamental que as organizações identifiquem estes riscos, adotem políticas adequadas e assegurem a governação e monitorização apropriadas. 

Existem lacunas entre as políticas declaradas pelas empresas e a sua perceção sobre se os funcionários estão a desenvolver os seus próprios agentes de IA. Compreenda os custos e benefícios para a sua organização antes de definir a sua posição. E - independentemente de proibir, permitir ou encorajar a prática - certifique-se de que a sua política é apoiada por informações reais sobre o que os funcionários estão realmente a fazer. 

Resumo

À medida que a IA se vai integrando mais profundamente nas operações comerciais, os líderes enfrentam uma escolha clara: tratar a IA responsável como um exercício de preenchimento de formulários ou como um facilitador estratégico. Aqueles que seguem este último caminho já estão a provar que uma governação sólida, princípios claros e uma liderança informada podem transformar potenciais riscos em vantagens competitivas. A próxima vaga de desenvolvimentos - dos modelos agênticos ao desenvolvimento dos cidadãos - só irá aumentar a parada. O sucesso pertencerá às organizações que agirem agora para alinhar a responsabilidade com o desempenho.

Conteúdo Relacionado

    About this article