Man practicing slackline over the sea in Minorca Balearic Islands Spain
Man practicing slackline over the sea in Minorca Balearic Islands Spain

Responsible AI Pulse survey

Como a IA responsável pode preencher a lacuna entre investimento e impacto?

Tópicos relacionados

A IA compensa quando é incorporada de forma responsável: maiores lucros, funcionários mais felizes e menos erros dispendiosos.


Em resumo

  • As empresas com supervisão e monitoramento em tempo real estão transformando a IA de um risco em um mecanismo de crescimento.
  • As perdas financeiras significativas decorrentes do risco de IA são reais e vieram para ficar para aqueles que não têm os controles certos em vigor.
  • Os pontos cegos da liderança podem deixar as empresas expostas; é essencial ter uma supervisão dos desenvolvedores cidadãos.

As empresas que estão obtendo um desempenho superior com a inteligência artificial (IA) não estão apenas criando modelos melhores — elas estão construindo grades de proteção mais inteligentes que lhes permitem aproveitar oportunidades de mercado de grande porte. A última pesquisa EY Global Responsible AI Pulse revela que as organizações que adotam a IA responsável — por meio de princípios claros, execução robusta e forte governança — estão avançando nas métricas em que os ganhos relacionados à IA têm sido mais evasivos: crescimento da receita, economia de custos e satisfação dos funcionários. Esses ganhos não são marginais, são a diferença entre a IA como um centro de custos e a IA como uma vantagem competitiva.

Quase todas as empresas da pesquisa já sofreram perdas financeiras devido a incidentes relacionados à IA, com danos médios conservadores de US$ 4,4 milhões. Mas aqueles que adotam medidas de governança, como monitoramento em tempo real e comitês de supervisão, estão apresentando muito menos riscos e retornos mais sólidos. 

A IA responsável não é um exercício de conformidade. É uma alavanca de desempenho — e os dados mais recentes comprovam isso.

A jornada responsável da IA: as empresas estão adotando uma abordagem abrangente

A IA responsável é melhor compreendida como uma jornada, que passa por três estágios. Em primeiro lugar, vem a comunicação, na qual as organizações articulam um conjunto claro de princípios de IA responsável interna e externamente. Em seguida, vem a execução, quando esses princípios são traduzidos das palavras para a ação, por meio de controles, indicadores-chave de desempenho e treinamento da força de trabalho. Por fim, vem a governança, a supervisão necessária para ajudar a garantir que as ações e os princípios permaneçam alinhados, por meio de medidas como comitês e auditorias independentes. 

 

A maioria das empresas já iniciou essa jornada. A segunda onda da pesquisa EY Global Responsible AI Pulse perguntou aos líderes C-suite sobre as etapas de adoção responsável da IA nesses três estágios. Em média, as empresas implementaram sete de cada dez medidas.  

 

A adoção é ainda maior em setores como tecnologia, mídia e entretenimento e telecomunicações (TMT), em que a maior dependência de tecnologia e dados para a prestação de serviços essenciais torna a IA responsável ainda mais essencial. As organizações desses setores são mais propensas do que outras a comunicar os princípios de IA responsável aos stakeholders externos (80% vs. 71%). Elas também estão mais à frente em termos de governança: 74% estabeleceram um comitê interno ou externo para supervisionar a adesão a esses princípios (vs. 61% em outros setores), e 72% realizam avaliações independentes de práticas responsáveis de governança e controle de IA (vs. 61%).


Embora haja uma queda em cada estágio da jornada da IA responsável, a diferença é mínima, diminuindo apenas alguns pontos percentuais, em média, de uma etapa para a outra. E nos casos em que as medidas ainda não foram implementadas, as empresas afirmam, em sua maioria, que pretendem agir. Em todas as medidas de IA responsável, menos de 2% informam que sua organização não tem planos de implementar.

Esse progresso é importante. A IA responsável não pode ser alcançada apenas por meio de princípios - ela exige uma abordagem "all of the above". A articulação clara dos princípios, os controles robustos e a governança sólida são essenciais para garantir que a IA responsável passe das palavras à realidade.  

A IA responsável é o elo perdido

A IA já proporcionou grandes vitórias para muitas organizações. Oito em cada dez entrevistados relatam melhorias na eficiência e na produtividade — o foco principal de muitos casos de uso iniciais. Quase o mesmo número de pessoas afirma que a IA impulsionou a inovação e a adoção de tecnologia, ajudando a acelerar as atividades nas quais a IA generativa se destaca, como ideação, descoberta, pesquisa e desenvolvimento e prototipagem rápida. Cerca de três em cada quatro afirmam que isso melhorou sua capacidade de entender os clientes e responder rapidamente às mudanças nas condições do mercado.


No entanto, em três áreas críticas – satisfação dos funcionários, crescimento da receita e economia de custos – a IA não proporcionou uma melhoria de desempenho semelhante. De acordo com a pesquisa EY AI Sentiment, metade dos cidadãos está preocupada com a perda de emprego devido à IA e muitos permanecem hesitantes quando se trata do papel da IA na tomada de decisões no local de trabalho. Traduzir os investimentos em IA em melhorias tangíveis no demonstrativo de lucros e perdas também continua sendo uma tarefa difícil para muitas empresas.

Cathy Cobey, EY Global Responsible AI Leader for Assurance, explica: "As organizações lutam para obter um ROI positivo em seus investimentos em IA devido às complexidades de integrar a IA aos processos existentes, que exigem reengenharia, upskilling e investimentos contínuos em fluxo de dados. Além disso, os desafios na integração da tecnologia legada e a necessidade de estruturas de governança em evolução impedem a capacidade de obter benefícios financeiros tangíveis."

No entanto, quando nos aprofundamos nos dados, surgiu algo notável: as empresas que adotaram a IA responsável estão avançando onde outras estão parando. As organizações que estão adotando medidas de governança — especificamente comitês de monitoramento e supervisão em tempo real — têm muito mais probabilidade de relatar melhorias no crescimento da receita, na satisfação dos funcionários e na economia de custos, exatamente as áreas em que a maioria está lutando para obter retorno.


Esse vínculo sugere uma relação simbiótica. As empresas que avançaram mais na jornada da IA responsável são as que estão observando melhorias nas áreas que precisam de maior impulso, e não é difícil perceber por quê. Os funcionários ansiosos podem ser tranquilizados por um compromisso público com a IA responsável por parte de seu empregador. A comunicação de uma abordagem responsável pode construir a reputação da marca e a fidelidade do cliente, o que, em última análise, impulsiona o crescimento da receita. E uma governança robusta pode ajudar a evitar violações técnicas e éticas dispendiosas, além de reduzir os custos de recrutamento e retenção — benefícios que, em última análise, fluem para o resultado final e aumentam a economia de custos. 

Para os líderes empresariais, a mensagem é clara: aumente o retorno de seus investimentos em IA avançando na jornada da IA responsável. 

O preço de ignorar os riscos

Embora a adoção responsável da IA gere benefícios, o inverso também é verdadeiro: negligenciá-la pode ter um custo muito alto. Quase todas as empresas em nossa pesquisa (99%) relataram perdas financeiras decorrentes de riscos relacionados à IA, e 64% sofreram perdas superiores a US$ 1 milhão. Em média, a perda financeira para as empresas que sofreram riscos é estimada, de forma conservadora, em US$ 4,4 milhões.1 Isso representa uma perda total estimada de US$ 4,3 bilhões para os 975 entrevistados de nossa amostra.  

Os riscos mais comuns pelos quais as organizações relataram ter sido impactadas negativamente são a não conformidade com os regulamentos de IA (57%), impactos negativos sobre as metas de sustentabilidade (55%) e viés nos resultados (53%). Até o momento, questões como explicabilidade, responsabilidade legal e danos à reputação têm sido menos proeminentes, mas espera-se que sua importância aumente à medida que a IA for implantada de forma mais visível e em escala.

De forma encorajadora, a IA responsável já está associada a menos impactos negativos. Por exemplo, aqueles que já definiram um conjunto claro de princípios de IA responsável sofreram 30% riscos a menos em comparação com aqueles que não o fizeram. 

Os pontos cegos da diretoria deixam as empresas expostas

Apesar dos riscos financeiros, está claro que muitos líderes da diretoria executiva não sabem como aplicar os controles certos para mitigar os riscos de IA. Quando solicitados a combinar os controles adequados com cinco riscos relacionados à IA, apenas 12% dos entrevistados acertaram todos eles. 

Como era de se esperar, os CIOs e CTOs tiveram o melhor desempenho, mas mesmo assim apenas cerca de um quarto respondeu corretamente em todos os cinco casos de uso. 

Os diretores de IA (CAIOs) e os diretores digitais (CDOs) se saíram apenas um pouco melhor do que a média (15%), provavelmente refletindo um histórico mais fundamentado em ciência de dados, academia e desenvolvimento de modelos, em vez do tradicional gerenciamento de riscos de tecnologia. Consequentemente, eles podem ter menos experiência no gerenciamento de riscos relacionados à tecnologia do que seus colegas CIOs e CTOs. 

Preocupantemente, os CROs — os líderes que são os principais responsáveis pelos riscos de IA — têm um desempenho ligeiramente abaixo da média, com 11%. E na extremidade inferior do espectro, os CMOs, COOs e CEOs tiveram o pior desempenho (3%, 6% e 6% respectivamente). 


Essa falta de conscientização tem consequências. As empresas que perderam mais de US$ 10 milhões devido a riscos de IA relatam, em média, que têm 4,5 dos 10 controles corretos implementados, enquanto as empresas que perderam US$ 1 milhão ou menos têm 6,4. Isso destaca uma clara necessidade de aprimoramento direcionado da diretoria executiva, principalmente porque o custo financeiro e de reputação dos riscos de IA continua a aumentar.

Desafios futuros: IA agêntica e desenvolvedores cidadãos

 O desafio da governança não termina com os modelos atuais. À medida que a IA agêntica se torna mais predominante no local de trabalho e os funcionários experimentam o desenvolvimento do cidadão, os riscos — e a necessidade de controles cuidadosos — só tendem a aumentar. 

A natureza autônoma da IA agêntica introduz novos riscos que podem aumentar rapidamente.

O que é animador é que a maioria das organizações já está implementando políticas de governança para gerenciar esses riscos. Oito das 10 medidas de governança de IA agêntica que identificamos estão sendo implementadas por mais de 75% dos entrevistados. Isso inclui o monitoramento contínuo (85%) e processos de escalonamento de incidentes para comportamentos agênticos inesperados (80%). Embora as organizações tenham tido um ótimo começo, ainda há desafios na elaboração de controles eficazes que possam supervisionar adequadamente os sistemas que operam continuamente, se adaptam rapidamente e exigem intervenção humana mínima.  


"Na era da IA agêntica, em que os sistemas operam com crescente autonomia e complexidade, as organizações devem priorizar a supervisão em tempo real: O monitoramento contínuo e os recursos de resposta rápida são essenciais para navegar pelas complexidades dessas tecnologias. A natureza autônoma da IA agêntica introduz novos riscos que podem aumentar rapidamente, tornando necessários controles robustos para evitar interrupções dispendiosas e garantir a integridade do sistema", observa Sinclair Schuller, Líder de IA Responsável da EY Americas.

Uma área específica que está atrasada é a preparação para uma força de trabalho híbrida de IA e humana. Apenas um terço (32%) afirma que sua equipe de RH está desenvolvendo estratégias para gerenciar esses ambientes. Ainda assim, dada a natureza incipiente da IA agêntica, esse número pode ser visto como promissor, pois indica que as empresas estão começando a pensar estrategicamente sobre as implicações de longo prazo da tecnologia.

Desenvolvedores cidadãos – oportunidade ou ponto cego?

O aumento dos "desenvolvedores cidadãos" — funcionários que usam ferramentas sem código ou com pouco código para criar seus próprios agentes de IA — apresenta um desafio mais complexo.

Um terço (32%) das empresas optou por proibir totalmente a prática. Entre os demais, a tolerância varia de casos de uso estritamente limitados a um incentivo ativo, com algumas empresas até mesmo promovendo práticas recomendadas entre as equipes.


O que mais deve preocupar os líderes é a inconsistência entre a política declarada e a supervisão no mundo real. Entre as organizações que permitem desenvolvedores cidadãos, apenas 60% têm estruturas formais em toda a organização para ajudar a garantir o alinhamento com os princípios de IA responsável e apenas metade tem alta visibilidade da atividade real.  E, mesmo entre as empresas que proíbem a prática, 12% admitem que não têm visibilidade da atividade real, criando uma lacuna de governança em que o desenvolvimento de IA sombra pode florescer sem ser detectado, o que significa que elas estão essencialmente às cegas.

O surgimento da IA agêntica e dos desenvolvedores cidadãos enfatiza um tema central de nossas descobertas: a IA responsável deve evoluir em sintonia com a tecnologia e os comportamentos no local de trabalho. Estruturas claras, supervisão proativa e conscientização da liderança são essenciais se as organizações quiserem aproveitar os benefícios dessas tendências sem agravar os riscos.

Implicações para os líderes empresariais 

Aqui estão três ações que os líderes da suíte C podem tomar para fortalecer a governança e os controles de IA  e aumentar os resultados dos negócios:   

1. Adotar uma abordagem abrangente para a IA responsável

A relação simbiótica entre a adoção responsável da IA e as melhorias de desempenho impulsionadas pela IA tem uma mensagem clara para os líderes empresariais. Para obter mais valor de seus investimentos em IA — especialmente em áreas cruciais como desempenho financeiro e satisfação dos funcionários — é fundamental que as empresas avancem na jornada da IA responsável. Uma abordagem abrangente inclui articular e comunicar seus princípios de IA responsável, executá-los com controles, KPIs e treinamento e estabelecer uma governança eficaz. 

2. Preencher as lacunas de conhecimento na diretoria executiva 

A IA afeta todas as facetas de sua organização. É fundamental que os líderes da diretoria executiva compreendam tanto o potencial quanto os riscos e os controles necessários para mitigá-los. No entanto, nossa pesquisa revela deficiências significativas no conhecimento de quais controles são mais adequados.

Como o seu C-suite se compara? Identificar onde estão as maiores lacunas e preenchê-las com treinamento direcionado. No mínimo, garanta que as funções mais próximas dos riscos de IA estejam bem informadas sobre as proteções adequadas. 

3. Antecipar-se aos riscos emergentes da IA agêntica e do desenvolvedor cidadão 

A IA agêntica promete novos recursos poderosos, mas também traz riscos significativos. É fundamental que as organizações identifiquem esses riscos, adotem políticas apropriadas e garantam que a governança e o monitoramento adequados estejam em vigor. 

Há lacunas entre as políticas declaradas das empresas e sua percepção sobre se os funcionários estão desenvolvendo seus próprios agentes de IA. Entenda os custos e benefícios para sua organização antes de definir sua posição. E, independentemente de você proibir, permitir ou incentivar a prática, certifique-se de que sua política seja respaldada por informações reais sobre o que os funcionários estão realmente fazendo. 

Sumário

À medida que a IA se torna mais profundamente incorporada às operações de negócios, os líderes enfrentam uma escolha clara: tratar a IA responsável como um exercício de preenchimento de caixa ou como um facilitador estratégico. Aqueles que seguem o último caminho já estão provando que uma governança robusta, princípios claros e liderança informada podem transformar riscos potenciais em vantagem competitiva. A próxima onda de desenvolvimentos — de modelos agênticos ao desenvolvimento do cidadão — só aumentará os riscos. O sucesso pertencerá às organizações que agirem agora para alinhar a responsabilidade ao desempenho.

Conteúdos relacionados

Como a reimaginação do risco pode prepará-lo para um mundo imprevisível?

O Estudo EY Global Risk Transformation de 2025 explora como os estrategistas de risco veem a disrupção mais cedo, se adaptam mais rapidamente e respondem com mais precisão

Como as avaliações de IA podem aumentar a confiança na IA

Avaliações de IA bem elaboradas podem ajudar a avaliar se os investimentos na tecnologia atendem às expectativas das empresas e da sociedade. Saiba mais.

EY Global + 2

    Sobre este artigo