Três profissionais de negócios de diversas origens participam de uma discussão em um corredor de escritório espaçoso e bem iluminado, com arquitetura moderna e vegetação

Como as avaliações de IA podem aumentar a confiança na IA

Avaliações de IA bem elaboradas podem ajudar a avaliar se os investimentos na tecnologia atendem às expectativas das empresas e da sociedade.


Em resumo
  • Líderes empresariais, formuladores de políticas e investidores buscam clareza sobre o impacto, a confiabilidade e a fidedignidade dos sistemas de inteligência artificial (IA).
  • Em todo o mundo, iniciativas recentes de políticas públicas de IA estão introduzindo estruturas de avaliação, muitas vezes chamadas de "auditorias de IA" ou "garantia de IA".
  • As avaliações de IA, sejam elas voluntárias ou regulatórias, podem ajudar as empresas a avaliar o desempenho, a governança e a conformidade da IA.

Para os líderes empresariais, os formuladores de políticas e o público, a IA representa uma oportunidade de geração para aumentar a produtividade e a inovação. Mas a IA também pode parecer uma caixa preta, com transparência e garantia mínimas de sua eficácia, governança e confiabilidade.  E, embora estejam surgindo estruturas de avaliação de IA que visam abordar essas preocupações, o grande número e a variedade de abordagens são desafiadores.

Escrito por profissionais da EY em colaboração com a Association of Chartered Certified Accountants (ACCA), este artigo explora o campo nascente das avaliações de IA, identifica as características das avaliações eficazes de IA e destaca as principais considerações para líderes empresariais e formuladores de políticas. Nossa análise encontra um ecossistema de avaliação que está surgindo rapidamente e que oferece às empresas a oportunidade de criar e implantar sistemas de IA com maior probabilidade de serem eficazes, seguros e confiáveis. As avaliações de IA, sejam elas voluntárias ou obrigatórias, podem aumentar a confiança nos sistemas de IA. Quando bem projetados, eles podem permitir que os líderes empresariais avaliem se os sistemas estão funcionando conforme o esperado, informem a governança eficaz e a mitigação de riscos e apoiem a conformidade com quaisquer leis, regulamentos ou padrões aplicáveis.  

As preocupações com a IA — assim como a empolgação — têm uma base ampla. O EY AI Sentiment Index Study 2025, uma pesquisa global com mais de 15.000 pessoas, descobriu que, embora 82% dos consumidores tenham optado por usar IA nos últimos seis meses, 58% dos consumidores estão preocupados com o fato de as organizações não estarem conseguindo se responsabilizar pelos usos negativos da IA. Os líderes empresariais estão se perguntando como podem avaliar se um sistema de IA é seguro e eficaz; como devem identificar e gerenciar seus riscos; e como medir um sistema de IA em relação aos critérios de governança e desempenho.

Avaliações de IA: aumentando a confiança na IA

Avaliações eficazes da inteligência artificial podem apoiar uma governança, conformidade e desempenho sólidos.

Entendendo o cenário de avaliação de IA

Em janeiro de 2025, os formuladores de políticas de quase 70 países introduziram mais de mil iniciativas de políticas públicas de IA, incluindo legislação, regulamentação, iniciativas voluntárias e acordos, de acordo com a Organização para Cooperação e Desenvolvimento Econômico (OCDE). Muitas dessas iniciativas incluem vários tipos de avaliações de IA.  Essas avaliações podem ser amplamente agrupadas em três categorias:
 

  1. Avaliações de governança, que determinam se existem políticas, processos e pessoal de governança corporativa interna adequados para gerenciar um sistema de IA, incluindo os riscos, a adequação e a confiabilidade desse sistema.

  2. Avaliações de conformidade, que determinam se o sistema de IA de uma organização está em conformidade com as leis, regulamentos, normas ou outros requisitos de política relevantes.

  3. Avaliações de desempenho, que medem a qualidade do desempenho das principais funções de um sistema de IA, como precisão, não discriminação e confiabilidade. Eles geralmente usam métricas quantitativas para avaliar aspectos específicos do sistema de IA.
     

Mesmo com esses três tipos emergentes de avaliações, pode haver variações significativas na qualidade da avaliação. Para resolver essas deficiências, recomendamos que todas as avaliações de IA incluam as seguintes características:
 

  • Especificidade sobre o que deve ser avaliado e por quê:  Uma estrutura eficaz de avaliação de IA terá um objetivo comercial ou político, um escopo e um assunto claramente especificados e articulados.

  • Metodologia clara: As metodologias e os critérios adequados determinam como um assunto é avaliado, e é essencial que avaliações semelhantes de IA usem abordagens claramente definidas e consistentes. Algumas avaliações, por exemplo, podem incluir opiniões ou conclusões explícitas, enquanto outras podem fornecer apenas um resumo dos procedimentos realizados. A consistência, combinada com uma terminologia clara, permite que os usuários comparem os resultados da avaliação e entendam como eles foram alcançados.

  • Qualificações adequadas para quem fornece a avaliação:  A escolha do fornecedor da avaliação é crucial e influencia diretamente a credibilidade, a confiabilidade e a integridade geral do processo. As principais considerações para a seleção de provedores de avaliação incluem competência e qualificações, objetividade e responsabilidade profissional.

Próximas etapas para líderes empresariais

  • Considere o papel que as avaliações de IA podem desempenhar no aprimoramento da governança corporativa e do gerenciamento de riscos. As avaliações de IA podem ajudar os líderes empresariais a identificar e gerenciar os riscos em evolução associados aos seus sistemas de IA e ajudar a indicar se os sistemas de IA funcionam conforme o esperado.

  • Avaliar se –  mesmo na ausência de obrigações regulatórias – é possível realizar avaliações voluntárias para criar confiança nos sistemas de IA entre funcionários, clientes e outros stakeholders importantes.  A dinâmica do mercado, a demanda dos investidores ou as considerações de governança interna podem tornar aconselhável uma avaliação voluntária da IA para criar confiança nos sistemas de IA de uma empresa. Além disso, se alguns sistemas de IA estiverem sujeitos a obrigações regulamentares, os  líderes empresariais  poderão optar por usar avaliações para ajudar a medir e monitorar a conformidade.

  • Quando forem usadas avaliações voluntárias, determine a avaliação mais adequada.  Os líderes empresariais deverão determinar se devem realizar uma avaliação de governança, conformidade e desempenho, e se ela deve ser realizada internamente ou por terceiros.

Sumário

Os líderes empresariais e os formuladores de políticas estão considerando o papel que as avaliações de IA podem desempenhar para apoiar seus objetivos de governança de IA. Embora o cenário atual de avaliação de IA apresente alguns desafios claros, um grupo diversificado de stakeholders está trabalhando para resolver esses problemas. O desenvolvimento desse ecossistema é importante. Se forem adequadamente projetadas e conduzidas de maneira cuidadosa e objetiva, as avaliações de IA podem ajudar as empresa  a avaliar a confiabilidade de seus sistemas de IA e promover a confiança na IA necessária para realizar seu potencial.

Conteúdos relacionados

Como a IA responsável pode soltar as amarras de sua vantagem competitiva

Descubra como preencher a lacuna de confiança na IA pode promover sua adoção e criar uma vantagem competitiva. Ponha em prática três ações principais para uma liderança responsável em IA.

Como a EY está navegando no compliance global de IA: A Lei de IA da UE e além

A EY está transformando a regulamentação da IA em uma vantagem estratégica. Saiba mais neste estudo de caso.

Como o uso atual da IA que prioriza a integridade cria confiança para o futuro

O Relatório Global de Integridade da EY de 2024 revela como o uso da IA que prioriza a integridade hoje cria confiança para amanhã. Leia nossa análise.