Tres profesionales del mundo de los negocios de diversas procedencias entablan una discusión mientras se encuentran en el corredor de una oficina espaciosa y bien iluminada con arquitectura moderna y vegetación

Cómo las evaluaciones de IA pueden aumentar la confianza en la IA

Las evaluaciones de la IA bien diseñadas pueden ayudar a valorar si las inversiones en esta tecnología cumplen las expectativas de las compañías y de la sociedad.


En resumen
  • Los líderes empresariales, los responsables políticos y los inversionista buscan claridad sobre el impacto, la fiabilidad y la fiabilidad de los sistemas de inteligencia artificial (IA).
  • En todo el mundo, las recientes iniciativas de política pública en materia de IA están introduciendo marcos de evaluación, que a menudo se denominan "auditorías de IA" o "garantía de IA".
  • Las evaluaciones de IA, ya sean voluntarias o reglamentarias, pueden ayudar a las compañías a evaluar el rendimiento, la gobernanza y el cumplimiento de la IA.

Para los líderes empresariales, los responsables políticos y el público en general, la IA representa una oportunidad generacional para aumentar la productividad y la innovación. Pero la IA también puede parecer una caja negra, con una transparencia y una garantía mínimas de su eficacia, gobernanza y fiabilidad.  Y aunque están surgiendo marcos de evaluación de la IA que pretenden abordar estas preocupaciones, el gran número y variedad de enfoques es todo un reto.

Escrito por profesionales de EY en colaboración con la Asociación de Contables Colegiados (ACCA, por sus siglas en inglés), este artículo explora el incipiente campo de las evaluaciones de la IA, identifica las características de las evaluaciones eficaces de la IA y destaca las consideraciones clave para los líderes empresariales y los responsables políticos. Nuestra revisión encuentra un ecosistema de evaluación rápidamente emergente que ofrece a las compañías la oportunidad de construir y desplegar sistemas de IA que tengan más probabilidades de ser eficaces, seguros y fiables. Las evaluaciones de la IA —ya sean voluntarias u obligatorias— pueden aumentar la confianza en los sistemas de IA. Cuando están bien diseñados, pueden permitir a los líderes empresariales evaluar si los sistemas funcionan según lo previsto, informar sobre la gobernanza eficaz y la mitigación de riesgos, y apoyar el cumplimiento de cualquier ley, reglamento o norma aplicable.  

Las preocupaciones sobre la IA —al igual que el entusiasmo— tienen una base amplia. El EY 2025 AI Sentiment Index Study, una encuesta mundial realizada a más de 15.000 personas, reveló que, aunque el 82 % de los consumidores optó por emplear la IA en los últimos seis meses, el 58 % de los consumidores está preocupado porque las organizaciones no se responsabilizan de los usos negativos de la IA. Los líderes empresariales se preguntan cómo pueden evaluar si un sistema de IA es seguro y eficaz; cómo deben identificar y gestionar sus riesgos; y cómo medir un sistema de IA en función de criterios de gobernanza y rendimiento.

Evaluaciones de IA: aumentar la confianza en la IA

Las evaluaciones eficaces de la inteligencia artificial pueden respaldar una gobernanza, un cumplimiento y un rendimiento estables.

Comprender el panorama de la evaluación de la IA

Hasta enero de 2025, los responsables políticos de casi 70 países introdujeron más de mil iniciativas de política pública en materia de IA, incluyendo legislación, reglamentación, iniciativas voluntarias y acuerdos, según la Organización para la Cooperación y el Desarrollo Económico (OCDE). Muchas de estas iniciativas incluyen varios tipos de evaluaciones de la IA.  Estas evaluaciones pueden agrupar a grandes rasgos en tres categorías:
 

  1. Evaluaciones de gobernanza, que determinan si existen políticas, procesos y personal adecuados de gobernanza corporativa interna para gestionar un sistema de IA, incluidos los riesgos, la idoneidad y la fiabilidad de dicho sistema.

  2. Evaluaciones de conformidad, que determinan si el sistema de IA de una organización cumple las leyes, reglamentos, normas u otros requisitos políticos pertinentes.

  3. Evaluaciones de rendimiento, que miden la calidad del rendimiento de las funciones principales de un sistema de IA, como la precisión, la no discriminación y la fiabilidad. A menudo emplean métricas cuantitativas para evaluar aspectos específicos del sistema de IA.
     

Incluso con estos tres tipos de evaluaciones emergentes, puede haber variaciones significativas en la calidad de la evaluación. Para subsanar estas deficiencias, recomendamos que todas las evaluaciones de la IA incluyan las siguientes características:
 

  • Especificidad sobre lo que se va a evaluar y por qué: Un marco eficaz de evaluación de la IA tendrá un objetivo empresarial o político, un alcance y un tema claramente especificados y articulados.

  • Metodología clara: Las metodologías y los criterios adecuados determinan cómo se evalúa una materia, y es esencial que las evaluaciones de IA similares empleen enfoques claramente definidos y coherentes. Algunas evaluaciones, por ejemplo, pueden incluir opiniones o conclusiones explícitas, mientras que otras pueden limitar a ofrecer un resumen de los procedimientos realizados. La coherencia, combinada con una terminología clara, permite a los usuarios comparar los resultados de la evaluación y comprender cómo se alcanzaron.

  • Cualificaciones adecuadas de quienes proporcionan la evaluación: La elección del proveedor de la evaluación es crucial e influye directamente en la credibilidad, fiabilidad e integridad general del proceso. Las consideraciones clave para seleccionar a los proveedores de evaluación incluyen la competencia y las cualificaciones, la objetividad y la responsabilidad profesional.

Próximos pasos para los líderes empresariales

  • Considerar el papel que pueden desempeñar las evaluaciones de la IA en la mejora del gobierno corporativo y la gestión de riesgos. Las evaluaciones de la IA pueden ayudar a los líderes empresariales a identificar y gestionar los riesgos en evolución asociados a sus sistemas de IA y ayudar a indicar si los sistemas de IA funcionan según lo previsto.

  • Evaluar la posibilidad —incluso en ausencia de obligaciones reglamentarias— de realizar evaluaciones voluntarias para generar confianza en los sistemas de IA entre los empleados, los clientes y stakeholders importantes. La dinámica del mercado, la demanda de los inversionista o las consideraciones de gobernanza interna pueden hacer aconsejable una evaluación voluntaria de la IA para generar confianza en los sistemas de IA de una compañía. Además, si algunos sistemas de IA están sujetos a obligaciones reglamentarias, los líderes empresariales pueden optar por emplear evaluaciones para ayudar a medir y monitorear el cumplimiento.

  • Cuando se empleen evaluaciones voluntarias, determinar la evaluación más apropiada. Los líderes empresariales querrán determinar si deben llevar a cabo una evaluación de la gobernanza, el cumplimiento y el rendimiento, y si debe ser realizada internamente o por un tercero.

Resumen

Los líderes empresariales y los responsables políticos están considerando el papel que pueden desempeñar las evaluaciones de la IA para apoyar sus objetivos de gobernanza de la IA. Aunque el panorama actual de la evaluación de la IA presenta algunos desafíos evidentes, un grupo diverso de partes interesadas está trabajando para abordar estas cuestiones. El desarrollo de este ecosistema es importante. Si se diseñan adecuadamente y se llevan a cabo de forma cuidadosa y objetiva, las evaluaciones de la IA pueden ayudar a las compañías a valorar la fiabilidad de sus sistemas de IA y promover la confianza en la IA necesaria para aprovechar su potencial.

Artículos relacionados

Cómo EY está navegando por el cumplimiento global de la IA: La Ley de IA de la UE y más allá

EY está convirtiendo la regulación de la IA en una ventaja estratégica. Conoce más en este caso de estudio.