Man practicing slackline over the sea in Minorca Balearic Islands Spain
Man practicing slackline over the sea in Minorca Balearic Islands Spain

Responsible AI Pulse survey

¿Cómo puede la IA responsable salvar la brecha entre la inversión y el impacto?

La IA da sus frutos cuando se integra de manera responsable: mayores ganancias, empleados más felices y menos errores costosos.


En resumen

  • Las empresas con supervisión y monitoreo en tiempo real están convirtiendo la IA de un riesgo en un motor de crecimiento.
  • Las pérdidas financieras significativas derivadas del riesgo de la IA son reales y persistirán para aquellos que no cuenten con los controles adecuados.
  • Los puntos ciegos del liderazgo pueden dejar a las empresas expuestas; es esencial supervisar a los desarrolladores ciudadanos.

Las empresas que obtienen mejores resultados gracias a la inteligencia artificial (IA) no solo están creando mejores modelos, sino que también están construyendo barreras de protección más inteligentes que les permiten aprovechar oportunidades de mercado excepcionales. La última EY Global Responsible AI Pulse survey revela que las organizaciones que adoptan la IA responsable —mediante principios claros, una ejecución sólida y una gobernanza firme— están tomando la delantera en los indicadores en los que los beneficios relacionados con la IA han sido más difíciles de alcanzar: crecimiento de los ingresos, ahorro de costos y satisfacción de los empleados. Estas ganancias no son marginales, son la diferencia entre la IA como centro de costos y la IA como ventaja competitiva.

Casi todas las empresas encuestadas ya han sufrido pérdidas financieras por incidentes relacionados con la IA, con daños medios que, según estimaciones conservadoras, superan los 4,4 millones de dólares. Sin embargo, aquellos que cuentan con medidas de gobernanza, como el monitoreo en tiempo real y los comités de supervisión, están experimentando muchos menos riesgos y mayores rendimientos. 

La IA responsable no es un ejercicio de cumplimiento normativo. Es una palanca de rendimiento, y los últimos datos lo demuestran.

El camino hacia una IA responsable: las empresas están adoptando un enfoque integral

La IA responsable se entiende mejor como un viaje, uno que pasa por tres etapas. En primer lugar está la comunicación, donde las organizaciones articulan un conjunto claro de principios de IA responsable tanto a nivel interno como externo. Lo siguiente es la ejecución, cuando esos principios se traducen de palabras a acciones, a través de controles, indicadores clave de rendimiento y capacitación de la fuerza laboral. Por último, está la gobernanza, la supervisión necesaria para garantizar que las acciones y los principios se mantengan alineados, a través de medidas como comités y auditorías independientes. 

 

La mayoría de las empresas han emprendido este camino. La segunda ronda de la EY Global Responsible AI Pulse survey preguntó a los altos directivos sobre las medidas para la adopción responsable de la IA en estas tres etapas. En promedio, las empresas han implementado siete de cada diez medidas.  

 

La adopción es aún mayor en sectores como la tecnología, los medios de comunicación y el entretenimiento y las telecomunicaciones (TMT, por sus siglas en inglés), donde una mayor dependencia de la tecnología y los datos para prestar servicios básicos hace que la IA responsable sea aún más importante. Las organizaciones de estos sectores son más propensas que otras a comunicar los principios de la IA responsable a las partes interesadas externas (80 % frente a 71 %). También están más avanzados en materia de gobernanza: el 74 % ha establecido un comité interno o externo para supervisar el cumplimiento de estos principios (frente a 61 % en otras industrias) y un 72 % realiza evaluaciones independientes de las prácticas responsables de gobernanza y control de la IA (frente a 61 %).


Si bien hay una disminución en cada etapa del camino hacia una IA responsable, la diferencia es mínima, ya que solo disminuye un par de puntos porcentuales en promedio de un paso al siguiente. Y en los casos en que aún no se han implementado medidas, las empresas afirman de manera abrumadora que tienen la intención de actuar. En todas las medidas de IA responsable, menos del 2 % informa que su organización no tiene planes de implementarlas.

Este progreso es importante. La IA responsable no se puede lograr solo con principios, sino que requiere un enfoque que abarque todos los aspectos mencionados anteriormente. Una articulación clara de los principios, controles sólidos y una gobernanza firme son esenciales para garantizar que la IA responsable pase de las palabras a la realidad.  

La IA responsable es el eslabón perdido

La IA ya ha proporcionado grandes beneficios a muchas organizaciones. Ocho de cada diez encuestados informan de mejoras en la eficiencia y la productividad, el objetivo principal de muchos de los primeros casos de uso. Casi el mismo número afirma que la IA ha impulsado la innovación y la adopción de tecnología, contribuyendo a acelerar actividades en las que la IA generativa destaca, como la ideación, el descubrimiento, la investigación y el desarrollo, y la creación rápida de prototipos. Aproximadamente tres de cada cuatro afirman que ha mejorado su capacidad para comprender a los clientes y responder rápidamente a las condiciones cambiantes del mercado.


Sin embargo, en tres áreas críticas (la satisfacción de los empleados, el crecimiento de los ingresos y el ahorro de costos), la IA no ha logrado una mejora similar en el rendimiento. Según la EY AI Sentiment survey, la mitad de los ciudadanos están preocupados por la pérdida de empleo debido a la IA y muchos siguen mostrándose indecisos en cuanto al papel de la IA en la toma de decisiones en el lugar de trabajo. Para muchas empresas, traducir las inversiones en IA en mejoras tangibles en la cuenta de resultados sigue siendo una tarea difícil de alcanzar.

Cathy Cobey, EY Global Responsible AI Leader for Assurance, explica: "Las organizaciones tienen dificultades para obtener un retorno de la inversión positivo en sus inversiones en IA debido a las complejidades que entraña la integración de la IA en los procesos existentes, lo que exige inversiones en reingeniería, mejora de las competencias y flujo continuo de datos. Además, los desafíos que plantea la integración de la tecnología heredada y la necesidad de desarrollar marcos de gobernanza dificultan su capacidad para obtener beneficios financieros tangibles".

Sin embargo, al profundizar en los datos, surgió algo notable: las empresas que han adoptado la IA responsable están avanzando donde otras se estancan. Las organizaciones que están adoptando medidas de gobernanza —concretamente, comités de supervisión y control en tiempo real— son mucho más propensas a informar de mejoras en el crecimiento de los ingresos, la satisfacción de los empleados y el ahorro de costos, precisamente las áreas en las que la mayoría tiene dificultades para obtener resultados.


Este vínculo sugiere una relación simbiótica. Las empresas que han avanzado más en el camino hacia una IA responsable son las que están viendo mejoras en las áreas que más lo necesitan, y no es difícil entender por qué. Los empleados preocupados pueden sentirse tranquilos si su empleador se compromete públicamente a utilizar la IA de forma responsable. Comunicar un enfoque responsable puede fortalecer la reputación de la marca y la lealtad de los clientes, lo que en última instancia impulsa el crecimiento de los ingresos. Además, una gobernanza sólida puede ayudar a prevenir costosas infracciones técnicas y éticas, así como a reducir los costos de contratación y retención, beneficios que, en última instancia, repercuten en los resultados finales y aumentan el ahorro de costos. 

Para los líderes empresariales, el mensaje es claro: aumentar el rendimiento de sus inversiones en IA avanzando en el camino hacia una IA responsable. 

El precio de ignorar los riesgos

Si bien la adopción responsable de la IA genera beneficios, lo contrario también es cierto: descuidarla puede tener un alto costo. Casi todas las empresas que participaron en nuestra encuesta (99%) informaron pérdidas financieras derivadas de riesgos relacionados con la IA, y 64% sufrieron pérdidas superiores a un millón de dólares. En promedio, la pérdida financiera para las empresas que han sufrido riesgos se estima, de manera conservadora, en 4,4 millones de dólares1. Eso supone una pérdida total estimada de 4.300 millones de dólares entre los 975 encuestados de nuestra muestra.  

Los riesgos más comunes que, según las organizaciones, les afectan negativamente son el incumplimiento de la normativa sobre IA (57 %), los efectos negativos en los objetivos de sostenibilidad (55 %) y el sesgo en los resultados (53 %). Cuestiones como la explicabilidad, la responsabilidad legal y el daño a la reputación han tenido hasta ahora menos relevancia, pero se espera que su importancia aumente a medida que la IA se implemente de forma más visible y a mayor escala.

Es alentador que la IA responsable ya se asocie con menos impactos negativos. Por ejemplo, aquellos que ya han definido un conjunto claro de principios de IA responsable han experimentado 30 % menos riesgos en comparación con aquellos que no lo han hecho. 

Los puntos ciegos de los altos directivos dejan a las empresas expuestas

A pesar de lo que está en juego desde el punto de vista financiero, está claro que muchos altos directivos no saben cómo aplicar los controles adecuados para mitigar los riesgos de la IA. Cuando se les pidió que asociaran los controles adecuados a cinco riesgos relacionados con la IA, solo el 12 % de los encuestados acertó todos. 

Como era de esperar, los CIO y los CTO obtuvieron los mejores resultados, pero incluso en este caso solo alrededor de una cuarta parte respondió correctamente en los cinco casos de uso. 

Los directores de inteligencia artificial (CAIO) y los directores digitales (CDO) obtuvieron resultados ligeramente superiores a la media (15 %), lo que probablemente refleje una formación más basada en la ciencia de datos, el mundo académico y el desarrollo de modelos que en la gestión tradicional de riesgos tecnológicos. En consecuencia, es posible que tengan menos experiencia en la gestión de riesgos relacionados con la tecnología que sus homólogos CIO y CTO. 

Resulta preocupante que los CRO, los líderes que son los responsables últimos de los riesgos de la IA, obtengan una puntuación ligeramente inferior a la media, con un 11 %. Y en el extremo inferior del espectro, los CMO, los COO y los CEO obtuvieron los peores resultados (3 %, 6 % y 6 % respectivamente). 


Esta falta de conciencia tiene consecuencias. Las empresas que han perdido más de 10 millones de dólares debido a riesgos relacionados con la IA informan, en promedio, que cuentan con 4,5 de cada 10 controles adecuados, mientras que las empresas que han perdido 1 millón de dólares o menos cuentan con 6,4. Esto pone de manifiesto la clara necesidad de mejorar las habilidades de los altos directivos, especialmente ahora que el costo financiero y reputacional de los riesgos asociados a la IA sigue aumentando.

Desafíos futuros: IA agéntica y desarrolladores ciudadanos

 El desafío de la gobernanza no termina con los modelos actuales. A medida que la IA agencial se vuelve más frecuente en el lugar de trabajo y los empleados experimentan con el desarrollo ciudadano, los riesgos —y la necesidad de controles cuidadosos— no harán más que aumentar. 

La naturaleza autónoma de la IA agéntica introduce nuevos riesgos que pueden agravarse rápidamente.

Es alentador que la mayoría de las organizaciones ya estén implementando políticas de gobernanza para gestionar estos riesgos. Ocho de las diez medidas de gobernanza de la IA agéntica que hemos identificado están siendo implementadas por más del 75 % de los encuestados. Esto incluye la supervisión continua (85 %) y los procesos de escalado de incidentes para comportamientos agénticos inesperados (80 %). Aunque las organizaciones han tenido un gran comienzo, todavía existen desafíos a la hora de diseñar controles eficaces que puedan supervisar adecuadamente los sistemas que funcionan de forma continua, se adaptan rápidamente y requieren una intervención humana mínima.  


En la era de la IA agencial, en la que los sistemas operan con una autonomía y complejidad cada vez mayores, las organizaciones deben dar prioridad a la supervisión en tiempo real: la monitorización continua y la capacidad de respuesta rápida son esenciales para navegar por las complejidades de estas tecnologías. La naturaleza autónoma de la IA agencial introduce nuevos riesgos que pueden agravarse rápidamente, lo que hace necesarios controles sólidos para evitar costosas interrupciones y garantizar la integridad del sistema», señala Sinclair Schuller, líder de IA responsable de EY América.

Un área en particular que se está quedando atrás es la preparación para una fuerza laboral híbrida entre IA y humanos. Solo un tercio (32 %) afirma que su equipo de RR. HH. está desarrollando estrategias para gestionar este tipo de entornos. Aun así, dada la naturaleza incipiente de la IA agencial, esta cifra puede considerarse prometedora, ya que indica que las empresas están empezando a pensar estratégicamente en las implicaciones a largo plazo de la tecnología.

Desarrolladores ciudadanos: ¿oportunidad o punto ciego?

El auge de los "desarrolladores ciudadanos" —empleados que utilizan herramientas sin código o con poco código para crear sus propios agentes de IA— plantea un desafío más complejo.

Un tercio (32 %) de las empresas han optado por prohibir esta práctica por completo. Entre el resto, la tolerancia varía desde casos de uso muy limitados hasta el fomento activo, y algunas empresas incluso promueven las mejores prácticas entre sus equipos.


Lo que más debería preocupar a los líderes es la inconsistencia entre la política declarada y la supervisión en el mundo real. Entre las organizaciones que permiten el desarrollo ciudadano, solo el 60 % cuenta con marcos formales para toda la organización que ayuden a garantizar la alineación con los principios de IA responsable, y solo la mitad tiene una alta visibilidad de la actividad real.  E incluso entre las empresas que prohíben esta práctica, 12 % admiten que carecen de visibilidad sobre la actividad real, lo que crea un vacío de gobernanza en el que el desarrollo de IA en la sombra puede prosperar sin ser detectado, lo que significa que, en esencia, están actuando a ciegas.

La aparición de la IA agéntica y los desarrolladores ciudadanos subraya un tema central de nuestras conclusiones: la IA responsable debe evolucionar al mismo ritmo que la tecnología y los comportamientos en el lugar de trabajo. Para que las organizaciones puedan aprovechar las ventajas de estas tendencias sin agravar sus riesgos, es fundamental contar con marcos claros, una supervisión proactiva y una conciencia de liderazgo.

Implicaciones para los líderes empresariales

A continuación, se presentan tres medidas que los altos directivos pueden tomar para fortalecer la gobernanza y los controles de la IA, y mejorar los resultados empresariales:   

1. Adoptar un enfoque integral para una IA responsable

La relación simbiótica entre la adopción responsable de la IA y las mejoras en el rendimiento impulsadas por la IA transmite un mensaje claro a los líderes empresariales. Para obtener más valor de sus inversiones en IA, especialmente en áreas cruciales como el rendimiento financiero y la satisfacción de los empleados, es fundamental que las empresas avancen en el camino hacia una IA responsable. Un enfoque integral incluye articular y comunicar sus principios de IA responsable, ejecutarlos con controles, indicadores clave de rendimiento (KPI, por sus siglas en inglés) y capacitación, y establecer una gobernanza eficaz. 

2. Cubrir las lagunas de conocimiento en la alta dirección 

La IA afecta a todas las facetas de tu organización. Es fundamental que los líderes de la alta dirección comprendan tanto su potencial como sus riesgos, así como los controles necesarios para mitigarlos. Sin embargo, nuestra encuesta revela importantes deficiencias en cuanto al conocimiento de cuáles son los controles más adecuados.

¿Cómo se compara tu equipo directivo? Identifica dónde se encuentran las mayores carencias y subsánelas con una formación específica. Como mínimo, asegúrate de que las funciones más cercanas a los riesgos de la IA conozcan bien las medidas de protección adecuadas. 

3. Adelantarse a los riesgos emergentes de la IA agéntica y los desarrolladores ciudadanos 

La IA agéntica promete nuevas y potentes capacidades, pero también conlleva riesgos significativos. Es fundamental que las organizaciones identifiquen estos riesgos, adopten las políticas adecuadas y garanticen una gobernanza y un seguimiento adecuados. 

Existen diferencias entre las políticas declaradas por las empresas y su percepción sobre si sus empleados están desarrollando sus propios agentes de IA. Comprende los costos y beneficios para tu organización antes de establecer tu posición. Y, independientemente de si prohíbe, permite o fomenta esta práctica, asegúrate de que tu política se basa en información real sobre lo que hacen realmente los empleados. 

Resumen

A medida que la IA se integra cada vez más en las operaciones empresariales, los líderes se enfrentan a una elección clara: tratar la IA responsable como un mero trámite o como un facilitador estratégico. Aquellos que optan por esta última vía ya están demostrando que una gobernanza sólida, unos principios claros y un liderazgo informado pueden convertir los riesgos potenciales en ventajas competitivas. La próxima ola de avances, desde los modelos agenticos hasta el desarrollo ciudadano, solo aumentará lo que está en juego. El éxito será para aquellas organizaciones que actúen ahora para alinear la responsabilidad con el rendimiento.

Artículos relacionados

Cómo las evaluaciones de IA pueden aumentar la confianza en la IA

Las evaluaciones de la IA bien diseñadas pueden ayudar a valorar si las inversiones en esta tecnología cumplen las expectativas de las compañías y de la sociedad. Leer más.

    Acerca de este artículo