Diversos colegas trabajando juntos en una oficina de EY

Cómo tu organización puede tener confianza en las oportunidades que ofrece la IA

A medida que crece el interés por la IA ética, el debate se está desplazando de la «confianza» a la «seguridad», lo que ayuda a descubrir valiosos casos de uso.


En resumen
  • Los modelos de lenguaje grandes (LLM) son probabilísticos en lugar de deterministas, lo que significa que conllevan incertidumbre (por ejemplo, alucinaciones) con una variedad de posibles resultados.
  • Un alto grado de incertidumbre suele ser intolerable, por ejemplo, en los sectores de la salud y los servicios financieros, que en conjunto representan alrededor del 40 % o del PIB.
  • Existe una clara necesidad de una gobernanza sólida y una gestión de riesgos rigurosa para aprovechar al máximo los casos de uso más valiosos de la IA generativa.

Este artículo apareció por primera vez en LinkedIn.

En la década de 1940, un pequeño grupo de académicos de diversos campos, entre ellos la psicología, las matemáticas, la ingeniería, la economía y las ciencias políticas, comenzaron a explorar cómo crear un cerebro artificial. Al mismo tiempo, filósofos, antropólogos y científicos, entre ellos Isaac Asimov, comenzaron a estudiar las implicaciones éticas de hacerlo. Hoy en día, el interés público por la inteligencia artificial (IA) ética está creciendo exponencialmente, impulsado por las asombrosas capacidades que muestran los modelos de lenguaje grandes (LLM) y las técnicas de IA generativa (GenAI).

Según las tendencias de búsqueda en Internet, el interés mundial por términos estrechamente relacionados como «IA ética», «IA responsable» y «seguridad de la IA» ha alcanzado máximos históricos y sigue aumentando. Sin embargo, hay un término de búsqueda relacionado que va rezagado con respecto a los demás en términos de interés público: IA confiable. ¿Por qué la confianza en la IA como marco ético está perdiendo popularidad en la mente del mercado?

Construir confianza: la próxima evolución de la IA ética

La organización EY tiene una larga trayectoria en el trabajo con IA y recientemente ha anunciado EY.ai, una plataforma unificadora que aúna las capacidades humanas y la IA para ayudar a sus clientes a transformar sus negocios mediante la adopción segura y responsable de la IA. EY.ai aprovecha las plataformas tecnológicas y capacidades de IA de vanguardia de EY, con una profunda experiencia en estrategia, transacciones, transformación, riesgo, auditoría y finanzas e impuestos, todo ello incrementado por un robusto ecosistema de IA. Sin embargo, a medida que la tecnología madura y las demandas del mercado evolucionan, también lo hacen nuestro lenguaje, nuestras metodologías y nuestro enfoque para gestionar la miríada de riesgos que emanan del despliegue de la IA.

Como resultado de esta implicación continua con los clientes de EY y con las tecnologías de IA, estamos cambiando nuestro enfoque de generar confianza a generar seguridad. Este nuevo enfoque se adapta mejor a los riesgos actuales y emergentes que plantean las principales técnicas de IA, y claramente se adapta mejor a las preocupaciones generalizadas relacionadas con la ética de la IA. La motivación para este cambio es bastante elemental: los LLM son probabilísticos, en lugar de deterministas, y por lo tanto traen consigo nuevos riesgos que debemos gestionar.

En un entorno probabilístico, el mismo prompt o entrada puede generar diferentes salidas, e incluso perturbaciones aparentemente menores en el prompt, como una coma adicional, una apóstrofe o una alteración en la ortografía que un lector humano ignoraría, pueden empujar las salidas del modelo a un espacio completamente diferente y, como tal, producir resultados no deseados o inesperados (también conocidos como «alucinaciones»). Estos nuevos modelos también son vulnerables a nuevas estrategias de ataque, como los ataques de inyección de prompts, en los que los prompts especialmente diseñados empujan al modelo fuera de los límites de seguridad establecidos. Estos son riesgos adicionales que se suman a los que ya presentaban las técnicas de IA anteriores.

Tal variabilidad no puede tolerarse en contextos altamente sensibles, como hospitales o clínicas para tratamientos y diagnósticos o procesos farmacéuticos, como la determinación de dosis. Debido al alto grado de incertidumbre de los modelos, los LLM deben supervisarse y controlarse estrictamente en sectores y aplicaciones de alto riesgo, así como en la automatización de funciones críticas para el negocio. Por ejemplo, imaginen un copiloto de IA desplegado en salas de urgencias para ayudar a los médicos y enfermeras a clasificar a los pacientes enfermos. Para ser claros, este tipo de productos ya se encuentran en fase de desarrollo. Un alto grado de incertidumbre en el modelo puede causar daños irreversibles en una aplicación de este tipo.

A su vez, esto significa que la increíble tecnología que ha sido comparada con el fuego, la electricidad y el iPhone en términos de impacto socioeconómico por los principales líderes tecnológicos aún no puede aprovecharse plenamente en sectores clave como los servicios financieros o la salud, que en conjunto representan alrededor del 40 % o del PIB. Por lo tanto, muchos de los casos de uso más valiosos en la economía siguen siendo inalcanzables hasta que una gobernanza sólida pueda garantizar la seguridad, la solidez y la ética. Por lo tanto, existe una necesidad clara y urgente de controles rigurosos para liberar el valor transformador de la GenAI.

Lo que se necesita para garantizar la seguridad y la solidez son técnicas que nos ayuden a comprender la fiabilidad y la precisión de la predicción del modelo, y a medir o predecir el grado de incertidumbre de sus resultados. También están surgiendo técnicas para restringir aún más los resultados del modelo de manera que, por ejemplo, los expertos médicos puedan estar seguros de que el modelo es preciso y de que la orientación algorítmica no causará ningún daño al paciente.

Aunque técnicamente no se trata de un problema resuelto, un ejemplo es el «ajuste fino», en el que se proporciona texto adicional para reforzar la experiencia del modelo en un ámbito especializado concreto. Otro es el «aprendizaje por refuerzo», en el que los seres humanos en el bucle proporcionan al modelo orientación adicional sobre casos extremos inciertos. A continuación, podemos aumentar la «ventana de contexto» para proporcionar una fuente de «verdad fundamental» que el modelo pueda consultar como referencia y, por último, existen enfoques «adversarios» en los que un modelo rival revisa y verifica los resultados del primer modelo hasta unos límites definidos, como el lenguaje de la Carta de las Naciones Unidas (ONU) sobre derechos humanos.

Sin embargo, ninguna de estas opciones técnicas, ya sea de forma aislada o combinada, es adecuada para su adopción a gran escala por parte de las empresas. Las empresas necesitan un enfoque a nivel de soluciones que abarque todo el ciclo de vida del modelo, desde la recopilación de datos y la ingeniería, hasta el entrenamiento y la validación del modelo, pasando por la implementación y la supervisión de riesgos en tiempo real. Solo una visión tan holística puede dar a los líderes empresariales la confianza de que los riesgos son manejables y que la adopción de la GenAI aportará valor agregado.

En estadística, el concepto de «intervalo de confianza» es una forma sencilla de describir el grado de incertidumbre de un parámetro determinado, proporcionando un rango de posibles estimaciones de algo desconocido. Este es un marco mucho más adecuado para los modelos que producen resultados probabilísticos. Por lo tanto, el creciente debate público sobre la IA ética se centra más en la seguridad y la responsabilidad. Creemos que es posible garantizar la seguridad de la IA, y creemos que es responsabilidad de las empresas que la implementan hacerlo. Los equipos de EY están aquí para ayudarte a invertir en IA con confianza, descubriendo los casos de uso que generan más valor para impulsar un crecimiento exponencial. Nuestro enfoque de la IA centrado en las personas ayuda a que la tecnología potencie su talento, impulsando la eficiencia y el aumento de la productividad en todas las funciones empresariales. Además, profesionales multidisciplinarios líderes a nivel mundial en materia de riesgo, estrategia, tecnología y transformación ayudan a garantizar que la adopción esté alineada con el propósito, la cultura, los valores y los stakeholders clave de tu organización, de modo que la IA genere un impacto humano positivo.

Las opiniones reflejadas en este artículo son las del autor y no reflejan necesariamente las opiniones de la organización global EY o de sus firmas miembro.

Resumen

Se requiere un enfoque holístico e integral de la gestión de riesgos de la IA a lo largo del ciclo de vida del modelo para infundir la confianza necesaria para que las empresas adopten la GenAI.

Acerca de este artículo

Artículos relacionados