EY se refiere a la organización global, y puede referirse a una o más, de las firmas miembro de Ernst & Young Global Limited, cada una de las cuales es una entidad legal independiente. Ernst & Young Global Limited, una compañía británica limitada por garantía, no brinda servicios a los clientes.
Cómo EY puede ayudar
-
Nuestro enfoque de consultoría para la adopción de la IA y la automatización inteligente está centrado en el ser humano, es pragmático, se centra en los resultados y es ético.
Leer más
Construir confianza: la próxima evolución de la IA ética
La organización EY tiene una larga trayectoria en el trabajo con IA y recientemente ha anunciado EY.ai, una plataforma unificadora que aúna las capacidades humanas y la IA para ayudar a sus clientes a transformar sus negocios mediante la adopción segura y responsable de la IA. EY.ai aprovecha las plataformas tecnológicas y capacidades de IA de vanguardia de EY, con una profunda experiencia en estrategia, transacciones, transformación, riesgo, auditoría y finanzas e impuestos, todo ello incrementado por un robusto ecosistema de IA. Sin embargo, a medida que la tecnología madura y las demandas del mercado evolucionan, también lo hacen nuestro lenguaje, nuestras metodologías y nuestro enfoque para gestionar la miríada de riesgos que emanan del despliegue de la IA.
Como resultado de esta implicación continua con los clientes de EY y con las tecnologías de IA, estamos cambiando nuestro enfoque de generar confianza a generar seguridad. Este nuevo enfoque se adapta mejor a los riesgos actuales y emergentes que plantean las principales técnicas de IA, y claramente se adapta mejor a las preocupaciones generalizadas relacionadas con la ética de la IA. La motivación para este cambio es bastante elemental: los LLM son probabilísticos, en lugar de deterministas, y por lo tanto traen consigo nuevos riesgos que debemos gestionar.
En un entorno probabilístico, el mismo prompt o entrada puede generar diferentes salidas, e incluso perturbaciones aparentemente menores en el prompt, como una coma adicional, una apóstrofe o una alteración en la ortografía que un lector humano ignoraría, pueden empujar las salidas del modelo a un espacio completamente diferente y, como tal, producir resultados no deseados o inesperados (también conocidos como «alucinaciones»). Estos nuevos modelos también son vulnerables a nuevas estrategias de ataque, como los ataques de inyección de prompts, en los que los prompts especialmente diseñados empujan al modelo fuera de los límites de seguridad establecidos. Estos son riesgos adicionales que se suman a los que ya presentaban las técnicas de IA anteriores.
Tal variabilidad no puede tolerarse en contextos altamente sensibles, como hospitales o clínicas para tratamientos y diagnósticos o procesos farmacéuticos, como la determinación de dosis. Debido al alto grado de incertidumbre de los modelos, los LLM deben supervisarse y controlarse estrictamente en sectores y aplicaciones de alto riesgo, así como en la automatización de funciones críticas para el negocio. Por ejemplo, imaginen un copiloto de IA desplegado en salas de urgencias para ayudar a los médicos y enfermeras a clasificar a los pacientes enfermos. Para ser claros, este tipo de productos ya se encuentran en fase de desarrollo. Un alto grado de incertidumbre en el modelo puede causar daños irreversibles en una aplicación de este tipo.
A su vez, esto significa que la increíble tecnología que ha sido comparada con el fuego, la electricidad y el iPhone en términos de impacto socioeconómico por los principales líderes tecnológicos aún no puede aprovecharse plenamente en sectores clave como los servicios financieros o la salud, que en conjunto representan alrededor del 40 % o del PIB. Por lo tanto, muchos de los casos de uso más valiosos en la economía siguen siendo inalcanzables hasta que una gobernanza sólida pueda garantizar la seguridad, la solidez y la ética. Por lo tanto, existe una necesidad clara y urgente de controles rigurosos para liberar el valor transformador de la GenAI.
Lo que se necesita para garantizar la seguridad y la solidez son técnicas que nos ayuden a comprender la fiabilidad y la precisión de la predicción del modelo, y a medir o predecir el grado de incertidumbre de sus resultados. También están surgiendo técnicas para restringir aún más los resultados del modelo de manera que, por ejemplo, los expertos médicos puedan estar seguros de que el modelo es preciso y de que la orientación algorítmica no causará ningún daño al paciente.
Aunque técnicamente no se trata de un problema resuelto, un ejemplo es el «ajuste fino», en el que se proporciona texto adicional para reforzar la experiencia del modelo en un ámbito especializado concreto. Otro es el «aprendizaje por refuerzo», en el que los seres humanos en el bucle proporcionan al modelo orientación adicional sobre casos extremos inciertos. A continuación, podemos aumentar la «ventana de contexto» para proporcionar una fuente de «verdad fundamental» que el modelo pueda consultar como referencia y, por último, existen enfoques «adversarios» en los que un modelo rival revisa y verifica los resultados del primer modelo hasta unos límites definidos, como el lenguaje de la Carta de las Naciones Unidas (ONU) sobre derechos humanos.
Sin embargo, ninguna de estas opciones técnicas, ya sea de forma aislada o combinada, es adecuada para su adopción a gran escala por parte de las empresas. Las empresas necesitan un enfoque a nivel de soluciones que abarque todo el ciclo de vida del modelo, desde la recopilación de datos y la ingeniería, hasta el entrenamiento y la validación del modelo, pasando por la implementación y la supervisión de riesgos en tiempo real. Solo una visión tan holística puede dar a los líderes empresariales la confianza de que los riesgos son manejables y que la adopción de la GenAI aportará valor agregado.
En estadística, el concepto de «intervalo de confianza» es una forma sencilla de describir el grado de incertidumbre de un parámetro determinado, proporcionando un rango de posibles estimaciones de algo desconocido. Este es un marco mucho más adecuado para los modelos que producen resultados probabilísticos. Por lo tanto, el creciente debate público sobre la IA ética se centra más en la seguridad y la responsabilidad. Creemos que es posible garantizar la seguridad de la IA, y creemos que es responsabilidad de las empresas que la implementan hacerlo. Los equipos de EY están aquí para ayudarte a invertir en IA con confianza, descubriendo los casos de uso que generan más valor para impulsar un crecimiento exponencial. Nuestro enfoque de la IA centrado en las personas ayuda a que la tecnología potencie su talento, impulsando la eficiencia y el aumento de la productividad en todas las funciones empresariales. Además, profesionales multidisciplinarios líderes a nivel mundial en materia de riesgo, estrategia, tecnología y transformación ayudan a garantizar que la adopción esté alineada con el propósito, la cultura, los valores y los stakeholders clave de tu organización, de modo que la IA genere un impacto humano positivo.