6 minutos de lectura 27 set. 2023
Vista superior de toma de larga exposición del vestíbulo de una oficina moderna con gente de negocios caminando

Cómo navegar por las tendencias globales en la regulación de la Inteligencia Artificial

Por EY Global

Ernst & Young Global Ltd.

6 minutos de lectura 27 set. 2023

Mostrar recursos

  • The Artificial Intelligence (AI) Global Regulatory Landscape

El potencial de la IA para crear un impacto humano positivo dependerá de un enfoque responsable y centrado en el ser humano que se enfoque en crear valor para todos.

En resumen
  • Los legisladores están desarrollando enfoques claramente diferentes sobre las políticas para regular la IA.
  • La investigación de EY ha identificado cinco tendencias comunes en la supervisión de IA.
  • Las empresas pueden tomar varias acciones para mantenerse a la vanguardia de un panorama regulatorio de IA en rápida evolución.

Este artículo fue escrito por Nicola Morini Bianzino, EY Global Chief Technology Officer; Marie-Laure Delarue, Global Vice Chair, Assurance; Shawn Maher, EY Global Vice Chair, Public Policy; y Ansgar Koene, EY Global AI Ethics and Regulatory Leader; con contribuciones de Katie Kummer, Global Deputy Vice Chair, Public Policy; y Fatima Hassan-Szlamka, Associate Director, Global Public Policy.

Las capacidades aceleradoras de la Inteligencia Artificial Generativa (GenAI, por sus siglas en inglés) — incluidos los large language models (LLM) — así como los sistemas que utilizan datos de geolocalización en tiempo real, el reconocimiento facial y el procesamiento cognitivo avanzado, han llevado la regulación de la IA a la cima de las bandejas de entrada de los creadores de políticas.

No es sencillo. En Europa, por ejemplo, mientras algunos países miembro quieren liberalizar el uso del reconocimiento facial por parte de sus fuerzas policiales, el Parlamento de la UE quiere imponer restricciones estrictas como parte de la Ley de Inteligencia Artificial.1  En otro debate sobre la legislación de IA, el Ministerio de Electrónica e Informática de la India publicó un fuerte comunicado en abril, optando contra la regulación de IA y afirmando que India “está implementando políticas y medidas de infraestructura necesarias para cultivar un sector robusto de IA, pero no pretende introducir legislación para regular su crecimiento”.2 Sin embargo, en mayo, el ministro de IT anunció que India planea regular plataformas de IA como ChatGPT y está “considerando un marco regulatorio para la IA, que incluye áreas relacionadas con el sesgo de algoritmos y derechos de autor”.3 De forma similar, si bien no es probable que Estados Unidos apruebe pronto una nueva legislación federal sobre IA, reguladores como la Comisión Federal de Comercio (FTC, por sus siglas en inglés) han respondido a las preocupaciones públicas sobre el impacto de la IA generativa, abriendo investigaciones expansivas en algunas plataformas de IA.4

La Inteligencia Artificial está transformando una amplia gama de industrias, desde las finanzas y la manufactura hasta la agricultura y la salud, mejorando sus operaciones y remodelando la naturaleza del trabajo. La IA permite una gestión y logística de flotas más inteligentes, optimizando la previsión de energía, creando un uso más eficiente de las camas hospitalarias a través del análisis de los datos de los pacientes y el modelado predictivo, mejorando el control de calidad en la manufactura avanzada y creando experiencias de consumo personalizadas. También está siendo adoptada por gobiernos que ven su capacidad para brindar un mejor servicio a la ciudadanía a menor costo para los contribuyentes. Con los sectores privados globales invirtiendo en IA, los niveles de inversión son ahora 18 veces más altos que en 2013.5 La IA es potencialmente un poderoso impulsor del crecimiento económico y un habilitador clave de los servicios públicos.

Sin embargo, los riesgos y consecuencias no deseadas de GenAI también son reales. Un motor de generación de texto que puede imitar de manera convincente una variedad de registros está abierto al mal uso; el software de imitación de voz puede imitar los patrones de voz de un individuo lo suficientemente bien como para convencer a un banco, un lugar de trabajo o un amigo. Los chatbots pueden hacer trampa en las pruebas. Las plataformas de IA pueden reforzar y perpetuar los sesgos humanos históricos (por ejemplo, basados en el género, la raza u orientación sexual), socavar los derechos personales, comprometer la seguridad de los datos, producir desinformación, desestabilizar el sistema financiero y causar otras formas de disrupción global. Las apuestas son altas.

Legisladores y reguladores están comenzando a desarrollar marcos para maximizar los beneficios de la IA para la sociedad mientras mitigan sus riesgos. Estos marcos necesitan ser resilientes, transparentes y equitativos. Para proporcionar una imagen instantánea de la evolución del panorama normativo, la organización EY (EY) ha analizado los enfoques regulatorios de ocho jurisdicciones: Canadá, China, la Unión Europea (UE), Japón, Corea, Singapur, Reino Unido y los Estados Unidos (EE. UU.). Las normas e iniciativas de política se obtuvieron del observatorio de políticas de IA de la Organización para la Cooperación y el Desarrollo Económicos (OCDE)6 y se enumeran en el apéndice del informe completo.

Mostrar recursos

  • Descarga el panorama regulatorio global de Inteligencia Artificial (IA)

Cinco tendencias regulatorias en Inteligencia Artificial

Reconociendo que cada jurisdicción ha adoptado un enfoque regulatorio diferente, acorde con diferentes normas culturales y contextos legislativos, existen cinco áreas de cohesión que se unen bajo el principio amplio de mitigar los daños potenciales de la IA al tiempo que posibilitan su uso en beneficio económico y social de los ciudadanos. Estas áreas de unidad proporcionan sólidos fundamentos sobre los que se pueden construir regulaciones detalladas.

  1. Principios básicos: la regulación y orientación sobre la IA que se está considerando es consistente con los principios básicos para la IA definidos por la OCDE y avalados por el G207. Estos incluyen el respeto a los derechos humanos, la sostenibilidad, la transparencia y una fuerte gestión de riesgos.
  2. Enfoque basado en el riesgo: estas jurisdicciones están adoptando un enfoque basado en el riesgo para la regulación de la IA. Lo que eso significa es que están ajustando sus regulaciones de IA a los riesgos percibidos alrededor de la IA a valores fundamentales como la privacidad, la no discriminación, la transparencia y la seguridad. Esta “confección” sigue el principio de que las obligaciones de cumplimiento deben ser proporcionadas al nivel de riesgo (bajo riesgo significa ninguna o muy pocas obligaciones; riesgos altos significan obligaciones significativas y estrictas).
  3. Reglas agnósticas y reglas específicas del sector: debido a los diversos casos de uso de la IA, algunas jurisdicciones se están enfocando en la necesidad de reglas específicas del sector, además de la regulación agnóstica del sector.
  4. Alineación de políticas: las jurisdicciones están llevando a cabo la elaboración de normas relacionadas con la IA en el contexto de otras prioridades de política digital como la ciberseguridad, la privacidad de datos y la protección de la propiedad intelectual, con la UE adoptando el enfoque más completo.
  5. Colaboración del sector privado: muchas de estas jurisdicciones utilizan los espacios aislados de regulación como herramienta para que el sector privado colabore con los responsables políticos en la elaboración de normas que cumplan el objetivo fundamental de promover una IA segura y ética, así como para considerar las implicaciones de la innovación de mayor riesgo asociada con la IA donde pueda ser apropiada una supervisión más estrecha.

Consideraciones adicionales sobre la IA para los formuladores de políticas

Otros factores por considerar en el desarrollo de políticas de IA incluyen:

  • Garantizar que los reguladores tengan acceso a la experiencia suficiente en la materia para implementar, monitorear y hacer cumplir con éxito estas políticas
  • Garantizar la claridad de las políticas, si la intención de la elaboración de reglas es regular los riesgos derivados de la propia tecnología (por ejemplo, propiedades como el procesamiento del lenguaje natural o el reconocimiento facial) o de cómo se usa la tecnología de IA (por ejemplo, la aplicación de IA en los procesos de contratación) o ambos
  • Examinar en qué medida las políticas y procedimientos de gestión de riesgos, así como la responsabilidad del cumplimiento, deben aplicarse a terceros proveedores que suministran productos y servicios relacionados con la IA

Además, los formuladores de políticas deben, en la medida de lo posible, participar en procesos multilaterales para hacer que las reglas de IA entre jurisdicciones sean interoperables y comparables, con el fin de minimizar los riesgos asociados con el arbitraje regulatorio, que son particularmente significativos al considerar las reglas que rigen el uso de una tecnología transnacional como la IA.

Medidas que deben adoptar las compañías

Para los líderes de compañías, comprender los principios básicos que subyacen a las reglas de IA, incluso si esas reglas no se les aplican actualmente, puede servir para infundir confianza por parte de los clientes y reguladores en su uso de la IA y, por lo tanto, potencialmente proporcionar una ventaja competitiva en el mercado. También puede ayudar a las empresas a anticipar las necesidades de gobierno y los requisitos de cumplimiento que puedan aplicarse a su desarrollo y uso de la IA, haciéndolos más ágiles.

Basadas en las tendencias identificadas, hay al menos tres acciones que las empresas pueden tomar ahora para mantenerse un paso por delante de un panorama regulatorio de IA en rápida evolución.

  1. Entender las regulaciones de IA que están vigentes dentro de los mercados en los que operas. Puedes alinear tus políticas internas de IA con esas regulaciones y cualquier estándar de supervisión asociado.
  2. Establecer estructuras y protocolos de gobernanza y gestión de riesgos sólidos y claros, así como, en la medida en que corresponda, mecanismos de rendición de cuentas para mejorar la forma en que administra las tecnologías de IA.
  3. Participar en un diálogo con funcionarios del sector público y otras personas para comprender mejor el panorama regulatorio en evolución, así como para proporcionar información y conocimientos que puedan ser útiles para los formuladores de políticas.

Para que los enfoques de gobernanza encuentren el equilibrio adecuado entre la supervisión gubernamental y la innovación, es importante que las empresas, los formuladores de políticas y los stakeholders entablen conversaciones abiertas. Todas estas partes están tanteando el terreno y trabajando para encontrar las nuevas posibilidades que ofrece la IA. Se necesitarán nuevas reglas. Afortunadamente, como muestra nuestra revisión, existe un amplio acuerdo entre los países sobre los principios fundacionales para regir el uso de la IA. En este momento único de posibilidades y peligros, ha llegado la hora de cooperar para poner en práctica estos principios.

Resumen

A medida que la IA Generativa empieza a transformar las industrias, los responsables políticos mundiales están promulgando leyes destinadas a optimizar las oportunidades al tiempo que se mitigan los riesgos de la tecnología.

Explore our latest AI insights

Build confidence. Drive exponential value. Deliver positive human impact. Powered by EY.ai - a unifying platform that helps drive AI-enabled business transformation.

Learn more

Acerca de este artículo

Por EY Global

Ernst & Young Global Ltd.