Cómo generar valor a largo plazo a través de la IA: un reto para los Consejos de Administración

10 minutos de lectura 17 mayo 2021
Por Hildur Eir Jónsdóttir

EY España, Socia Directora de Assurance

Disfruto enormemente de la música, cualquier época me vale… siempre que sea bailable, pero también de la gastronomía, de los viajes, de aprender cosas nuevas, de la gente con mayúsculas y de las risas

10 minutos de lectura 17 mayo 2021

Si tu organización tiene como objetivo generar valor de manera sostenible para la sociedad, como miembro del Consejo es tu deber fomentar la confianza en torno a la Inteligencia Artificial.

En resumen

  • La IA tiene un enorme potencial para crear valor a largo plazo para los stakeholders, pero el coste de una aplicación de la misma poco ética podría ser muy alto.
  • La regulación de la IA debe proteger tanto a las organizaciones como a los consumidores. Como miembro del Consejo debes asegurarte de que se escuche la voz de tu organización.
  • Tu rol es comprender las tecnologías de IA y la estrategia de la organización para mitigar sus riesgos y fortalecer la gobernanza en torno al uso ético.

La probabilidad de que tu organización haya estado utilizando inteligencia artificial o esté considerando activamente su uso para diversas tareas es muy alta, desde responder a las consultas de un cliente en una aplicación, hasta agilizar procesos de back-office. Sin embargo, a pesar de esto, los líderes sénior, incluidos los miembros de Consejo, a menudo tienen una comprensión limitada de cómo funciona la IA. Y, de manera puntual, no analizan regularmente su uso y aplicación dentro de la organización para garantizar que se cumplan los estándares éticos.

Hay que admitir que, como miembro del Consejo, mantenerse al día con la constante evolución de la IA es difícil y la curva de aprendizaje es muy pronunciada. En EY queremos explorar el vínculo entre el despliegue de la IA y la generación de valor a largo plazo. Para ello, hemos entrevistado a varios expertos con el fin de obtener más información al respecto e iniciar así nuestro ciclo The Board Imperative.

A través de este contenido, ofrecemos respuestas y acciones críticas para ayudar a los miembros del Consejo a replantear el futuro de su organización. En paralelo, en este artículo, examinamos su rol en la creación y protección de la confianza en la IA. Por otro lado, consideramos cómo minimizar la exposición de su organización a los riesgos relacionados con la IA y, en última instancia, descubrimos cómo podemos contribuir a crear un mundo que funcione mejor mediante su correcto uso.

Somos conscientes de que puede resultar complejo, pero te animamos a:

  1. Involucrarte en el debate sobre la IA y la tecnología en general para garantizar que tu organización piensa e incorpora la ética de la IA en su estrategia general.
  2. Aprender lo suficiente sobre estas tecnologías para poder contribuir al debate haciendo a tu equipo directivo las preguntas estratégicas adecuadas para optimizar la tecnología y minimizar sus riesgos.
  3. Asegurarte de que la voz de tu organización se escucha y alimenta los debates y las consultas en torno a cualquier regulación potencial asociada.
            Estatua de la justicia sol
(Chapter breaker)
1

Capítulo 1

La IA tiene un enorme potencial para ayudar a crear valor sostenible para todos

La IA puede generar confianza en tus stakeholders, pero su mal uso conlleva grandes riesgos

Entonces, ¿cuál es exactamente el vínculo entre la IA y el valor a largo plazo?

Una organización responsable piensa y actúa en función de los intereses a largo plazo de todos sus stakeholders, desde los empleados y proveedores hasta los reguladores y la sociedad en general.

Eso significa que los miembros del Consejo de Administración como tú deben involucrar a esos stakeholders y considerar sus intereses a la hora de tomar decisiones. Al hacerlo, apoyas a tu organización en la creación de valor sostenible y en la generación de confianza continua. Esto, a su vez, hace a tu compañía más atractiva para los consumidores, inversores y empleados potenciales.

La IA tiene un enorme potencial para ayudar a crear este valor a largo plazo, siempre y cuando lo hagas bien. Puede ayudarte a generar confianza proporcionando resultados justos para todos los que entren en contacto con ella o para los que toman decisiones. También puede contribuir a otros elementos importantes de un negocio responsable, como la inclusión, la sostenibilidad y la transparencia.

Pero la rápida digitalización -en particular el aumento de la analítica de clientes- ha planteado cuestiones en torno a la discriminación y la equidad que corren el riesgo de destruir esa confianza. En un mundo en el que las desigualdades son más evidentes que nunca, una tecnología que resulte sesgada en contra de determinados grupos, o que impida ciertos resultados, es una muy mala noticia. Por ello, los riesgos de equivocarse con la IA no sólo son graves, sino que pueden afectar al futuro de una organización.

Los datos son clave para generar y mantener la confianza

La IA ética no se limita a evitar los prejuicios, también se trata de la privacidad. "La savia de la IA, tal y como se desarrolla actualmente, son los datos", afirma el doctor Reid Blackman, fundador y director general de Virtue Consultants. "Las empresas tienen que equilibrar la necesidad de recopilar y utilizar esos datos con la garantía de contar con la confianza de los consumidores, para que estos sigan sintiéndose cómodos compartiéndolos."

Para ello, los Consejos de Administración deben asegurarse de que sus organizaciones sean claras y transparentes en cuanto a su enfoque de los datos, de modo que los consumidores puedan dar su consentimiento informado.

Esto creará un círculo virtuoso: cuanto más confíen los consumidores en ti, más datos compartirán contigo. Y cuantos más datos compartan, mejor será tu IA y, en última instancia, los resultados de tu negocio.

Por el contrario, las organizaciones que no traten sus datos con cuidado pueden crear un ciclo vicioso. Basta con cometer un error, para que un usuario deje de confiar en tu organización

Los Consejos tienen un papel fundamental a la hora de proteger a sus organizaciones de este círculo vicioso. Como dice Reid, "tienen la responsabilidad de garantizar la protección de la reputación de su marca".

Las empresas deben encontrar el equilibrio entre recopilar y usar datos a medida que siguen transmitiendo confianza al consumidor, para que este continúe sintiéndose cómodo compartiendo su información personal
Doctor Reid Blackman
Fundador y director general de Virtue Consultants

Los Consejos deben ser más constructivos y contribuir a la evolución de las estrategias de IA

Desde el primer día en que desarrolles tu estrategia de IA, es crucial que ayudes al resto de directivos a entender los riesgos y las oportunidades que estas tecnologías conllevan, y cómo la ética influye en ambos. De esta manera, puedes ayudarlos a construir la confianza que necesitan para integrar completamente la IA en la organización.

Pero para hacerlo, debes entender y confiar en la IA tú mismo. Y, a día de hoy, la brecha de confianza podría ser, en parte, lo que frena a las organizaciones. Según John Thompson, presidente del Consejo de Administración de Microsoft, esta falta de conocimiento es una de las razones para esa falta de confianza: "No hay suficientes personas que conozcan la tecnología y comprendan su aplicabilidad y, por lo tanto, cómo se puede usar de manera productiva para la organización en general". Así que asegúrate de que el Consejo conoce la plataforma y tiene un punto de vista formado, es una cuestión fundamental".

Vale la pena cerrar esta brecha de confianza en tu organización para dejar de construir una opinión negativa al respecto. También podría facilitar el despliegue de estas tecnologías el hecho de que estas estén centradas en el ser humano, sean fiables y sirvan a la sociedad en su conjunto.

  • 3 formas de asegurarse de que la IA ayuda a crear valor a largo plazo

    1. Trabajar con la Dirección para establecer los objetivos y principios éticos del uso de la IA en tu organización. Esto debería incluir cómo recopilarás, almacenarás y usarás los datos, así como cómo comunicarás tus principios de diseño tanto a los stkaholders.
    2. Aprender cuanto antes. Dependiendo del sector al que pertenezcas, tendrás que entender menos o más sobre estas tecnologías para gestionar los riesgos asociados y contribuir a los debates sobre su uso y aplicación. En algunos casos, es posible que también tengas que desempeñar un papel activo en la supervisión del desarrollo y la ejecución de la estrategia de IA. De lo contrario, como mínimo, deberás tener en cuenta al equipo de operaciones y hacerles las preguntas correctas para asegurarte de que se alineen con los principios éticos descritos en esa estrategia.
    3. Asegúrarse de que la Dirección realiza una planificación de escenarios para evaluar los riesgos asociados antes de implantar una nueva tecnología de IA. Esto podría incluir la participación de un panel de diversos stakeholders para evaluar y considerar si se les trata de forma equitativa. Tu organización debe basarse en las conclusiones de estos paneles para garantizar que, en caso de que se descubran desigualdades o prejuicios, se aborden antes del lanzamiento.
            Mujer con portátil al atardecer
(Chapter breaker)
2

Capítulo 2

Los reguladores necesitan proteger tanto a las organizaciones como a los consumidores

Unos estándares globales darían a los consumidores y a las organizaciones la misma protección en todo el mundo.

Una regulación correcta ayudará a los Consejos estableciendo parámetros que garanticen que las organizaciones implementen la IA de manera segura. Esto significa una manera segura y justa también para el consumidor. Eva Kaili, miembro del Parlamento Europeo y presidente de su organismo de Evaluación de Opciones de Ciencia y Tecnología (STOA, por sus siglas en inglés), lo explica así: "Queremos que la regulación beneficie también a los ciudadanos, que no solo maximice las ganancias".

Pero hay dos factores que dificultan la creación de una normativa adecuada. En primer lugar, los reguladores tienen que caminar por una línea muy fina entre la protección de los consumidores y la concesión a las organizaciones de un margen suficiente para innovar; si son demasiado estrictos, la innovación se ve limitada; si son demasiado laxos, los consumidores son vulnerables a los prejuicios o a las violaciones de la privacidad.

En segundo lugar, las tecnologías de IA cruzan fronteras. Reconociendo esto, en octubre de 2020, el Parlamento Europeo se convirtió en una de las primeras instituciones en publicar propuestas detalladas sobre cómo regular la IA en todos sus Estados miembros. Ahora está reescribiendo su borrador legislativo a la luz de la pandemia del COVID-19.

La colaboración y el diálogo serán fundamentales para crear normas mundiales

Aplaudimos este esfuerzo. Pero como dice Eva: "No podemos ignorar que tenemos que aplicar normas globales para obtener el máximo beneficio de las tecnologías de IA."

Para Eva, estos estándares necesitarían abordar tanto el B2C como el B2B. Por lo tanto, un enfoque único para todos no funcionaría. En cambio, sugiere: "Diferentes modelos de negocio tendrán que mostrar cómo respetan la privacidad, cómo respetan los derechos y principios fundamentales y cómo gestionan para hacerlo de manera predeterminada e integrarlos en sus algoritmos. Deberán seguir principios que garanticen que las empresas o los consumidores que interactúan a nivel internacional tendrán la misma protección que tienen en su propio país".

Los principios también se flexibilizarían para reflejar los diferentes niveles de riesgo, como explica Eva. "El concepto en este punto es garantizar que tendremos diferentes enfoques por sector: bajo riesgo y alto riesgo".

No podemos ignorar que tenemos que aplicar normas globales para obtener el máximo beneficio de la tecnología de IA.
Eva Kaili
Miembro del Parlamento Europeo y presidente de su organismo de evaluación de opciones de ciencia y tecnología (STOA)

La colaboración entre el sector privado, los gobiernos y el mundo académico es fundamental para garantizar que la legislación refleje la forma en que las empresas utilizan la IA y que equilibre el riesgo con la realidad comercial. "Tenemos que mantener un diálogo abierto", dice Eva. "Es muy importante, ya que nuestras propuestas legislativas son relevantes para lo que necesita el mercado, asegurarnos de que estaremos abiertos a escuchar".

  • 3 formas de fomentar y apoyar la correcta regulación de la IA

    1. Hacer preguntas de sondeo a los directivos para comprender mejor cómo la regulación y las buenas prácticas en materia de gobernanza de datos y algoritmos pueden beneficiar a tu organización, a los stakeholders y a la sociedad en general, especialmente si va más allá de lo que exigen los reguladores.
    2. Asegurarse de que tu organización participa en los debates y consultas públicas sobre la posible regulación lo antes posible y de forma continuada. Aboga por esa colaboración donde aún no existe.
    3. Asegurarse de que las estructuras de gobierno corporativo pertinentes para respaldar cualquier regulación estén integradas y que haya mecanismos para mantenerse al día sobre cualquier actualización o enmienda.
            Diseño de puentes asistido por IA
(Chapter breaker)
3

Capítulo 3

10 preguntas que puedes hacer para ayudar a desarrollar y proteger la confianza en la IA

Para mitigar los riesgos de la IA, tendrás que ampliar tus conocimientos y reforzar la gobernanza y la supervisión en torno a su uso y aplicación.

Está claro que determinar el uso de la IA puede ser un desafío, especialmente para los Consejos fuera del sector tecnológico. Pero como dice John Thompson: "Creo que no es equivalente que la IA sea, de hecho, una plataforma tecnológica importante para todas las empresas de todo el mundo".

Eso significa que deberá asegurarse de que las tecnologías de IA que diseña e implementa su organización sean imparciales y proteger a la organización contra la exposición a los riesgos asociados. Para ello, deberá educarse para comprender mejor estas tecnologías y fortalecer la gobernanza en torno a su uso.

Creo que es inequívoco que la IA será una plataforma tecnológica importante para todas las empresas del mundo
John Thompson
Presidente del Consejo de Administración de Microsoft

Estas preguntas deberían ayudarte a poner en marcha o a reevaluar el proceso actual en tu organización, de modo que se establezca una IA de confianza para crear valor a largo plazo para todos tus stakeholders.

  1. ¿Cómo podemos garantizar nuestra participación temprana y nuestro compromiso continuo con la estrategia de IA de nuestra organización?
  2. ¿Entendemos nuestro papel específico en el establecimiento de objetivos y principios para la IA que ayudan a proteger a nuestra organización contra consecuencias no intencionadas? ¿Contamos con procesos y procedimientos adecuados para reaccionar rápidamente en caso de fallos de IA?
  3. ¿Tenemos las habilidades para guiar a la Dirección en la toma de decisiones correctas sobre la IA, la confianza, la ética y los riesgos? ¿Podemos superar las lagunas con formación interna o tenemos que considerar recursos externos? ¿Cuál es nuestro plan de actualización y formación continua?
  4. ¿Hemos convertido la transparencia y la responsabilidad en una prioridad cuando se trata de IA? Si la respuesta es sí, ¿dónde se pueden encontrar nuestros principios? Si no, ¿cuál es nuestro plan para abordar esto?
  5. ¿Estamos seguros de que la actual estructura de gobierno es suficiente para supervisar eficazmente el uso de la IA por parte de nuestra organización, tanto si se desarrolla internamente como si se adquiere? ¿Deberíamos considerar la creación de un comité especial para mejorar la gobernanza y el enfoque?
  6. ¿Consultamos a un grupo diverso de stakeholders, incluidos los consumidores finales, para cuestionar y poner a prueba los objetivos que hemos establecido para nuestras aplicaciones de IA? ¿Nos comunicamos regularmente con el equipo operativo para asegurarnos de que estos objetivos están en consonancia con la forma en que están desarrollando e implantando la IA?
  7. ¿Cómo nos aseguramos de que nuestros equipos de operaciones de IA tengan en cuenta el cumplimiento y la gestión de riesgos desde las primeras fases de desarrollo?
  8. ¿Hasta qué punto trabajamos con los Gobiernos para entender la evolución de la regulación de la IA en nuestro sector y asegurarnos de que estamos alineados? ¿Deberíamos considerar la posibilidad de aumentar la participación si nuestros niveles actuales son bajos o inexistentes?
  9. ¿Cómo identificamos y aprendemos de los primeros en adoptar la normativa y de los pioneros para ayudarnos a tomar decisiones sobre la mejor manera de utilizar y liderar estas tecnologías en nuestras organizaciones?
  10. ¿Estamos haciendo lo suficiente con las tecnologías de IA para pasar de seguir siendo competitivos a garantizar también la creación de valor a largo plazo? Si no es así, ¿cuáles de los problemas identificados aquí se interponen en nuestro camino?

Las opiniones de terceros expuestas en esta publicación no son necesariamente las de EY ni las de sus firmas miembro. Además, deben considerarse en el contexto del momento en que se realizaron.

Resumen

Como miembro del Consejo de Administración, puedes ayudar a tu organización a crear y salvaguardar la confianza en la IA entre tus stakeholders, pero sólo si la aplicas correctamente. Utilízala de manera poco ética y tu organización se enfrentará a las consecuencias.

Desarrollar una regulación mundial que regule su uso y nos proteja de malas praxis es una meta compleja. Tú puedes contribuir a crear un mejor ecosistema asegurándote de que el empleo de las mismas en el seno de tu compañía es el adecuado, ético y sigue todas las normas establecidas.

Acerca de este artículo

Por Hildur Eir Jónsdóttir

EY España, Socia Directora de Assurance

Disfruto enormemente de la música, cualquier época me vale… siempre que sea bailable, pero también de la gastronomía, de los viajes, de aprender cosas nuevas, de la gente con mayúsculas y de las risas