¿Cómo protegerá su inversión de otro invierno de IA?

Por

EYQ

EYQ is EY’s think tank.

By exploring “What’s after what’s next?”, EYQ helps leaders anticipate the forces shaping our future — empowering them to seize the upside of disruption and build a better working world.

9 minutos de lectura 15 feb 2019

Mostrar recursos

La promoción de la IA experimentó variaciones muchas veces en el tiempo. Entonces, ¿cómo pueden las organizaciones asegurarse de que sus últimas inversiones en IA se vean a través de la lente del valor a largo plazo en lugar del costo a corto plazo?

Proclamada como la "nueva electricidad", se espera que la IA transforme todas las industrias, generando nuevos productos y servicios, desbloqueando nuevas eficiencias, creando nuevos modelos de negocio, impulsando nuevas fuentes de beneficios y aportando un importante valor financiero y humano. Las expectativas y el entusiasmo por la IA han alcanzado un nuevo nivel, ganando una posición prominente en la junta directiva y con los gobiernos como parte de sus esfuerzos más amplios de transformación digital.

Estamos tan lejos de, incluso, el nivel de inteligencia de un niño de seis años, por no hablar de la inteligencia humana en general.
Oren Etzioni
Profesor en University of Washington y CEO de Allen Institute for AI

El "Invierno de IA"

Pero ya hemos visto esta fanfarria en torno a la IA antes; primero desde su inicio en los años cincuenta hasta mediados de los setenta y posteriormente desde 1980 hasta 1987. Ambos períodos fueron seguidos por un "Invierno de IA" - un período en el que la financiación declinó, el interés disminuyó y la investigación en el campo pasó a la clandestinidad.

Dado este historial histórico y el optimismo que prevalece hoy en día en torno a la IA, parece natural preguntarse: ¿se enfrentará la IA a otro "invierno" - nos espera un déjà-vu? Y si es así, ¿cómo podrían los líderes empresariales y los gobiernos gestionar y mitigar los riesgos de sus inversiones en IA y garantizar que la IA genere valor humano sin infligir costos humanos?

Protegiendo su inversión en Inteligencia Artificial

Para mitigar el riesgo de que una inversión o proyecto de IA se congele en medio de resultados costosos y consecuentes, tenga en cuenta los siguientes imperativos:

  1. Comprenda las capacidades de las tecnologías actuales de inteligencia artificial
  2. Comprenda el costo de un error
  3. Controle su entusiasmo: no es un cerebro humano (todavía)
Innovation Realized hanging chairs meeting

Innovation Realized Summit

En el Innovation Realized Summit 2019, convocamos a mentes brillantes para colaborar en cómo resolver el ahora, explorar el mañana e imaginar qué hay después.

Descubre más

 Persona de pie sobre la nieve
(Chapter breaker)
1

Capítulo 1

Entender lo que las tecnologías de IA son capaces de hacer en la actualidad

Algo de historia: ¿Inteligencia General Artificial o Inteligencia Artificial Estrecha?

La Conferencia de Dartmouth, celebrada en 1956, dio inicio a una época dorada de intensa investigación sobre la IA con el objetivo de "hacer que una máquina se comporte de maneras que se llamarían inteligentes si un humano se comportara así".2

Animados por los impresionantes avances de los primeros tiempos, pioneros de la IA como Marvin Minsky afirmaron que "dentro de nuestra vida útil, las máquinas pueden superarnos en inteligencia general".3 Sin embargo, la limitada y costosa potencia informática y el almacenamiento, así como la escasez de datos, significaban que las soluciones tempranas sólo podían resolver problemas rudimentarios. Estas limitaciones tecnológicas condujeron al primer invierno de la IA, en el que los fondos se agotaron y los intereses disminuyeron. El segundo invierno de la IA de 1980-87 se precipitó cuando los sistemas expertos se volvieron caros de mantener y se volvieron frágiles cuando se enfrentaron a escenarios inusuales.

  • La IA temprana: ¿qué entendemos por sistemas expertos?

    Los sistemas expertos ganaron importancia en la década de 1980. Eran sistemas de software diseñados para resolver problemas específicos de un dominio especializado que de otro modo requerirían de un especialista humano. Se desarrollaron sistemas expertos para una variedad de campos, incluyendo medicina, aviación, finanzas y planificación y optimización empresarial. Un sistema experto típico consistía en una base de conocimientos de hechos y reglas adquiridas de un especialista humano, y un motor de inferencia que aplicaba las reglas y los hechos.

    Aunque los sistemas expertos representan las primeras formas comercialmente exitosas de IA, la tecnología y el enfoque tuvieron varios problemas. Como motores basados en reglas, los sistemas expertos debían actualizarse constantemente con nuevos hechos y reglas; sin embargo, la adquisición de conocimientos por parte de los especialistas en el ámbito de la demanda se hizo difícil de obtener. Además, los sistemas expertos demostraron ser frágiles porque se basaban en conocimientos hard-coded, eran propensos al fracaso cuando se enfrentaban a problemas inusuales que no tenían un precedente en la base de conocimientos del sistema.

    Por ejemplo, un sistema experto que está diseñado para diagnosticar tumores basado en un conjunto de variables de entrada puede fallar si esas variables de entrada varían incluso ligeramente de lo que está presente en su base de conocimiento. A diferencia de un especialista humano, el sistema de expertos no puede recurrir a experiencias anteriores o similares para resolver un caso inusual o nuevo.

Quizás aún más perjudicial fue subestimar la dificultad de crear una Inteligencia General Artificial (AGI por sus siglas en inglés) o similar a la humana.

El renacimiento actual de la IA se debe principalmente a la superación de los obstáculos tecnológicos que plagaron los esfuerzos anteriores. Sin embargo, los especialistas de IA hoy en día no están haciendo proclamaciones de alcanzar la AGI. A pesar de los importantes avances, Oren Etzioni, profesor de University of Washington y director ejecutivo del Allen Institute for AI, dice: "Estamos tan lejos de....incluso de un nivel de inteligencia de seis años de edad, por no hablar de la inteligencia humana en general..."4

Inteligencia artificial estrecha

Mientras que AGI puede seguir siendo una meta a largo plazo para algunos en el campo, el enfoque actual y el entusiasmo se centra en la Inteligencia Artificial Estrecha (ANI por sus siglas en inglés).

La abundante y barata potencia de los ordenadores, los copiosos datos digitales generados por la proliferación de Internet, así como el gran avance de Geoffrey Hinton en el aprendizaje profundo, han llevado a una explosión de las aplicaciones de ANI. Estas aplicaciones ejecutan muy bien tareas específicas en un contexto limitado, a veces mejor que los humanos. Hoy en día, los algoritmos de ANI están creando valor humano, potenciando a los asistentes de voz digitales, impulsando las recomendaciones de productos y ayudando en la detección del cáncer. También han ampliado el conocimiento humano mediante la búsqueda de nuevos planetas y la obtención de conocimientos a partir de los datos genéticos humanos. La gran cantidad y diversidad de aplicaciones comerciales de ANI es quizás lo que distingue a esta tercera ola de optimismo en la IA.

Con estos logros a sus espaldas, ¿ha surgido la eterna "primavera" para ANI?

 excursionista de pie en la montaña contra el cielo durante la puesta del sol
(Chapter breaker)
2

Capítulo 2

Comprender el precio de un error

Tu ANI está floreciendo. ¿Pero está infectado con un costoso sesgo humano?

Las tecnologías actuales de IA pueden aplicarse a un amplio espectro de problemas, cada uno con diferentes perfiles de riesgo. Se debe tener cuidado en emparejar el caso de uso y el contexto con la tecnología apropiada.
Cathy Cobey
<em>EY Global Trusted AI Advisory Leader</em>

Los sistemas ANI se han hecho populares entre empresas, gobiernos y empresarios que se enfrentan a un corpus creciente de datos digitales que esperan ser explotados. Sin embargo, al perseguir los beneficios de la productividad y la eficiencia de la ANI, estas partes interesadas deben tener en cuenta los riesgos derivados de las deficiencias de la ANI y el potencial de un coste humano involuntario.

Las críticas más comunes al ANI incluyen la incapacidad del algoritmo para razonar más allá de sus datos de entrenamiento y su propensión a propagar sesgos humanos inherentes a medida que aprende de los datos generados por el ser humano. Aunque ninguna tecnología carece de defectos, el costo de un error derivado de los inconvenientes de ANI puede tener graves consecuencias, especialmente en situaciones en las que la decisión del algoritmo puede influir sustancialmente en el destino de un individuo.

En algunos casos, los errores algorítmicos son, en el peor de los casos, inconvenientes. Por ejemplo, aunque los asistentes de voz digitales han hecho un paso en falso o dos, resultando en momentos incómodos o perturbadores para los usuarios, la adopción y el uso continúan en aumento. Por otro lado, en contextos de alto perfil orientados al público, los errores algorítmicos tuvieron resultados catastróficos y erosionaron la confianza del público. Por ejemplo, los recientes accidentes mortales en los que se han visto implicados coches autónomos han atenuado el entusiasmo y han provocado una erosión significativa de la confianza de los consumidores: un estudio realizado en 2018 reveló que el 73% de los conductores estadounidenses no confiarían en un vehículo totalmente autónomo, en comparación con el 63% en 2017.

A medida que la toma de decisiones impulsada por el ANI encuentra su camino en otros ámbitos críticos como la justicia penal, la educación y la contratación laboral, el precio de un error ha resultado en arrestos falsos, prejuicios raciales y discriminación de género. Si la incidencia de estos errores aumenta, podría conducir en última instancia a una pérdida total de confianza en la tecnología y dejar a esta clase de aplicaciones ANI vulnerables a un posible "invierno".

Esto no quiere decir que todo el campo de la ANI vaya a flaquear. Como sugiere Stefan Heck, co-fundador y CEO de Nauto y EYQ Fellow, "Tal vez necesitemos otra categoría entre ANI y AGI para dar cuenta de las circunstancias en las que los fracasos podrían resultar en una reacción social".

Las definiciones de IA y sus diversos sabores se han centrado tradicionalmente en la capacidad de la tecnología para imitar o superar las capacidades físicas y cognitivas humanas. Si bien este marco ha servido para comparar la evolución de la tecnología, no refleja adecuadamente los perfiles de riesgo de los algoritmos cuando se aplican en diferentes contextos.

¿Qué tan riesgosa es tu IA?

El siguiente marco de trabajo ofrece a las empresas y a los gobiernos una forma de categorizar y clasificar sus aplicaciones de IA actuales y futuras.

 

Inteligencia Artificial Estrecha –

Transaccional (ANI-T)

Inteligencia Artificial Estrecha –

Consecuencial (ANI-C)

Inteligencia General Artificial

(AGI)

Superinteligencia
Artificial

(ASI)

Definición Una sola tarea en un contexto limitado tan buena como o mejor que la humana Una sola tarea en un contexto dinámico tan buena como o mejor que la humana Múltiples tareas en contextos dinámicos tan buenos como los humanos Superar todas las capacidades intelectuales humanas en contextos conocidos y desconocidos
Alcance del impacto Limitada y a corto plazo Amplio y a largo plazo Todo! ¡Incomprensible!
Ejemplo

Asistentes de voz digitales

Autos autónomos HAL 9000 Más allá de la imaginación humana
Perfil de riesgo Bajo Alto Desconocido Desconocido

Fuente: Stefan Heck y EYQ

Utilizando esta rúbrica, los líderes empresariales y los gobiernos pueden evaluar el perfil de riesgo de sus casos de uso, estrategia e inversiones basados en el ANI. Abordar los riesgos, especialmente con las aplicaciones ANI-C, no sólo será fundamental para el éxito de los esfuerzos de transformación digital, sino también para mantener la credibilidad y la confianza de las empresas y los gobiernos con sus clientes y ciudadanos. Y, en consecuencia, les permitirá darse cuenta del importante potencial que tiene el ANI para mejorar la productividad, la eficiencia y la calidad de vida en general.

Se están llevando a cabo diversas iniciativas para superar las limitaciones tecnológicas de ANI y mitigar las consecuencias no deseadas de los errores algorítmicos: nuevos enfoques algorítmicos, marcos para la "IA ética" y la disponibilidad de herramientas de código abierto para auditar los algoritmos en busca de sesgos, por nombrar algunos. La junta directiva debe desempeñar un papel activo en estas iniciativas y, junto con los gobiernos, trabajar para desarrollar algoritmos más éticos, equitativos, precisos y transparentes. Construir confianza en la tecnología será esencial para frustrar el riesgo de un inminente "invierno" para las aplicaciones ANI-C.

En última instancia, el éxito dependerá de que los líderes empresariales y los gobiernos mantengan los intereses humanos y los valores humanos en el centro del desarrollo de todas las formas de soluciones ANI y minimicen o anulen el precio de un error algorítmico que podría tener consecuencias de gran alcance para el rendimiento comercial o el bienestar humano.

 hombre escalando un iceberg en St-Lawrence river Canada
(Chapter breaker)
3

Capítulo 3

Controle su entusiasmo: no es un cerebro humano (todavía)

El mito, las expectativas y la realidad

Tal vez nuestras expectativas de una primavera de IA son demasiado altas.
Susan Etlinger
Analista de la industria, Altimeter group

Los artefactos culturales desde Pigmalión hasta Frankenstein han construido consciente o inconscientemente la noción de la humanidad de lo que constituye la IA – un ser artificial repleto de sentimientos, emociones, intelecto y comportamientos asociados con los humanos.

Cualquier avance tecnológico que implique un paso hacia la realización de esta visión de la IA se amplifica y el potencial de defectos no se tiene en cuenta en las expectativas del público. Cuando se produce un error crítico, las esperanzas se ven frustradas y la tecnología se considera poco fiable. En realidad, la tecnología de IA actual no es lo suficientemente robusta como para ceder la toma de decisiones en contextos humanos consecuentes. Como sugiere Ray Edwards, GM ICT Business Development y Venture Capitalist de Yamaha Ventures, "Algunos casos de uso continuarán requiriendo una interacción y un juicio humano sustancial antes de que puedan ser desplegados comercialmente a escala".

Cerrar la brecha entre nuestras expectativas y la realidad será fundamental para frustrar otro "invierno" para cualquier sabor de ANI (ANI-T o ANI-C). Sin embargo, como observa Nigel Duffy, Líder de Innovación Global en Inteligencia Artificial de EY, "En el pasado no se han alineado nuestras expectativas con la realidad y no hay certeza de que podamos hacerlo ahora. Así que el riesgo de otro 'Invierno AI' sigue siendo alto".

Reteniendo el "invierno"

Para los líderes empresariales y los gobiernos con inversiones significativas en ANI, minimizar el riesgo de un "invierno" implicará:

  • Participar en un discurso público más equilibrado
  • Reconocer los defectos de ANI
  • Gestionar las expectativas de sus clientes.
  • Desarrollar y desplegar cuidadosamente aplicaciones ANI-C para promover resultados confiables, equitativos y éticos.

A pesar de sus inconvenientes actuales, ANI tiene un gran potencial para mejorar la calidad de vida en la actualidad. Al proyectar expectativas poco realistas sobre el ANI, podemos vernos imposibilitados de darnos cuenta de sus beneficios.

Como observó Roy Amara, ex Presidente del Instituto para el Futuro: "Tendemos a sobreestimar el efecto de una tecnología a corto plazo y a subestimar el efecto a largo plazo". Aunque el ANI no se manifieste en el AGI en el corto plazo, un imperativo clave para los líderes empresariales y los gobiernos es aprovechar el ANI de manera apropiada y segura, lo que dará lugar a nuevas innovaciones que aportarán un valor humano incalculable en las décadas venideras.

Explorar la transformación digital desde todos los ángulos

Los conocimientos de EY sobre la transformación digital pueden ayudarle a desbloquear nuevos valores y a crear la empresa del futuro.

Descubre más

Resumen

El paso más poderoso para negar los futuros "inviernos de la IA" puede ser armonizar nuestras expectativas con la realidad de dónde se encuentran las capacidades de la IA en la actualidad.

Acerca de este artículo

Por

EYQ

EYQ is EY’s think tank.

By exploring “What’s after what’s next?”, EYQ helps leaders anticipate the forces shaping our future — empowering them to seize the upside of disruption and build a better working world.