
Capítulo 1
Entender lo que las tecnologías de IA son capaces de hacer en la actualidad
Algo de historia: ¿Inteligencia General Artificial o Inteligencia Artificial Estrecha?
La Conferencia de Dartmouth, celebrada en 1956, dio inicio a una época dorada de intensa investigación sobre la IA con el objetivo de "hacer que una máquina se comporte de maneras que se llamarían inteligentes si un humano se comportara así".2
Animados por los impresionantes avances de los primeros tiempos, pioneros de la IA como Marvin Minsky afirmaron que "dentro de nuestra vida útil, las máquinas pueden superarnos en inteligencia general".3 Sin embargo, la limitada y costosa potencia informática y el almacenamiento, así como la escasez de datos, significaban que las soluciones tempranas sólo podían resolver problemas rudimentarios. Estas limitaciones tecnológicas condujeron al primer invierno de la IA, en el que los fondos se agotaron y los intereses disminuyeron. El segundo invierno de la IA de 1980-87 se precipitó cuando los sistemas expertos se volvieron caros de mantener y se volvieron frágiles cuando se enfrentaron a escenarios inusuales.
Quizás aún más perjudicial fue subestimar la dificultad de crear una Inteligencia General Artificial (AGI por sus siglas en inglés) o similar a la humana.
El renacimiento actual de la IA se debe principalmente a la superación de los obstáculos tecnológicos que plagaron los esfuerzos anteriores. Sin embargo, los especialistas de IA hoy en día no están haciendo proclamaciones de alcanzar la AGI. A pesar de los importantes avances, Oren Etzioni, profesor de University of Washington y director ejecutivo del Allen Institute for AI, dice: "Estamos tan lejos de....incluso de un nivel de inteligencia de seis años de edad, por no hablar de la inteligencia humana en general..."4
Inteligencia artificial estrecha
Mientras que AGI puede seguir siendo una meta a largo plazo para algunos en el campo, el enfoque actual y el entusiasmo se centra en la Inteligencia Artificial Estrecha (ANI por sus siglas en inglés).
La abundante y barata potencia de los ordenadores, los copiosos datos digitales generados por la proliferación de Internet, así como el gran avance de Geoffrey Hinton en el aprendizaje profundo, han llevado a una explosión de las aplicaciones de ANI. Estas aplicaciones ejecutan muy bien tareas específicas en un contexto limitado, a veces mejor que los humanos. Hoy en día, los algoritmos de ANI están creando valor humano, potenciando a los asistentes de voz digitales, impulsando las recomendaciones de productos y ayudando en la detección del cáncer. También han ampliado el conocimiento humano mediante la búsqueda de nuevos planetas y la obtención de conocimientos a partir de los datos genéticos humanos. La gran cantidad y diversidad de aplicaciones comerciales de ANI es quizás lo que distingue a esta tercera ola de optimismo en la IA.
Con estos logros a sus espaldas, ¿ha surgido la eterna "primavera" para ANI?

Capítulo 2
Comprender el precio de un error
Tu ANI está floreciendo. ¿Pero está infectado con un costoso sesgo humano?
Las tecnologías actuales de IA pueden aplicarse a un amplio espectro de problemas, cada uno con diferentes perfiles de riesgo. Se debe tener cuidado en emparejar el caso de uso y el contexto con la tecnología apropiada.
Los sistemas ANI se han hecho populares entre empresas, gobiernos y empresarios que se enfrentan a un corpus creciente de datos digitales que esperan ser explotados. Sin embargo, al perseguir los beneficios de la productividad y la eficiencia de la ANI, estas partes interesadas deben tener en cuenta los riesgos derivados de las deficiencias de la ANI y el potencial de un coste humano involuntario.
Las críticas más comunes al ANI incluyen la incapacidad del algoritmo para razonar más allá de sus datos de entrenamiento y su propensión a propagar sesgos humanos inherentes a medida que aprende de los datos generados por el ser humano. Aunque ninguna tecnología carece de defectos, el costo de un error derivado de los inconvenientes de ANI puede tener graves consecuencias, especialmente en situaciones en las que la decisión del algoritmo puede influir sustancialmente en el destino de un individuo.
En algunos casos, los errores algorítmicos son, en el peor de los casos, inconvenientes. Por ejemplo, aunque los asistentes de voz digitales han hecho un paso en falso o dos, resultando en momentos incómodos o perturbadores para los usuarios, la adopción y el uso continúan en aumento. Por otro lado, en contextos de alto perfil orientados al público, los errores algorítmicos tuvieron resultados catastróficos y erosionaron la confianza del público. Por ejemplo, los recientes accidentes mortales en los que se han visto implicados coches autónomos han atenuado el entusiasmo y han provocado una erosión significativa de la confianza de los consumidores: un estudio realizado en 2018 reveló que el 73% de los conductores estadounidenses no confiarían en un vehículo totalmente autónomo, en comparación con el 63% en 2017.
A medida que la toma de decisiones impulsada por el ANI encuentra su camino en otros ámbitos críticos como la justicia penal, la educación y la contratación laboral, el precio de un error ha resultado en arrestos falsos, prejuicios raciales y discriminación de género. Si la incidencia de estos errores aumenta, podría conducir en última instancia a una pérdida total de confianza en la tecnología y dejar a esta clase de aplicaciones ANI vulnerables a un posible "invierno".
Esto no quiere decir que todo el campo de la ANI vaya a flaquear. Como sugiere Stefan Heck, co-fundador y CEO de Nauto y EYQ Fellow, "Tal vez necesitemos otra categoría entre ANI y AGI para dar cuenta de las circunstancias en las que los fracasos podrían resultar en una reacción social".
Las definiciones de IA y sus diversos sabores se han centrado tradicionalmente en la capacidad de la tecnología para imitar o superar las capacidades físicas y cognitivas humanas. Si bien este marco ha servido para comparar la evolución de la tecnología, no refleja adecuadamente los perfiles de riesgo de los algoritmos cuando se aplican en diferentes contextos.
¿Qué tan riesgosa es tu IA?
El siguiente marco de trabajo ofrece a las empresas y a los gobiernos una forma de categorizar y clasificar sus aplicaciones de IA actuales y futuras.
Inteligencia Artificial Estrecha – Transaccional (ANI-T) |
Inteligencia Artificial Estrecha – Consecuencial (ANI-C) |
Inteligencia General Artificial (AGI) |
Superinteligencia (ASI) |
|
---|---|---|---|---|
Definición | Una sola tarea en un contexto limitado tan buena como o mejor que la humana | Una sola tarea en un contexto dinámico tan buena como o mejor que la humana | Múltiples tareas en contextos dinámicos tan buenos como los humanos | Superar todas las capacidades intelectuales humanas en contextos conocidos y desconocidos |
Alcance del impacto | Limitada y a corto plazo | Amplio y a largo plazo | Todo! | ¡Incomprensible! |
Ejemplo | Asistentes de voz digitales |
Autos autónomos | HAL 9000 | Más allá de la imaginación humana |
Perfil de riesgo | Bajo | Alto | Desconocido | Desconocido |
Fuente: Stefan Heck y EYQ
Utilizando esta rúbrica, los líderes empresariales y los gobiernos pueden evaluar el perfil de riesgo de sus casos de uso, estrategia e inversiones basados en el ANI. Abordar los riesgos, especialmente con las aplicaciones ANI-C, no sólo será fundamental para el éxito de los esfuerzos de transformación digital, sino también para mantener la credibilidad y la confianza de las empresas y los gobiernos con sus clientes y ciudadanos. Y, en consecuencia, les permitirá darse cuenta del importante potencial que tiene el ANI para mejorar la productividad, la eficiencia y la calidad de vida en general.
Se están llevando a cabo diversas iniciativas para superar las limitaciones tecnológicas de ANI y mitigar las consecuencias no deseadas de los errores algorítmicos: nuevos enfoques algorítmicos, marcos para la "IA ética" y la disponibilidad de herramientas de código abierto para auditar los algoritmos en busca de sesgos, por nombrar algunos. La junta directiva debe desempeñar un papel activo en estas iniciativas y, junto con los gobiernos, trabajar para desarrollar algoritmos más éticos, equitativos, precisos y transparentes. Construir confianza en la tecnología será esencial para frustrar el riesgo de un inminente "invierno" para las aplicaciones ANI-C.
En última instancia, el éxito dependerá de que los líderes empresariales y los gobiernos mantengan los intereses humanos y los valores humanos en el centro del desarrollo de todas las formas de soluciones ANI y minimicen o anulen el precio de un error algorítmico que podría tener consecuencias de gran alcance para el rendimiento comercial o el bienestar humano.

Capítulo 3
Controle su entusiasmo: no es un cerebro humano (todavía)
El mito, las expectativas y la realidad
Tal vez nuestras expectativas de una primavera de IA son demasiado altas.
Los artefactos culturales desde Pigmalión hasta Frankenstein han construido consciente o inconscientemente la noción de la humanidad de lo que constituye la IA – un ser artificial repleto de sentimientos, emociones, intelecto y comportamientos asociados con los humanos.
Cualquier avance tecnológico que implique un paso hacia la realización de esta visión de la IA se amplifica y el potencial de defectos no se tiene en cuenta en las expectativas del público. Cuando se produce un error crítico, las esperanzas se ven frustradas y la tecnología se considera poco fiable. En realidad, la tecnología de IA actual no es lo suficientemente robusta como para ceder la toma de decisiones en contextos humanos consecuentes. Como sugiere Ray Edwards, GM ICT Business Development y Venture Capitalist de Yamaha Ventures, "Algunos casos de uso continuarán requiriendo una interacción y un juicio humano sustancial antes de que puedan ser desplegados comercialmente a escala".
Cerrar la brecha entre nuestras expectativas y la realidad será fundamental para frustrar otro "invierno" para cualquier sabor de ANI (ANI-T o ANI-C). Sin embargo, como observa Nigel Duffy, Líder de Innovación Global en Inteligencia Artificial de EY, "En el pasado no se han alineado nuestras expectativas con la realidad y no hay certeza de que podamos hacerlo ahora. Así que el riesgo de otro 'Invierno AI' sigue siendo alto".
Reteniendo el "invierno"
Para los líderes empresariales y los gobiernos con inversiones significativas en ANI, minimizar el riesgo de un "invierno" implicará:
- Participar en un discurso público más equilibrado
- Reconocer los defectos de ANI
- Gestionar las expectativas de sus clientes.
- Desarrollar y desplegar cuidadosamente aplicaciones ANI-C para promover resultados confiables, equitativos y éticos.
A pesar de sus inconvenientes actuales, ANI tiene un gran potencial para mejorar la calidad de vida en la actualidad. Al proyectar expectativas poco realistas sobre el ANI, podemos vernos imposibilitados de darnos cuenta de sus beneficios.
Como observó Roy Amara, ex Presidente del Instituto para el Futuro: "Tendemos a sobreestimar el efecto de una tecnología a corto plazo y a subestimar el efecto a largo plazo". Aunque el ANI no se manifieste en el AGI en el corto plazo, un imperativo clave para los líderes empresariales y los gobiernos es aprovechar el ANI de manera apropiada y segura, lo que dará lugar a nuevas innovaciones que aportarán un valor humano incalculable en las décadas venideras.
Resumen
El paso más poderoso para negar los futuros "inviernos de la IA" puede ser armonizar nuestras expectativas con la realidad de dónde se encuentran las capacidades de la IA en la actualidad.