4 minutos de lectura 17 jul. 2020
Persona saltando vista a través del visor de una cámara

¿Por qué la IA imparcial es esencial para construir un mejor mundo de negocios?

Por Ben Falk

EY Global Markets EYQ Global Insights Director

Papá. Jardinero. Amante de la comida y la vida salvaje. Científico social y reformador del capitalismo. Estudiando las interacciones entre la tecnología, los mercados y las políticas públicas, centrándose en la IA, los datos, los intangibles y la criptografía.

Colaboradores
4 minutos de lectura 17 jul. 2020

Es crucial para el desarrollo a largo plazo de la IA que la tecnología sea percibida como justa. De lo contrario, la confianza en la IA puede perderse para una generación.

L a crisis de COVID-19 ejerció una presión sin precedentes sobre los contratos sociales en todo el mundo. El impacto desproporcionado de la pandemia en las comunidades minoritarias y desfavorecidas, tanto en lo que respecta a los costos sanitarios como a los económicos, ha puesto de manifiesto las desigualdades sistémicas por motivos raciales y étnicos en muchas sociedades.

La ira pública se dirige legítimamente al status quo, creando riesgos a corto plazo para las empresas que navegan en este clima social volátil. En medio de las protestas globales de Black Lives Matter, las empresas se ven obligadas a reevaluar sus responsabilidades sociales, incluyendo la de asegurar que el despliegue de tecnologías de inteligencia artificial (IA) sea justo e imparcial.

IBM anunció recientemente que ya no ofrecerá tecnología de reconocimiento facial o de vigilancia debido a la preocupación por la parcialidad, por ejemplo. Microsoft y otros han suspendido las colaboraciones de reconocimiento facial con las agencias de aplicación de la ley. Esto no sólo demuestra un liderazgo ético, sino también una astuta gestión del riesgo.

Abordar el punto ciego de la parcialidad algorítmica

El sesgo algorítmico se refiere a los errores repetidos y sistemáticos de un sistema informático que generan resultados injustos, entre ellos el de favorecer a un grupo en detrimento de otro. El sesgo puede derivarse de diversos factores, como el diseño del algoritmo, los "datos de capacitación" utilizados como insumos o mediante aplicaciones no previstas, entre otros.

La encuesta de EY en conjunto con The Future Society " Bridging AI’s trust gaps" (pdf) completada a fines de 2019, justo antes de la llegada del nuevo coronavirus, solicitó a los responsables políticos y a las empresas que prioricen los principios éticos en una amplia gama de casos de uso de IA. Los resultados destacan la mayor divergencia en las prioridades éticas entre las empresas y los encargados de formular políticas entre las aplicaciones relacionadas con el principio de equidad y evitar sesgos. Además, les preguntamos específicamente a las empresas y a los responsables políticos sobre dos casos de uso tópico, reconocimiento facial y vigilancia.

En el gráfico que figura a continuación se muestran las diez mayores diferencias de prioridades éticas entre los encargados de formular políticas y las empresas, de un total de más de 100 medidas en toda la encuesta. Cuatro de las diez mayores se refieren al principio de equidad y a evitar el sesgo (resaltadas en gris). La brecha en torno al sesgo para las aplicaciones de vigilancia y reconocimiento facial, particularmente pertinente en el mundo posterior a COVID-19, representa la cuarta y quinta más grande en todo el conjunto de datos.

Los datos indican que muchas empresas no aprecian la importancia que los encargados de la formulación de políticas y el público atribuyen a la parcialidad, y no identifican, evalúan y gestionan los riesgos derivados del uso de algoritmos potencialmente discriminatorios. En consecuencia, es posible que las empresas estén desarrollando productos y servicios que generarán poca tracción en el mercado, ya que no están bien alineados con los valores, las preferencias y la orientación normativa emergentes.

Las mayores brechas en todos los casos de uso y el cuadro de principios

Estos riesgos requieren una mitigación activa más allá de las suspensiones, y las recientes acciones corporativas sugieren que las brechas pueden estar cerrándose. Las empresas deberían considerar la posibilidad de ir más allá y exponer tanto sus modelos como sus marcos de gobernanza a un escrutinio más amplio, como los auditores externos independientes o incluso el público en general. También es necesario un examen minucioso de los datos de capacitación de los modelos, ya que puede haber sesgos que se filtren inadvertidamente. Por ejemplo, aunque excluir las observaciones que describen la raza o el origen étnico podría parecer que elimina el riesgo de sesgo, si el mundo real está segregado por el código postal, la dirección de una persona puede revelar características delicadas y generar resultados sesgados a pesar de las buenas intenciones.

Inteligencia Artificial Imparcial EY

¿Interesado en aprender más sobre cómo puedes asegurarte de que tu IA permanezca imparcial? Obtén más información sobre la próxima oferta de servicios de EY.

 

Contáctanos

Las empresas deben considerar las consecuencias no deseadas para la sociedad, no sólo lograr la precisión técnica. Las pandemias están históricamente asociadas con el racismo, la xenofobia y el conflicto de clases. El despliegue azaroso de algoritmos discriminatorios puede empeorar una situación trágica.

Consideraciones clave para el desarrollo de la IA imparcial

 
     
  • ¿Cómo se diseña un sistema de IA que sea imparcial si nuestras sociedades son sistémica e institucionalmente sesgadas?
  • ¿Cuáles son las implicaciones para nuestra sociedad si las empresas despliegan algoritmos sesgados en un mundo ya plagado de discriminación?
  • ¿Cómo podemos asegurarnos de que las tecnologías emergentes no se desplieguen injustamente contra los grupos vulnerables?
  • ¿Qué medidas deberían tomar las empresas para minimizar el riesgo de sesgo algorítmico?
  • ¿Qué derechos debe tener una víctima de discriminación algorítmica para reparar la injusticia?
 

Resumen

El impacto desproporcionado de la pandemia COVID-19 en las comunidades minoritarias y desfavorecidas, tanto en lo que respecta a los costos sanitarios como a los económicos, ha puesto de manifiesto las desigualdades sistémicas por motivos raciales y étnicos en muchas sociedades. Las empresas se están viendo obligadas a reevaluar sus responsabilidades sociales, incluida la de garantizar que el despliegue de tecnologías de inteligencia artificial (IA) sea justo e imparcial.

Acerca de este artículo

Por Ben Falk

EY Global Markets EYQ Global Insights Director

Papá. Jardinero. Amante de la comida y la vida salvaje. Científico social y reformador del capitalismo. Estudiando las interacciones entre la tecnología, los mercados y las políticas públicas, centrándose en la IA, los datos, los intangibles y la criptografía.

Colaboradores