Diabetic girl with a CGM sensor on her arm. Father using an app to monitor blood sugar levels.
Diabetic girl with a CGM sensor on her arm. Father using an app to monitor blood sugar levels.

Mientras la IA pasa de asesorar a ser una autoridad, ¿quién define sus límites?

La AI Sentiment Survey de EY revela que la adopción de esta tecnología viene determinada por lo que la gente hace, y no por lo que dice.

En resumen

  • La gente dice que no confía en la IA, pero sus decisiones cotidianas demuestran que la utilizan de todos modos.
  • La IA autónoma ya no es solo teoría: el 16 % de personas ha utilizado la IA para que actúe en su nombre solo en los últimos seis meses.
  • El uso de la inteligencia artificial está pasando de la asistencia de bajo riesgo a la toma de decisiones de mayor importancia, entre las que se incluyen los sectores de la salud, las finanzas y el transporte.

Cuando la gente habla de la inteligencia artificial (IA) en términos generales, tiende a centrarse en lo que le da miedo. Sin embargo, cuando se les pregunta cómo lo utilizan realmente, se observa una realidad muy diferente. En la vida cotidiana, las personas han integrado la inteligencia artificial en su forma de planificar, tomar decisiones y actuar, ya sea para trazar rutas, responder preguntas o resolver problemas.

En el margen de este panorama, se está produciendo otro cambio importante. Cada vez son más las personas que ya no se limitan a pedir consejo, sino que están empezando a dejar que la IA actúe en su nombre. La capacidad de tomar decisiones está pasando de las personas a los sistemas, y lo que comenzó como una ayuda de bajo riesgo se está convirtiendo ahora en algo mucho más trascendental.

Este cambio de una IA asistencial a una autónoma no es una perspectiva de un futuro lejano. Ya está en marcha y avanza más rápido de lo que la mayoría de las organizaciones podría imaginar.

A pesar de que el debate público en torno a la IA sigue centrándose en la confianza, la rendición de cuentas y la autenticidad, el segundo estudio anual EY AI Sentiment Study (pdf), basado en las opiniones de más de 18.000 personas de 23 mercados, muestra que la adopción de la IA se está acelerando rápidamente, muy por delante de la confianza. 

La experiencia nos enseña que cambios como este rara vez se producen de forma gradual. A medida que los pioneros en la adopción de nuevas tecnologías comienzan a experimentar, a menudo redefinen lo que se considera normal. Lo que antes parecía radical puede convertirse en algo habitual casi de la noche a la mañana.

Para los líderes, las implicaciones de este cambio son evidentes. La cuestión ya no es si la gente aceptará la IA autónoma. Lo importante es la rapidez con la que se extenderá esa aceptación, qué usuarios y mercados darán el primer paso y si las organizaciones estarán preparadas para responder a sus necesidades.

Como afirma Janet Truncale, EY Global CEO: «A medida que la IA se vuelve más capaz de tomar decisiones en nuestro nombre, la confianza no es una ventaja "añadida", sino una necesidad "integrada". Cuando la IA se diseña con límites claros y una supervisión continua, las organizaciones pueden ampliar la autonomía con confianza».

Este informe analiza cómo las decisiones cotidianas están acelerando la transición de la asistencia a la autonomía, y qué deben hacer ahora los líderes empresariales para determinar cómo generar confianza, dónde se pueden ampliar los límites y en qué aspectos conviene mantener un ritmo mesurado, en un mundo que podría alcanzar la autonomía antes de lo previsto.

Taxi autónomo en Abu Dabi, Emiratos Árabes Unidos
1

Capítulo 1

Una minoría significativa ya está dejando que la IA tome las decisiones

Las personas están permitiendo que la IA actúe en su nombre, un cambio demasiado importante como para que las empresas lo ignoren.

La IA autónoma ya no es más algo teórico. Solo en los últimos seis meses, el 16 % de la población mundial afirma haber utilizado ya sistemas de inteligencia artificial que actúan en su nombre, sin intervención humana. Y esta delegación se refleja en las decisiones cotidianas. El 10 % de las personas afirma utilizar agentes de inteligencia artificial para comprar productos en su nombre. El 11 % permite que la IA rellene automáticamente los carritos de la compra y realice las compras. Otro 11 % permite que la IA gestione sus finanzas y realice operaciones bancarias sin intervención humana. Y un 9 % ha utilizado un vehículo o un taxi autónomo. 

Lo que comenzó como una IA que asesora se está convirtiendo en una IA que actúa.

En el caso de quienes aún no han utilizado la IA de forma autónoma, su disposición a hacerlo es evidente. Cuando se les pide que imaginen posibles escenarios futuros, la preferencia de las personas por una IA que actúe en su nombre es más marcada en momentos cotidianos y de bajo riesgo. En lugar de que la IA actúe como asistente o haga recomendaciones, más de un tercio de los encuestados preferiría que la IA aplicara automáticamente descuentos al finalizar la compra (36 %) o que un asistente de IA se pusiera en contacto con el servicio al cliente para resolver problemas sin necesidad de intervención (34 %).

Y el interés no se detiene ahí. Incluso en situaciones de mayor riesgo, una parte significativa de la población está dispuesta a dejar que la IA tome las riendas. El 30 % de los encuestados preferiría un sistema de seguridad para el hogar que cerrara automáticamente las puertas y notificara a las autoridades cualquier actividad inusual. Otros se muestran abiertos a que un asistente de IA reserve automáticamente citas médicas (21 %) o a que un avatar de IA participe en reuniones online mientras ellos están ausentes (19 %).


Es posible que estos comportamientos sigan siendo minoritarios, pero su alcance es lo suficientemente amplio como para que sean relevantes. Es importante destacar que el interés va mucho más allá de los usuarios actuales de la IA autónoma. Por ejemplo, más de un tercio de las personas que hoy en día no utilizan la IA confiarían en una IA autónoma para resolver problemas de servicio, lo que ilustra la rapidez con la que una minoría significativa puede convertirse en una nueva expectativa generalizada una vez que la autonomía demuestre ser confiable.

Para los líderes, las primeras señales de cambio ya son visibles, lo que significa que es hora de prestar atención y prepararse para lo que probablemente vendrá después. Quienes no lo hagan correrán el riesgo de verse sorprendidos por cambios que parecerán repentinos, simplemente porque no se han detectado las primeras señales que indican dónde se acepta la autonomía.

El Grupo Lendi, con sede en Australia, ya está respondiendo a este cambio. En 2025, la empresa lanzó Lendi Guardian, un asistente digital para el hogar y los préstamos, impulsado por IA y disponible en todo momento, que supervisa activamente los tipos hipotecarios y las variaciones en el valor neto de la vivienda, rellena automáticamente las solicitudes de refinanciación cuando bajan los tipos y evalúa a los clientes a lo largo del proceso. Al pasar de las recomendaciones a la ejecución, el servicio logró aumentar la participación en la plataforma en un 40 %.

La transición hacia la IA autónoma no se está produciendo al mismo ritmo en todas partes. Si bien en todos los mercados hay pioneros en la adopción de nuevas tecnologías, algunos se encuentran en una etapa más avanzada de ese proceso. En los denominados «mercados pioneros», el uso de la inteligencia artificial es más amplio, más frecuente y está más arraigado en la vida cotidiana, lo que crea las condiciones para que la delegación se produzca antes y a mayor escala. En los mercados pioneros, el 94 % de los encuestados afirma utilizar la IA y casi una cuarta parte ha utilizado la IA autónoma. Estos usuarios no solo están experimentando más, sino que recurren a la IA con mayor frecuencia, en contextos más diversos y con mayor confianza en su papel en la toma de decisiones cotidianas.

Mercados pioneros

Mercados en transición

Mercados rezagados

India

Singapur

Canadá

China

Italia

Suecia

Arabia Saudita

Dinamarca

Finlandia

Emiratos Árabes Unidos

Irlanda

Reino Unido

México

Estados Unidos

Australia

Brasil

Noruega

Nueva Zelanda

RAE de Hong Kong

Alemania

Japón

Corea del Sur

Francia

Lo que distingue a estos mercados es la experiencia. Las personas que participan en los mercados pioneros suelen tener una experiencia práctica con la IA y haber recibido una formación o educación significativa. Se sienten más cómodos compartiendo datos para permitir la personalización, lo que a su vez refuerza su experiencia positiva.


En cambio, los demás países se dividen en dos grandes grupos. En los mercados en transición, el uso y el interés por la IA están aumentando, pero la menor confianza hace que las personas se muestren más cautelosas a la hora de delegar tareas. El entusiasmo está presente, pero aún se encuentra en una fase incipiente. En los mercados rezagados, se observa una mayor reticencia, ya que los usuarios recurren a la IA de forma más selectiva y cuestionan su relevancia.

Estas diferencias ponen de manifiesto distintos niveles de preparación. En los mercados pioneros, los marcos normativos más avanzados, las normas culturales y la preparación organizativa crean condiciones más propicias para que se amplíe la autonomía. Para las empresas internacionales, esto plantea un dilema a la hora de implementar soluciones, ya que un modelo diseñado para un contexto concreto probablemente no funcionará en otro.

Los mercados pioneros ofrecen una visión preliminar de la rapidez con la que puede producirse la adopción de la IA cuando el uso, la confianza y la capacidad avanzan al unísono. Estos mercados y los primeros en adoptar la tecnología no son casos aislados que deban contenerse; son un anticipo de la rapidez con la que pueden cambiar las normas una vez que se consolida la confianza.

Los líderes deben prestar atención a un nuevo riesgo estratégico. No es que la IA autónoma vaya a llegar antes de que las personas estén preparadas, sino que llegará antes de que las organizaciones comprendan hasta dónde están dispuestas a llegar las personas, qué es lo que les da confianza y con qué rapidez pueden cambiar las expectativas.

Primer plano de dos profesionales compartiendo un teléfono inteligente y una computadora portátil, mientras utilizan aplicaciones de asistencia virtual e inteligencia artificial.
2

Capítulo 2

La IA se ha convertido en el asistente personal de todos

La comodidad en el día a día sienta las bases para poder abordar tareas de mayor importancia.

En lo que respecta a la gente común, el mayor avance de la IA no ha sido la inteligencia, sino la comodidad. Al encargarse de pequeñas tareas cotidianas, la IA se ha integrado en nuestras rutinas diarias sin apenas encontrar resistencia. La planificación de rutas, las recomendaciones de películas y la atención al cliente son tareas que la gente espera que la tecnología se encargue de realizar. Se trata de tareas en las que los resultados son fáciles de revisar, corregir o anular, y esa sensación de control es importante.

La encuesta de 2026 muestra que experiencias como estas son los pilares de la confianza. A medida que las personas interactúan con la IA de formas que les resultan útiles y sencillas, sus dudas dan paso a la aceptación. La IA ya no se percibe como algo novedoso o experimental, sino que es simplemente útil.


El crecimiento de la IA no se distribuye de manera uniforme entre todas las actividades, pero la tendencia es clara. En la mayoría de los casos, las personas no buscan la innovación por el simple hecho de innovar. Buscan un servicio más rápido (57 %), precios más bajos (57 %) y productos y servicios que funcionen mejor (42 %). Curiosamente, el deseo de las personas de tomar menos decisiones no es un factor tan motivador (25 %).


En el sector minorista, la inteligencia artificial se utiliza cada vez más para ayudar a los usuarios a expresar sus intenciones, en lugar de a navegar por los filtros. En lugar de buscar por palabras clave o categorías, los usuarios pueden describir lo que desean lograr y dejar que la IA reduzca las opciones.

El año pasado, Nike lanzó la versión beta de NikeAI en su aplicación móvil en los Estados Unidos. La aplicación actualizada permite a los clientes describir lo que desean hacer, como entrenar para una carrera, equipar a un equipo o encontrar productos que se ajusten a sus preferencias específicas. La IA de la aplicación interpreta esa intención para ofrecer la mejor recomendación posible. La experiencia está diseñada para ser sencilla, intuitiva y fácil de personalizar, utilizando modelos de lenguaje grandes (LLM, por sus siglas en inglés) adaptados con los conocimientos específicos de Nike. Al brindar apoyo a los clientes cuando lo necesitan, pero dejando las decisiones finales firmemente en sus manos, la IA asistencial reduce las fricciones, ahorra tiempo y genera confianza sin introducir riesgos.

Estas situaciones pueden parecer de poca importancia, pero revisten una gran importancia estratégica. Las interacciones cotidianas como estas ayudan a las personas a determinar si un sistema les parece confiable, comprensible y acorde con sus necesidades. Además, permiten a las organizaciones obtener información temprana sobre dónde se está generando confianza y dónde puede romperse. Para los líderes, esto significa que pueden utilizar experiencias de IA de apoyo y de menor riesgo como herramienta de diagnóstico. Estos casos revelan qué tareas están dispuestas a delegar las personas, qué garantías esperan y con qué rapidez puede aumentar la confianza una vez que se demuestra el valor.

Los usos relacionados con la salud destacan porque van más allá de la simple comodidad y se adentran en un ámbito de mayor trascendencia. Hoy en día, muchas personas utilizan la inteligencia artificial para describir sus síntomas, preguntar qué les puede pasar o decidir si deben acudir al médico. Aproximadamente 230 millones de personas de todo el mundo formulan preguntas relacionadas con la salud a ChatGPT cada semana1.

Las aplicaciones de evaluación de síntomas basadas en inteligencia artificial, como Buoy Health, permiten a los usuarios describir sus síntomas con sus propias palabras y acceder a información clínica. Buoy ofrece orientación sobre el tipo de atención que los usuarios pueden necesitar. Estas herramientas influyen cada vez más en las decisiones sanitarias en la vida real, incluyendo si las personas acceden a los sistemas de atención médica formal y en qué momento lo hacen.

Lo que llama la atención es la rapidez con la que la IA se está convirtiendo en el primer recurso al que se recurre para resolver dudas sobre salud.

El acceso a este tipo de herramientas ayuda a explicar por qué el 26 % de los encuestados afirma haber pedido a la IA que le diagnosticara síntomas, frente al 19 % del año pasado. El mismo número (26 %) utiliza la inteligencia artificial para buscar información sobre salud sin acudir al médico. «Lo que llama la atención es la rapidez con la que la IA se está convirtiendo en la primera opción a la que se recurre para resolver dudas sobre salud», afirma Kim Dalla Torre, EY Global Health Sector Leader. «A medida que las personas comienzan a confiar en ella para tomar decisiones reales, la necesidad de contar con una IA segura, precisa y fácil de validar cobra una importancia mucho mayor».

Las organizaciones no deben precipitarse hacia la autonomía total, pero sí deben prestar mucha atención a las experiencias que ya están definiendo las expectativas. Son estos momentos los que determinarán hasta dónde y a qué ritmo están dispuestas a llegar las personas.

High angle view of worried male tech expert sitting at desk with colleague at office
3

Capítulo 3

Por qué la confianza va a la zaga de las capacidades de la IA

El uso de la inteligencia artificial avanza a pasos agigantados, por delante de la confianza de la gente en cómo se regula, se controla y se rinde cuentas al respecto.

A medida que la inteligencia artificial se integra cada vez más en la vida cotidiana y, en algunos casos, comienza a actuar de forma autónoma, la confianza no ha avanzado al mismo ritmo que sus capacidades. La gente sigue preocupada —incluso en los mercados pioneros— por la seguridad, el control, la rendición de cuentas y la autenticidad. Sin embargo, curiosamente, estas preocupaciones no están frenando su adopción. Están definiendo la forma en que la gente desea que se materialice la autonomía, una distinción fundamental para los líderes que se enfrentan a la siguiente fase de la adopción de la IA.

La seguridad es el mayor temor de las personas. Dos tercios temen que los sistemas de IA sean objeto de ataques informáticos o sufran filtraciones, y menos de la mitad confía en que los gobiernos o las empresas protejan los datos personales que utilizan sus sistemas de IA. A medida que aumenta la autonomía, esta inquietud deja de ser una simple preocupación de fondo. Cuanto más puede hacer la IA, más importancia cobra la seguridad. Los líderes deben considerar qué podría suceder si los sistemas se vieran comprometidos y con qué rapidez podría agravarse el daño.

Otra de las principales preocupaciones de la gente es el control. Les preocupa que las decisiones tomadas por la IA no reflejen sus valores o prioridades personales; siete de cada diez coinciden en que la supervisión humana sigue siendo esencial. Esto no supone un rechazo a la IA, sino una petición de autonomía y de la capacidad de comprender lo que hace el sistema, intervenir cuando sea necesario y optar por no participar cuando haya mucho en juego.

Rendición de cuentas
55 %
se preocupa por que las organizaciones no cumplan con sus propias políticas de IA o con las regulaciones gubernamentales pertinentes.

Seis de cada diez personas temen que las organizaciones no rindan cuentas por el uso de la inteligencia artificial que genere consecuencias negativas. Casi el mismo número (55 %) teme que las organizaciones no cumplan con sus propias políticas de IA o con las regulaciones gubernamentales pertinentes.

Algunas organizaciones están respondiendo haciendo más explícitos sus compromisos en materia de IA. Por ejemplo, Tokio Marine Holdings, una multinacional del sector de los seguros, adoptó una política pública sobre IA como parte de su estrategia para utilizar esta tecnología en la tramitación de reclamaciones, la detección de fraudes y otras actividades de atención al cliente, con el fin de ganarse la confianza en el sector de los seguros, que está sometido a una estricta regulación. Publicada en 2025, la política establece que la empresa no utilizará datos ni técnicas de inteligencia artificial que puedan generar sesgos contra ningún grupo, y que las funciones y decisiones basadas en la inteligencia artificial siempre mantendrán a las personas informadas. Además, se establece que la empresa impedirá el uso de la inteligencia artificial que viole los derechos humanos, difunda información falsa o sesgada, o que dé lugar a filtraciones, falsificaciones o al uso no autorizado de información personal.

Una abrumadora mayoría de los encuestados está de acuerdo en que los resultados generados por la IA deben indicar claramente cuándo algo ha sido creado o influenciado por la IA. Casi tres cuartas partes temen que, a medida que la IA generativa (GenAI) se generalice, ya no sean capaces de distinguir entre lo que es real y lo que es falso.

«La difuminación de la realidad es uno de los riesgos de la IA más subestimados», afirma Katherine Boiciuc, EY Chief Technology and Innovation Officer para la región de Oceanía. «Cuando las personas no pueden distinguir fácilmente qué es real, qué es generado o quién está detrás de una decisión, se genera una ansiedad latente que socava la confianza, incluso cuando la tecnología en sí misma funciona según lo previsto».

Los encuestados también desean que las herramientas de IA incluyan controles parentales y límites de edad, y consideran que los países y las regiones deberían contar con normas más estrictas que regulen su uso en el ámbito empresarial. En los tres tipos de mercado —pionero, en transición y rezagado— la gente considera que deberían adoptarse más medidas de protección.


«Lo que me sorprende no es que la gente quiera mayores garantías en materia de IA, sino lo generalizada que está esa expectativa en todos los mercados», afirma Sarah Liang, EY Global Responsible AI Leader. «Independientemente del lugar donde vivan las personas o del grado de avance en la adopción de la IA, estas reclaman normas más claras, una mayor rendición de cuentas y medidas de protección visibles».

Las capacidades de la IA avanzan a un ritmo vertiginoso, mientras que las estructuras de gobernanza y rendición de cuentas tienen evidentes dificultades para seguirles el paso. A medida que las personas delegan cada vez más las decisiones en la inteligencia artificial en su vida cotidiana, la supervisión a través de políticas, regulaciones y controles organizativos evoluciona a un ritmo más lento. Por lo tanto, las organizaciones deben hacer que sus compromisos sean tangibles mediante la creación de sistemas que resulten comprensibles, controlables y acordes con las necesidades humanas. La confianza no puede basarse únicamente en principios; debe reflejarse en la experiencia de uso de la IA.

Lo que me sorprende no es que la gente quiera mayores medidas de protección en materia de IA, sino lo generalizada que está esa expectativa en todos los mercados.

El diseño centrado en las personas se ha convertido en uno de los mecanismos más eficaces, aunque poco utilizados, de que disponen las organizaciones para reducir la brecha de confianza.

Un desarrollador de software presenta el diagrama de arquitectura de la aplicación móvil en la pantalla grande ante el equipo de desarrolladores en la sala de reuniones.
4

Capítulo 4

Diseñar una IA en la que la gente confíe

Cuantas más responsabilidades asuma la IA, más dependerá la confianza que la gente deposite en ella de cómo se comporte en los momentos decisivos.

A medida que los sistemas de IA se vuelven más avanzados, queda claro que la confianza no se genera únicamente a través de políticas, principios o garantías técnicas. Se construye, o se pierde, a través de la experiencia. Lo que las personas ven, comprenden y sienten al utilizar la IA para tomar decisiones o influir en ellas determina cada vez más su disposición a volver a probarla.

En este sentido, el diseño se está convirtiendo en la primera línea de la gobernanza de la IA. Es el lugar donde las personas reales disfrutan de garantías, rendición de cuentas y control. Un diseño bien pensado se convierte en el nexo entre funcionalidad y comodidad. Cuando está bien diseñada, la IA ofrece tranquilidad y claridad. Cuando el diseño es deficiente, se consigue el efecto contrario.

«Las experiencias que inspiran mayor confianza amplían la autonomía de forma gradual», explica Peter Neufeld, EY Studio+ EMEIA Financial Services Digital Customer Experience Leader, «ofreciendo primero confianza a los usuarios y ampliando después las funciones que el sistema puede realizar. Diseñar pensando en la comodidad es una cuestión de equilibrio: las personas no se resisten a la autonomía, sino a perder el control».

El informe Human Signals de EY (pdf) analiza las características clave de las experiencias exitosas con la IA:

  • Apoyo emocional: las personas que buscan ayuda se preocupan más por la emoción o la complejidad del momento que por el producto que están utilizando.
  • Simplicidad: un buen diseño reduce la carga cognitiva al hacer que la experiencia sea lo más fluida posible, desglosando las tareas complejas y aclarando los pasos siguientes.
  • Justificaciones y trazabilidad: el diseño optimizado incluye resúmenes, transcripciones y registros para que los usuarios tengan la sensación de tener el control de la interacción y para reducir los malentendidos.
  • Ajuste: permite a los usuarios controlar el grado de «calidez» o «neutralidad» que desean que tenga una herramienta de IA. En caso necesario, permite interactuar de inmediato con una persona en lugar de con un bot.
  • Inclusividad y accesibilidad: cuenta con interfaces conversacionales que se adaptan a personas con distintos niveles de alfabetización, idioma o accesibilidad.
  • Limitaciones visibles: la confianza se genera al mostrar claramente lo que el sistema no hará y al permitir que los usuarios controlen esos límites. La auditabilidad, la anulación y la escalación a personal humano no constituyen un plan de contingencia, sino una característica fundamental de la rendición de cuentas.

Un informe reciente de EY sobre la creación de experiencias fiables basadas en la inteligencia artificial (pdf) destaca hasta qué punto el diseño puede depender del lenguaje, el ritmo y la claridad. En el informe, Miki Van Cleave, directora de Diseño de Chase, la división de banca minorista y comunitaria de JPMorganChase, destaca el esmerado cuidado que se debe poner en el diseño de las interacciones impulsadas por la inteligencia artificial. «Estamos aquí para generar confianza y partir de una base de comprensión de la mentalidad del consumidor», afirma Van Cleave. «Dedicamos una cantidad desmesurada de tiempo a pensar en el lenguaje que los clientes necesitan escuchar para que tengan muy claro lo que están haciendo. Por ejemplo, en lo que respecta a la detección de fraudes, dedicamos horas, días y semanas a analizar minuciosamente cada sustantivo, verbo y adjetivo de una página intersticial para asegurarnos de que ayude a los clientes a saber qué hacer».

 

La necesidad de claridad no es meramente superficial. Determina si las personas se sienten en control, especialmente en contextos de alto riesgo, como el financiero.

 

Los líderes no decidirán si la IA se vuelve más autónoma. Esa trayectoria ya está en marcha. Lo que sí pueden decidir es con qué grado de deliberación se introduce esa autonomía: dónde se limita, dónde se amplía y cómo se va generando confianza a lo largo del proceso.

 

Las organizaciones más exitosas no serán aquellas que se apresuren a implementar la IA en todos los ámbitos, ni aquellas que adopten una actitud de esperar y ver qué sucede. Utilizarán el diseño para marcar un ritmo deliberado: acelerarán allí donde ya existan la confianza y el valor, y reducirán el ritmo allí donde aún se requieran claridad, garantías o seguridad.

Diverse group of business professionals listening attentively as a businesswoman leads a discussion on artificial intelligence design at a modern conference
5

Capítulo 5

Implicaciones para los líderes empresariales

Marcando el ritmo de la autonomía

El futuro de la IA no no está tomando forma a través de debates abstractos ni de pronósticos a largo plazo. Se va definiendo a través de las decisiones cotidianas: cuándo, dónde y cómo las personas deciden permitir que la IA actúe en su nombre.

Los resultados de la encuesta de este año dejan una cosa clara: la adopción de la IA avanza más rápido que la percepción al respecto. Una minoría cada vez mayor de personas ya está delegando decisiones en la IA, mientras que muchas más están ganando confianza a través de usos cotidianos y de bajo riesgo. En algunos mercados, esta evolución ya está muy avanzada, lo que permite vislumbrar con antelación la rapidez con la que pueden cambiar las expectativas una vez que la familiaridad y el valor coinciden.

Para los líderes empresariales, la dinámica actual del mercado supone tanto una oportunidad como una responsabilidad.

La clave está en reconocer que la autonomía no se alcanza de un solo golpe. Se está expandiendo a través de momentos, usuarios y mercados concretos, a menudo más rápido de lo que las organizaciones esperan, pero no sin seguir un patrón o enviar señales. La clave está en interpretar esas señales a tiempo, identificar los aspectos en los que ya se está generando confianza y actuar de manera deliberada, en lugar de reaccionar de forma impulsiva.

Es fundamental señalar que no se trata de una elección entre la rapidez y la prudencia. Los datos muestran que las personas no esperan a tener una confianza total antes de dar el paso. Están negociando la confianza en constante evolución: siguen utilizando la IA y, en algunos casos, delegando tareas en ella, al tiempo que exigen garantías más claras, una mayor rendición de cuentas y una mayor transparencia.

Esto ha colocado a los líderes en una nueva situación. La cuestión ya no es si la IA autónoma se generalizará. La cuestión es si las organizaciones impulsarán la expansión de manera intencionada, acelerando el proceso allí donde ya existen la confianza y el valor, y ralentizándolo allí donde aún se requiera claridad, garantías o seguridad.

¿Qué deben hacer ahora los líderes?

  • Liderar con experiencia, no con promesas: generar confianza a través de la práctica. Priorizar las aplicaciones de IA que aporten un valor claro y cotidiano, y que permitan a las personas revisar, anular o excluirse de ellas a medida que aumenta la confianza.
  • Segmentar en función del grado de preparación para la IA, no de los datos demográficos: las personas y los mercados avanzan a ritmos diferentes. Diseñar experiencias, mensajes y controles que se adapten a las necesidades de los usuarios tal como son, en lugar de dar por sentado que existe una única vía para la adopción.
  • Hacer visible la confianza: ofrecer información clara, una sólida protección de datos, opciones que mantengan la intervención humana y una rendición de cuentas transparente ya no es un factor diferenciador. Es un requisito indispensable a medida que aumenta la autonomía.
  • Diseñar para el contexto emocional: A medida que la IA asume tareas de mayor importancia, un diseño que tenga en cuenta la empatía, la simplicidad y el ritmo es tan importante como el rendimiento. El diseño no es un simple toque final; es un catalizador estratégico para generar confianza y fomentar la adopción.

Los líderes tienen una opción. Pueden permitir que la delegación se expanda de forma predeterminada, impulsada por factores externos y los primeros usuarios. O bien pueden diseñarlo de manera deliberada, con limitaciones visibles, una responsabilidad clara y la confianza incorporada desde el principio.

Quienes decidan actuar de forma deliberada no se limitarán a seguir el ritmo de los cambios. Obtendrán una capacidad duradera para liderar en un mundo cada vez más autónomo.

Los autores desean expresar su agradecimiento a Katherine Boiciuc, Oceania Chief Technology and Innovation Officer, Ernst & Young Australia; a Krista Walpole, Associate Director, EYGS LLP; a AnnMarie Pino, Associate Director, Ernst & Young LLP; a Gaurav Batra, Associate Director, Ernst & Young LLP; y a Harshil Milan Zatakia, asociado supervisor de Ernst & Young LLP, por sus contribuciones a este artículo.


Resumen

El comportamiento cotidiano demuestra que la adopción de la IA avanza más rápido que la confianza del público. Aunque la gente suele expresar su preocupación por cuestiones de confianza y control, sigue incorporando la IA a sus decisiones cotidianas y, poco a poco, recurre a ella para tareas de mayor importancia. Los usos cotidianos y sencillos están normalizando la presencia de la IA y sentando las bases para una mayor delegación. Como resultado, la capacidad de tomar decisiones está empezando a pasar de las personas a los sistemas, a menudo antes de que las organizaciones hayan comprendido del todo dónde se está generando la aceptación o con qué rapidez están cambiando las expectativas. 

Artículos relacionados

Megatendencias 2026 y más allá

El marco «Futuros reimaginados» de EY ayuda a los líderes a navegar por las megatendencias de la era NAVI para lograr resiliencia y crecimiento. Descubre cómo.

¿Cómo puede la IA responsable salvar la brecha entre la inversión y el impacto?

Explora las formas en que la IA responsable convierte la inversión en un impacto significativo.

    Acerca de este artículo

    Autores