Diabetic girl with a CGM sensor on her arm. Father using an app to monitor blood sugar levels.
Diabetic girl with a CGM sensor on her arm. Father using an app to monitor blood sugar levels.

À medida que a IA passa de conselho a autoridade, quem define seus limites?

A EY Global AI Sentiment Survey revela que a adoção está sendo moldada pelo que as pessoas fazem, não pelo que dizem.

Em resumo

  • As pessoas dizem que não confiam na IA, mas suas escolhas diárias mostram que estão usando-a de qualquer maneira.
  • A IA autônoma não é mais teórica: 16% das pessoas usaram IA que age em seu nome somente nos últimos seis meses.
  • O uso da IA está passando da assistência de baixo risco para decisões de maior risco, incluindo saúde, finanças e transporte.

Quando as pessoas falam sobre inteligência artificial (IA) de forma abstrata, elas tendem a se concentrar no que temem. Mas quando perguntamos como eles realmente a utilizam, surge um quadro diferente. Na vida cotidiana, as pessoas incorporaram a IA à forma como planejam, decidem e agem, ajudando a mapear rotas, responder a perguntas ou resolver problemas.

No limite dessa imagem, outra mudança importante está ocorrendo. Um número crescente de pessoas não está mais apenas pedindo conselhos; elas estão começando a deixar a IA agir em seu nome. A autoridade de tomada de decisão está migrando dos seres humanos para os sistemas, e o que começou como uma assistência de baixo risco agora está evoluindo para algo muito mais consequente.

Essa mudança da IA assistiva para a IA autônoma não é um cenário futuro distante. Ele já está em andamento e se desenvolve mais rapidamente do que a maioria das organizações imagina.

Apesar de o discurso público em torno da IA permanecer focado em confiança, responsabilidade e autenticidade, o segundo estudo anual EY AI Sentiment Study, baseado em insights de mais de 18.000 pessoas em 23 mercados, mostra que a adoção da IA está se acelerando rapidamente, bem à frente da confiança. 

A experiência sugere que mudanças como essa raramente acontecem de forma gradual. Quando os primeiros usuários começam a experimentar, eles geralmente redefinem o que parece normal. O que antes parecia radical pode se tornar rotina quase da noite para o dia.

Para os líderes, a implicação dessa mudança é clara. A questão não é mais se as pessoas aceitarão a IA autônoma. O que importa é a rapidez com que essa aceitação se espalhará, quais usuários e mercados serão os primeiros a mudar e se as organizações estarão preparadas para atendê-los.

Como diz a CEO global da EY, Janet Truncale: "À medida que a IA se torna mais capaz de tomar decisões em nosso nome, a confiança não é uma vantagem 'aparafusada', é uma necessidade 'incorporada'. Quando a IA é projetada com proteções claras e supervisão contínua, as organizações podem expandir a autonomia com confiança."

Este relatório explora como as escolhas diárias estão acelerando a mudança da assistência para a autonomia e o que os líderes empresariais devem fazer agora para identificar como criar confiança, onde os limites podem ser ultrapassados e onde estabelecer um ritmo deliberado em um mundo que pode se tornar autônomo mais rápido do que o esperado.

Táxi não tripulado em Abu Dhabi, Emirados Árabes Unidos
1

Capítulo 1

Uma minoria significativa já está deixando a IA decidir

As pessoas estão permitindo que a IA atue em seu nome – uma mudança grande demais para ser ignorada pelas empresas.

A IA autônoma não é mais teórica. Somente nos últimos seis meses, 16% das pessoas em todo o mundo afirmam já ter usado sistemas de IA que agem em seu nome, sem intervenção humana. E essa delegação está aparecendo nas decisões cotidianas. Dez por cento das pessoas afirmam usar agentes de IA para comprar produtos em seu nome. Onze por cento permitem que a IA encha automaticamente carrinhos de compras e faça compras. Outros 11% permitem que a IA gerencie suas finanças e realize tarefas bancárias sem intervenção. E 9% já usaram um veículo ou táxi autônomo. 

O que começou como IA que aconselha está se tornando IA que age.

Para aqueles que ainda não usaram a IA de forma autônoma, a abertura para isso é claramente visível. Quando solicitadas a pensar em possíveis cenários futuros, a preferência das pessoas por uma IA que atue por elas é mais forte em momentos familiares e de baixo risco. Em vez de a IA atuar como assistente ou fazer recomendações, mais de um terço dos entrevistados prefere que a IA aplique automaticamente descontos no checkout (36%) ou que um assistente de IA entre em contato com o atendimento ao cliente para resolver problemas sem intervenção (34%).

E o interesse não para por aí. Mesmo em situações de maior risco, uma parcela significativa das pessoas está disposta a deixar a IA assumir a liderança. Trinta por cento dos entrevistados preferem um sistema de segurança residencial que tranque automaticamente as portas e notifique as autoridades sobre atividades incomuns. Outros estão abertos a um assistente de IA que marque automaticamente consultas médicas (21%) ou que tenha um avatar de IA para participar de reuniões on-line enquanto você estiver ausente (19%).


Esses comportamentos ainda podem representar uma minoria, mas são grandes o suficiente para serem importantes. É importante ressaltar que o interesse vai muito além dos usuários atuais da IA autônoma. Por exemplo, mais de um terço das pessoas que não usam IA hoje confiariam na IA autônoma para resolver problemas de serviço, exemplificando a rapidez com que uma minoria significativa pode se transformar em uma nova expectativa dominante quando a autonomia se mostrar confiável.

Para os líderes, os primeiros sinais de mudança já são visíveis, o que significa que é hora de prestar atenção e se preparar para o que provavelmente virá a seguir. Aqueles que não o fizerem correrão o risco de serem surpreendidos por mudanças que parecem repentinas, apenas porque os primeiros sinais sobre onde a autonomia é aceita foram perdidos.

O Lendi Group, com sede na Austrália, já está respondendo a essa mudança. Em 2025, a empresa lançou o Lendi Guardian, um companheiro digital de empréstimos e residências sempre ativo , alimentado por IA, que monitora ativamente as taxas de hipoteca e as mudanças no patrimônio líquido, preenche automaticamente os pedidos de refinanciamento quando as taxas caem e avalia os clientes ao longo do caminho. Ao passar da recomendação para a execução, o serviço aumentou o envolvimento da plataforma em 40%.

A mudança para a IA autônoma não está acontecendo na mesma velocidade em todos os lugares. Embora os primeiros usuários apareçam em todos os mercados, alguns estão mais adiantados na jornada. Naqueles que chamamos de Mercados Pioneiros, o uso da IA é mais amplo, mais frequente e mais profundamente incorporado à vida cotidiana, criando as condições para que a delegação ocorra mais cedo e em maior escala. Nos Mercados Pioneiros, 94% das pessoas relatam usar IA e quase um quarto já usou IA autônoma. Esses usuários não estão apenas experimentando mais, eles estão confiando na IA com mais frequência, em contextos maiores e com mais confiança em seu papel na tomada de decisões diárias.

Mercados Pioneiros

Mercados em transição

Mercados em defasagem

Índia

Cingapura

Canadá

China

Itália

Suécia

KSA

Dinamarca

Finlândia

EMIRADOS ÁRABES UNIDOS

Irlanda

UK

México

Estados Unidos da América

Austrália

Brasil

Noruega

Nova Zelândia

RAE de Hong Kong

Alemanha

Japão

Coréia do Sul

França

O que diferencia esses mercados é a experiência. As pessoas nos Pioneer Markets têm maior probabilidade de ter familiaridade prática com IA e de ter recebido treinamento ou educação significativa. Eles se sentem mais à vontade para compartilhar dados para permitir a personalização, o que, por sua vez, reforça sua experiência mais positiva.


Por outro lado, outros países se enquadram em dois grandes grupos. Nos mercados em transição, o uso e o interesse pela IA estão crescendo, mas a baixa confiança faz com que as pessoas sejam mais cautelosas ao delegar tarefas. O entusiasmo existe, mas ainda está surgindo. Nos mercados em atraso, há uma hesitação maior, com as pessoas usando a IA de forma mais seletiva e questionando sua relevância.

Essas diferenças apontam para níveis variados de prontidão. Nos Mercados Pioneiros, estruturas regulatórias mais avançadas, normas culturais e prontidão organizacional criam condições mais fortes para a expansão da autonomia. Para empresas globais, isso cria um dilema de implementação, pois um único modelo projetado para um contexto provavelmente falhará em outro.

Os Mercados Pioneiros oferecem uma visão antecipada da rapidez com que a adoção da IA pode ocorrer quando o uso, a confiança e a capacidade avançam juntos. Esses mercados e os primeiros usuários não são casos extremos a serem contidos; eles são uma prévia da rapidez com que as normas podem se mover quando a confiança se instala.

Os líderes devem prestar atenção a um novo risco estratégico. Não que a IA autônoma chegará antes que as pessoas estejam prontas, mas que chegará antes que as organizações entendam até onde as pessoas estão dispostas a ir, o que lhes dá confiança e a rapidez com que as expectativas podem mudar.

Close de dois empresários compartilhando um smartphone e um laptop, usando assistência virtual e aplicativos de IA.
2

Capítulo 2

A IA se tornou o assistente pessoal de todos

O conforto cotidiano estabelece a base para a assistência em tarefas de maior importância.

Quando se trata de pessoas comuns, o maior avanço da IA não foi a inteligência, mas a conveniência. Ao cuidar de tarefas pequenas e cotidianas, a IA entrou nas rotinas diárias com pouca resistência. O planejamento de rotas, as sugestões de filmes e o suporte ao cliente são atividades que as pessoas esperam que a tecnologia resolva. Essas são tarefas em que os resultados são fáceis de revisar, corrigir ou anular, e esse senso de controle é importante.

A pesquisa de 2026 mostra que experiências como essas são os alicerces da confiança. À medida que as pessoas interagem com a IA de maneiras que parecem úteis e de baixo esforço, sua hesitação dá lugar à aceitação. A IA não parece mais algo novo ou experimental, ela é simplesmente útil.


O crescimento da IA não está distribuído igualmente em todas as atividades, mas a direção da viagem é clara. Na maioria dos casos, as pessoas não estão buscando a inovação por si só. Eles estão buscando um serviço mais rápido (57%), preços mais baixos (57%) e produtos e serviços que funcionem melhor (42%). É interessante notar que o desejo das pessoas de tomar menos decisões não é um fator tão motivador (25%).


No varejo, a IA está sendo cada vez mais usada para ajudar as pessoas a articular a intenção em vez de navegar pelos filtros. Em vez de pesquisar por palavras-chave ou categorias, as pessoas podem descrever o que estão tentando alcançar e deixar a IA restringir o campo.

No ano passado, a Nike lançou a versão beta da NikeAI em seu aplicativo móvel nos EUA. O aplicativo atualizado permite que os clientes descrevam o que desejam fazer, como treinar para uma corrida, equipar uma equipe ou encontrar produtos que atendam a preferências específicas. A IA no aplicativo interpreta essa intenção para fazer a melhor recomendação possível. A experiência foi projetada para ser simples, intuitiva e fácil de substituir, usando grandes modelos de linguagem (LLMs) personalizados com o conhecimento de domínio da Nike. Ao oferecer suporte aos clientes quando eles precisam, mas deixando as decisões finais firmemente em suas mãos, a IA assistiva reduz o atrito, economiza tempo e aumenta a confiança sem introduzir riscos.

Essas situações podem parecer de baixo risco, mas são estrategicamente importantes. Interações cotidianas como essas ajudam as pessoas a saber se um sistema parece confiável, compreensível e alinhado com suas necessidades. Eles também permitem que as organizações obtenham insights antecipados sobre onde a confiança está se fortalecendo e onde ela pode se deteriorar. Para os líderes, isso significa que eles podem usar experiências de IA assistida e de menor importância como uma ferramenta de diagnóstico. Os casos revelam quais tarefas as pessoas estão dispostas a entregar, quais proteções elas esperam e com que rapidez o conforto pode aumentar quando o valor é comprovado.

Os usos relacionados à saúde se destacam porque começam a ir além da conveniência e entram em um território mais consequente. Atualmente, muitas pessoas usam a IA para descrever sintomas, perguntar o que pode estar errado ou decidir se devem procurar atendimento médico. Cerca de 230 milhões de pessoas fazem perguntas relacionadas à saúde no ChatGPT a cada semana em todo o mundo.1

Aplicativos de avaliação de sintomas com tecnologia de IA, como o Buoy Health, permitem que os usuários descrevam os sintomas com suas próprias palavras e obtenham insights clínicos. O Buoy oferece orientação sobre o tipo de atendimento que os usuários podem precisar. Essas ferramentas estão moldando cada vez mais as decisões de saúde do mundo real, inclusive se e quando as pessoas entram nas vias formais de atendimento.

O que chama a atenção é a rapidez com que a IA está se tornando a primeira parada para questões de saúde.

O acesso a esses tipos de ferramentas ajuda a explicar por que 26% dos participantes da pesquisa relatam que pediram à IA para diagnosticar sintomas, em comparação com 19% no ano passado. O mesmo número (26%) usa IA para procurar informações sobre saúde sem consultar um médico. "O que é impressionante é a rapidez com que a IA está se tornando uma primeira parada para questões de saúde", diz Kim Dalla Torre, Líder do Setor de Saúde Global da EY. "À medida que as pessoas começam a contar com ela para orientar decisões reais, a necessidade de uma IA segura, precisa e facilmente validada se torna muito mais importante."

As organizações não devem se apressar em direção à autonomia total, mas devem prestar muita atenção às experiências que já estão moldando as expectativas. São esses momentos que determinarão até onde e quão rápido as pessoas estão dispostas a ir.

High angle view of worried male tech expert sitting at desk with colleague at office
3

Capítulo 3

Por que a confiança está ficando para trás em relação à capacidade de IA

O uso da IA está correndo à frente da confiança das pessoas em como ela é governada, controlada e contabilizada.

À medida que a IA se torna mais integrada à vida cotidiana e, em alguns casos, começa a agir de forma autônoma, a confiança não acompanha o ritmo da capacidade. As pessoas continuam preocupadas — mesmo nos mercados pioneiros — com a segurança, o controle, a responsabilidade e a autenticidade. Mas, curiosamente, essas preocupações não estão retardando a adoção. Eles estão moldando a maneira como as pessoas querem que a autonomia apareça — uma distinção fundamental para os líderes que navegam na próxima fase da adoção da IA.

A segurança é o maior medo das pessoas. Dois terços se preocupam com a possibilidade de os sistemas de IA serem hackeados ou violados, e menos da metade confia que os governos ou as empresas protejam os dados pessoais usados por seus sistemas de IA. À medida que a autonomia aumenta, essa preocupação se torna mais do que apenas uma preocupação de fundo. Quanto mais a IA pode fazer, mais a segurança entra em foco. Os líderes devem considerar o que poderia acontecer se os sistemas fossem comprometidos e a rapidez com que esse dano poderia ser dimensionado.

A outra grande preocupação das pessoas é o controle. Eles temem que as decisões tomadas pela IA não reflitam seus valores ou prioridades pessoais; sete em cada dez concordam que a supervisão humana continua sendo essencial. Não se trata de uma rejeição da IA, mas de uma solicitação de agência e da capacidade de entender o que o sistema está fazendo, intervir quando for importante e optar por sair quando as apostas aumentarem.

Prestação de contas
55%
Preocupação de que as organizações não consigam cumprir suas próprias políticas de IA ou as regulamentações governamentais relevantes.

Seis em cada 10 pessoas se preocupam com o fato de as organizações não conseguirem se responsabilizar pelo uso da IA que leva a consequências negativas. Quase a mesma quantidade (55%) teme que as organizações não consigam cumprir suas próprias políticas de IA ou as regulamentações governamentais relevantes.

Algumas organizações estão respondendo tornando seus compromissos de IA mais explícitos. Por exemplo, a Tokio Marine Holdings, uma multinacional de seguros, adotou uma política pública de IA como parte do uso da IA para processamento de sinistros, detecção de fraudes e outras atividades de atendimento ao cliente, para ganhar confiança no setor de seguros altamente regulamentado. Lançada em 2025, a política afirma que a empresa não dependerá de dados ou técnicas de IA que possam introduzir preconceitos contra qualquer grupo, e que as funções e decisões baseadas em IA sempre manterão as pessoas informadas. Além disso, afirma que a empresa impedirá o uso de IA que viole os direitos humanos, distribua informações falsas ou tendenciosas ou leve a vazamentos, falsificações ou uso não autorizado de informações pessoais.

A esmagadora maioria dos entrevistados concorda que os resultados da IA devem mostrar claramente quando algo é criado ou influenciado pela IA. Quase três quartos se preocupam com o fato de que, à medida que a IA generativa (GenAI) se tornar mais difundida, eles não conseguirão mais distinguir o que é real ou falso.

"O embaçamento da realidade é um dos riscos de IA mais subestimados", diz Katherine Boiciuc, Diretora de Tecnologia e Inovação da EY para a região da Oceania. "Quando as pessoas não conseguem distinguir facilmente o que é real, o que é gerado ou quem está por trás de uma decisão, isso cria uma ansiedade de baixo grau que corrói a confiança, mesmo quando a tecnologia em si está funcionando como pretendido."

Os entrevistados também querem que as ferramentas de IA incluam controles parentais e limites de idade e acreditam que os países e as regiões devem ter regras mais rígidas que regulem o uso organizacional. Em todos os três tipos de mercado — Pioneiro, Transitório e Retardatário — as pessoas acreditam que mais salvaguardas devem ser adotadas.


"O que me surpreende não é o fato de as pessoas quererem salvaguardas de IA mais fortes — é o quão consistente é essa expectativa em todos os mercados", diz Sarah Liang, Líder Global de IA Responsável da EY. "Independentemente de onde as pessoas moram ou do grau de avanço da adoção da IA, elas estão pedindo regras mais claras, maior responsabilidade e proteções visíveis."

A capacidade de IA está avançando rapidamente, enquanto as estruturas de governança e responsabilidade estão claramente lutando para acompanhar o ritmo. Como as pessoas delegam cada vez mais decisões à IA por meio do uso diário, a supervisão por meio de políticas, regulamentações e controle organizacional está evoluindo mais lentamente. Portanto, as organizações devem tornar suas promessas tangíveis, criando sistemas que pareçam compreensíveis, controláveis e alinhados com as necessidades humanas. A confiança não pode estar apenas nos princípios, ela precisa aparecer na experiência de uso da IA.

O que me surpreende não é o fato de as pessoas quererem salvaguardas de IA mais fortes — é a consistência dessa expectativa nos mercados.

O design centrado no ser humano se tornou um dos mecanismos mais poderosos, porém pouco utilizados, que as organizações têm para fechar a lacuna de confiança.

Desenvolvedor de software do sexo masculino apresentando o Diagrama de Arquitetura de Aplicativo Móvel na tela grande para a equipe de desenvolvedores na sala de reuniões.
4

Capítulo 4

Projetando uma IA em que as pessoas confiem

Quanto mais responsabilidade a IA assumir, mais a confiança das pessoas nela será moldada pela forma como ela se comporta nos momentos importantes.

À medida que os sistemas de IA se tornam mais avançados, fica claro que a construção da confiança não se dá apenas por meio de políticas, princípios ou garantias técnicas. Ela é construída ou perdida por meio da experiência. O que as pessoas veem, entendem e sentem quando usam a IA para tomar ou influenciar decisões determina cada vez mais se elas estão dispostas a tentar novamente.

Nesse sentido, o design está se tornando a linha de frente da governança de IA. É onde as pessoas reais experimentam as salvaguardas, a responsabilidade e o controle. O design cuidadoso torna-se a ponte entre a capacidade e o conforto. Quando bem projetada, a IA oferece segurança e clareza. Quando mal projetado, ele faz o oposto.

"As experiências mais confiáveis expandem a autonomia gradualmente", explica Peter Neufeld, Líder de Experiência Digital do Cliente de Serviços Financeiros do EY Studio+ EMEIA, "dando confiança aos usuários primeiro e depois expandindo o que o sistema pode fazer. Projetar para o conforto é uma questão de ritmo — as pessoas não resistem à autonomia, elas resistem a perder o controle."

O relatório EY Human Signals (pdf) explora os principais atributos das experiências de IA bem-sucedidas:

  • Suporte emocional: As pessoas que procuram ajuda se preocupam mais com a emoção ou a complexidade do momento do que com o produto que estão usando.
  • Simplicidade: Um bom design reduz a carga cognitiva ao tornar uma experiência o mais simples possível, dividindo tarefas complexas e esclarecendo as próximas etapas.
  • Prova e rastreabilidade: O design superior incorpora resumos, transcrições e registros para que as pessoas sintam que estão no controle da interação e para reduzir erros de interpretação.
  • Ajuste: Ele dá às pessoas o controle que desejam sobre a sensação de "calor" ou "neutralidade" de uma ferramenta de IA. Se necessário, ele fornece acesso instantâneo para interagir com um ser humano em vez de um bot.
  • Inclusão e acessibilidade: Ele tem interfaces de conversação que dão suporte a pessoas com diferentes níveis de alfabetização, linguagem ou acessibilidade.
  • Restrições visíveis: A confiança vem de mostrar claramente o que o sistema não fará e dar aos usuários controle sobre esses limites. A capacidade de auditoria, a substituição e o escalonamento humano não são um plano de backup, mas um recurso essencial da responsabilidade.

Um relatório recente da EY sobre a criação de experiências confiáveis baseadas em IA (pdf) destaca o quanto o design pode se resumir à linguagem, ao ritmo e à clareza. No relatório, Miki Van Cleave, Chief Design Officer do Chase, o banco comunitário e de consumo do JPMorganChase, enfatiza a quantidade de cuidado que deve ser tomado para moldar as interações orientadas por IA. "Estamos aqui para criar confiança e partir de um ponto de vista de compreensão da mentalidade do consumidor", diz Van Cleave. "Passamos um tempo excessivo pensando na linguagem que os clientes precisam ouvir para que eles saibam claramente o que estão fazendo. Por exemplo, com a detecção de fraudes, passaremos horas, dias e semanas dissecando cada substantivo, verbo e adjetivo em uma página intersticial para garantir que ela ajude os clientes a saber o que fazer."

 

A necessidade de clareza não é cosmética. Ela determina se as pessoas se sentem no controle, principalmente em contextos de alto risco, como o financeiro.

 

Os líderes não decidirão se a IA se tornará mais autônoma. Essa trajetória já está em andamento. O que eles podem decidir é como essa autonomia é introduzida deliberadamente — onde ela é restringida, onde é expandida e como a confiança é construída ao longo do caminho.

 

As organizações mais bem-sucedidas não serão aquelas que se moverem mais rapidamente para introduzir a IA em todos os lugares ou aquelas que adotarem uma abordagem de esperar para ver. Eles usarão o design para definir um ritmo deliberado — para acelerar onde já houver confiança e valor, e desacelerar onde ainda houver necessidade de clareza, salvaguardas ou confiança.

Diverse group of business professionals listening attentively as a businesswoman leads a discussion on artificial intelligence design at a modern conference
5

Capítulo 5

Ações para líderes de negócios

Estabelecendo o ritmo da autonomia

O futuro da IA não está sendo moldado por debates abstratos ou previsões de longo prazo. Ele está sendo moldado pelas escolhas diárias — quando, onde e como as pessoas decidem deixar a IA agir em seu nome.

Os resultados da pesquisa deste ano deixam uma coisa clara: a adoção da IA está avançando mais rapidamente do que o sentimento. Uma minoria cada vez maior de pessoas já está delegando decisões à IA, enquanto muitas outras estão ganhando confiança por meio de usos cotidianos e de baixo risco. Em alguns mercados, esse progresso já está bem encaminhado, oferecendo uma visão inicial da rapidez com que as expectativas podem mudar quando a familiaridade e o valor se alinham.

Para os líderes empresariais, a dinâmica atual do mercado cria tanto uma oportunidade quanto uma responsabilidade.

A oportunidade está no reconhecimento de que a autonomia não está chegando de uma vez. Ele está se expandindo por meio de momentos, usuários e mercados específicos, geralmente mais rápido do que as organizações esperam, mas não sem um padrão ou sinal. A responsabilidade está em entender esses sinais desde o início, aprender com o que já está formando confiança e responder deliberadamente em vez de reagir.

Crucialmente, não se trata de uma escolha entre velocidade e cautela. Os dados mostram que as pessoas não estão esperando a confiança perfeita antes de seguir em frente. Eles estão negociando a confiança em movimento — continuando a usar e, em alguns casos, a delegar à IA, ao mesmo tempo em que pedem salvaguardas mais claras, maior responsabilidade e maior transparência.

Isso colocou os líderes em uma nova posição. A questão não é mais se a IA autônoma será dimensionada. Trata-se de saber se as organizações moldarão o escalonamento de forma intencional, acelerando onde já existe confiança e valor, e desacelerando onde ainda é necessária clareza, salvaguardas ou confiança.

O que os líderes devem fazer em seguida?

  • Liderar com experiência, não com promessas: Conquiste a confiança por meio do uso. Priorize aplicativos de IA que ofereçam valor claro e cotidiano e permitam que as pessoas revisem, substituam ou optem por não participar à medida que a confiança aumenta.
  • Segmentar por prontidão para IA, não por dados demográficos: As pessoas e os mercados estão progredindo em velocidades diferentes. Projete experiências, mensagens e controles que atendam aos usuários onde eles estão, em vez de presumir um único caminho para a adoção.
  • Tornar a confiança visível: Fornecer divulgações claras, proteções sólidas de dados, opções de pessoas no circuito e responsabilidade transparente não é mais um diferencial. É um pré-requisito à medida que a autonomia aumenta.
  • Projetar para o contexto emocional: À medida que a IA assume tarefas de alto risco, o design que considera a empatia, a simplicidade e o ritmo é tão importante quanto o desempenho. O design não é um toque final; ele é um catalisador estratégico para a confiança e a adoção.

Os líderes têm uma escolha. Eles podem permitir que a delegação se expanda por padrão, moldada por forças externas e pelos primeiros usuários. Ou podem projetá-lo deliberadamente, com restrições visíveis, responsabilidade clara e confiança incorporada desde o início.

Aqueles que decidirem agir deliberadamente farão mais do que acompanhar o ritmo das mudanças. Eles obterão uma licença duradoura para liderar em um mundo cada vez mais autônomo.

Os autores gostariam de agradecer a Katherine Boiciuc, Diretora de Tecnologia e Inovação da Oceania, Ernst & Young Australia; Peter Neufeld, Líder de Experiência Digital do Cliente de Serviços Financeiros da EY Studio+ EMEIA, Ernst & Young LLP, Krista Walpole, Diretora Associada, EYGS LLP; AnnMarie Pino, Diretora Associada, Ernst & Young LLP; Gaurav Batra, Diretor Associado, Ernst & Young LLP e Harshil Milan Zatakia, Associado Supervisor, Ernst & Young LLP por suas contribuições para este artigo.


Sumário

O comportamento cotidiano mostra que a adoção da IA está avançando mais rapidamente do que a confiança do público. Embora as pessoas frequentemente expressem preocupação com a confiança e o controle, elas continuam a integrar a IA nas decisões diárias, confiando gradualmente nela para tarefas mais importantes. Os usos familiares e de baixo esforço estão normalizando a presença da IA e estabelecendo a base para uma maior delegação. Como resultado, a autoridade de tomada de decisão está começando a mudar das pessoas para os sistemas, muitas vezes antes que as organizações tenham entendido completamente onde a aceitação está se formando ou com que rapidez as expectativas estão mudando. 

Conteúdos relacionados

Megatendências 2026 e além

A estrutura Futures Reimagined da EY ajuda os líderes a navegar pelas megatendências da era NAVI para resiliência e crescimento. Descubra como.

Como a IA responsável pode preencher a lacuna entre investimento e impacto?

Explore as maneiras pelas quais a IA responsável converte o investimento em um impacto significativo.

    Sobre este artigo

    Autores

    Responsáveis pelas contribuições para esta publicação