Artigo: Uso de agentes autônomos de IA pelas empresas requer governança

26 mar. 2026

Por José Ronaldo Rocha, sócio e líder de consultoria para Tecnologia, Mídia & Entretenimento e Telecomunicações da EY para América Latina

Se as conversas superficiais no Mobile World Congress 2026 giraram em torno de velocidade e novos aparelhos, os debates mais profundos revelaram agenda muito mais complexa e transformadora. A inteligência artificial, antes um tema futurista, agora se apresenta como uma força de democratização, prometendo acelerar a inclusão e redefinir o que entendemos por experiência do cliente. Para além do otimismo, uma questão crucial começa a tomar o centro do palco: como escalar essa revolução de forma segura e responsável?

A primeira grande promessa da IA é a democratização da inovação. Soluções que antes eram restritas a grandes corporações agora se tornam acessíveis, permitindo que mais empresas ofereçam serviços hiperpersonalizados. Isso se traduz na melhoria da experiência do cliente, um dos mantras do evento. A capacidade de antecipar necessidades, customizar interações e resolver problemas de forma proativa não é apenas diferencial competitivo, mas uma nova e poderosa avenida de monetização, que se materializa em fidelidade, maior engajamento e novas fontes de receita.

No entanto, o que realmente chamou a atenção no MWC 2026 foi a discussão sobre o próximo passo dessa jornada: os agentes autônomos. A ideia de ter sistemas de IA que não apenas sugerem, mas tomam decisões e executam tarefas de forma independente, é o que permitirá a verdadeira aplicação dessa tecnologia em escala. Imagine um agente que negocia com fornecedores, otimiza a logística em tempo real ou gerencia o atendimento ao cliente de ponta a ponta. O potencial é imenso, porém esbarra em uma barreira fundamental: a confiança.

É aqui que o debate se torna mais denso. Como podemos garantir que esses agentes autônomos operem dentro de limites éticos e de responsabilidade? A questão que ecoa nos corredores não é apenas técnica, mas de governança. Entregar a um sistema a autonomia para tomar decisões exige estrutura robusta que o impeça de expor a companhia a riscos financeiros, legais ou de reputação. Não se trata de ter medo da tecnologia, mas de construir as salvaguardas para que ela atue a nosso favor.

Esse ponto é talvez o maior desafio para a próxima fase da transformação digital. A tecnologia para criar agentes autônomos avança a passos largos. No entanto, a maturidade das empresas para governá-los ainda engatinha. A solução passa por criar um framework de responsabilidade, com limites de atuação, trilhas de auditoria imutáveis e um entendimento profundo de que a autonomia concedida deve ser proporcional à confiança estabelecida.

O futuro, portanto, não será definido apenas pela capacidade da IA de criar experiências incríveis, mas pela nossa habilidade de construir um ecossistema de confiança ao redor dela. A escalada dos agentes autônomos depende menos de código e mais de governança. A empresa que decifrar essa equação primeiro não apenas liderará a inovação, como também definirá o padrão de como a inteligência artificial pode, de fato, se tornar uma parceira estratégica e confiável nos negócios.

*Esta é uma adaptação do artigo publicado inicialmente no Meio & Mensagem.

Termos de Uso

O material publicado pela Agência EY pode ser reproduzido de maneira gratuita desde que sejam colocados os créditos para a Agência EY e respeitados os termos de uso. Mais informações pelo e-mail ey@fsb.com.br.