IA explicável: enfrentamento da ansiedade causada pela IA por meio da transparência
Uma fonte de ansiedade crescente em relação à IA é o problema da "caixa preta": o desafio de explicar os processos de tomada de decisão dos modelos avançados de IA. À medida que esses modelos tomam cada vez mais decisões e ações que afetam significativamente a vida dos trabalhadores e dos cidadãos, haverá inevitavelmente um aumento nos pedidos de transparência sobre a forma como essas decisões são tomadas.
Resolver o problema é um desafio, devido à complexidade dos modelos de aprendizagem profunda,25 que não "pensam" como os humanos. A lógica precisa de como um modelo de IA chegou a conclusões específicas permanece em grande parte opaca, mesmo para seus desenvolvedores.
O movimento Explainable AI (XAI) está trabalhando para resolver o problema. A Grandview Research estima que o mercado global de XAI crescerá de US$ 7,8 bilhões em 2024 para US$ 21 bilhões em 2030, um CAGR de 18%.26 Além da maioria das principais gigantes da tecnologia, uma série de startups está pesquisando e desenvolvendo soluções no espaço da XAI, incluindo a H20.ai27 (que desenvolveu um "kit de ferramentas de explicabilidade abrangente" para explicar os resultados da IA) e a FiddlerAI28 (que está desenvolvendo uma "plataforma de observabilidade de IA" que permite que as empresas criem "soluções de IA confiáveis, transparentes e compreensíveis").
"Como parte do Wand OS, criamos um Painel de Controle para agentes de IA", declara Rotem Alaluf, CEO da Wand AI. "Ele oferece aos humanos visibilidade total do comportamento de cada agente, desde as decisões de alto nível até cada token e mensagem gerada. Transparência como essa é essencial para a confiança. Quando você consegue ver por que um agente toma decisões, tanto no nível macro quanto no micro, e esses motivos se alinham com a lógica humana, você cria confiança na Agentic Workforce e nos sistemas de IA em geral."
Emotion AI: a geração da confiança por meio da empatia e da relacionabilidade
A IA de emoção, também conhecida como computação afetiva, refere-se a modelos e interfaces de IA que podem detectar, interpretar e responder adequadamente a sinais emocionais humanos de texto, expressões faciais, entonação vocal e outros elementos identificáveis. Isso pode gerar confiança ao possibilitar interações homem-máquina mais empáticas e personalizadas - desde chatbots de atendimento ao cliente que respondem adequadamente à frustração crescente na voz de um cliente, até sensores automotivos que detectam sinais sutis de fadiga do motorista ou software educacional que muda o curso após detectar o tédio ou a confusão de um aluno.
"Criar confiança na IA requer um equilíbrio entre QI (inteligência) e QE (emoção)", disse Sean White, CEO da Inflection AI. "Embora a maior parte do setor esteja concentrada em aumentar a inteligência bruta do raciocínio e da solução de problemas de um modelo, acreditamos que a inteligência emocional é igualmente importante. É por isso que criamos o Pi para ser um agente de IA envolvente, empático, conversacional e contextualmente consciente, que combina QI e QE para capacitar as pessoas. A personalidade do Pi também é consistente em todas as versões, e essa confiabilidade é fundamental para construir uma confiança de longo prazo."
Esta é apenas uma lista parcial de tecnologias que podem desempenhar um papel na construção da confiança. Outros variam de tecnologias de autenticação para detectar desinformação (por exemplo, marca d'água digital) a provas de conhecimento zero que permitem a verificação e, ao mesmo tempo, protegem a privacidade e a segurança dos dados. Se a tecnologia contribuiu para alimentar a desconfiança, ela também pode fazer parte da solução.