Estudo de caso

Como o Microsoft 365 Copilot aumenta a confiança do cliente com IA responsável

Com a ajuda da EY, uma solução líder de IA foi certificada pela ISO 42001 e aprimorou as práticas de IA responsável.

1

Quanto melhor a pergunta

Como a confiança na IA acelera a adoção?

Teste das práticas de IA responsável com o Microsoft 365 Copilot.

A inteligência artificial (IA) tornou-se uma força motriz por trás da forma como as empresas inovam, operam e prosperam no dinâmico cenário de negócios atual. A Microsoft está na vanguarda dessa transformação, oferecendo às organizações oportunidades sem precedentes com soluções baseadas em IA. Isso fica evidente com o lançamento do Microsoft 365 Copilot, uma ferramenta com IA que oferece assistência inteligente em tempo real para permitir que os usuários melhorem sua criatividade, produtividade e habilidades.
 

Desde seu lançamento em novembro de 2023, o Microsoft 365 Copilot tornou-se uma das soluções baseadas em IA mais amplamente reconhecidas e adotadas no mercado, integrando-se aos fluxos de trabalho diário de milhões de usuários em todos os setores. A adoção exponencial do Microsoft 365 Copilot em todo o mundo não teria sido possível sem o comprometimento da Microsoft com o desenvolvimento de soluções confiáveis de IA. A IA tem enfrentado dificuldades para conquistar a confiança do usuário necessária para uma adoção significativa.
 

As normas que visam reforçar a confiança, inclusive a ISO/IEC 42001:2023 ("ISO 42001") (via EY.com US), a única norma de desenvolvimento de IA responsável que é passível de certificação e auditoria disponível atualmente, visam fornecer uma estrutura para a criação e desenvolvimento responsáveis de soluções de IA. Ser capaz de confiar nas soluções de IA é a principal preocupação dos tomadores de decisão de todos os setores. Na pesquisa EY AI Pulse Survey de dezembro de 2024 (via EY.com US), 61% dos líderes seniores afirmaram estar cada vez mais focados na IA responsável, contra 53% apenas seis meses antes, e esperam que o tópico seja ainda mais relevante para eles nos próximos seis meses. Mais recentemente, a pesquisa Global EY Responsible AI Pulse Survey revelou que, embora 72% dos executivos afirmem ter integrado a IA em iniciativas corporativas, apenas um terço implementou controles para a IA.
 

Para enfatizar seu compromisso com a IA responsável, a Microsoft recorreu à Ernst & Young LLP, uma consultora e parceira de longa data. O objetivo era avaliar as práticas de IA responsável aplicadas ao Microsoft 365 Copilot e colaborar em oportunidades para aprimorar ainda mais as práticas existentes visando melhorar a confiança do cliente, a eficiência da engenharia e a prontidão regulatória inicial. As equipes da EY nos EUA montaram uma equipe multidisciplinar de profissionais com conhecimento em tecnologias de IA e práticas de IA responsável para colaborar com as equipes de engenharia e conformidade da Microsoft.
 

"A obtenção da certificação ISO 42001 para o Microsoft 365 Copilot nos permite demonstrar a aplicação de uma estrutura de gerenciamento de riscos de IA líder no setor", disse Oliver Bell, gerente geral de Trusted Platform da Microsoft. "Mas, para nós, nunca se tratou apenas de marcar a caixa de conformidade. Nossa colaboração com as equipes da EY foi impulsionada por um compromisso conjunto de colocar em prática as práticas de IA responsável, visando o aumento da confiança do cliente e a melhoria contínua da forma como construímos e fornecemos IA aos clientes em escala."
 

Embora a ISO 42001 tenha servido como um catalisador, o valor real da colaboração estava no fato de escalar a IA responsável do princípio à prática —  incorporando-a aos processos de design e entrega da organização.

Cropped shot of a businessman and businesswoman using laptop together in a modern office
2

Melhor a resposta

Avaliação focada nos recursos para estar preparado para o futuro

Embora a ISO 42001 apresentasse uma necessidade imediata, a colaboração se concentrou em escalar as práticas de IA responsável.

Desde 2016, a Microsoft alocou centenas de engenheiros, advogados e especialistas em políticas para estabelecer uma base para suas práticas de IA responsável.

A partir disso, as equipes da EY avaliaram e testaram minuciosamente os recursos de IA do Microsoft 365 Copilot em relação aos requisitos da ISO 42001, o que resultou na obtenção da certificação ISO 42001 para o Microsoft 365 Copilot em março de 2025. Esse exercício permitiu que a EY validasse sistematicamente como os princípios de IA responsável da Microsoft foram incorporados ao design e às operações de rotina do Microsoft 365 Copilot, demonstrando não apenas conformidade, mas resiliência e prontidão em escala.

A avaliação da EY revelou temas-chave que demonstraram a preparação da Microsoft para a certificação ISO 42001, oferecendo insights acionáveis sobre como avançar em suas próprias jornadas de IA responsável:

Operacionalização da política de IA responsável em etapas mensuráveis

Para dar vida à política de IA responsável, seus princípios devem ser traduzidos em orientações claras e acionáveis que as equipes de engenharia possam aplicar na prática. Na Microsoft, essa tradução ocorreu por meio de um processo estruturado de avaliação de impacto para os recursos de IA que dão suporte ao Microsoft 365 Copilot. Seguindo a Norma de IA Responsável da Microsoft, essas avaliações possibilitaram que as equipes a previssem os possíveis riscos para os stakeholders e definissem as mitigações apropriadas. O processo é baseado em questões alinhadas a políticas e tem o suporte de ferramentas práticas, como kits de desenvolvimento de software para feedback do usuário, filtros de segurança para bloquear conteúdo nocivo e interfaces de programa de aplicativo de IA seguras para modelos de linguagem de grande escala (LLMs) aprovados que ajudam as equipes a atender aos requisitos de IA responsável. As equipes da EY examinaram como essas avaliações foram usadas para incorporar a política no desenvolvimento de produtos, permitindo entender como a Microsoft operacionaliza a IA responsável de forma mensurável, repetível e escalável.

Avaliação dos danos no contexto dos recursos de IA

Entender como os sistemas de IA se comportam sob pressão é essencial para criar soluções resilientes e confiáveis. No caso do Microsoft 365 Copilot, isso envolveu a avaliação de possíveis danos, como a geração de conteúdo infundado ou prejudicial ou a vulnerabilidade a tentativas de jailbreak, no contexto do uso pretendido de cada recurso. A Microsoft realizou avaliações de danos simulados para prever como esses riscos poderiam surgir e para projetar defesas em camadas que os mitigassem. As equipes da EY validaram que a avaliação de danos  foi incorporada ao ciclo de vida do desenvolvimento, garantindo que os recursos de IA fossem testados proativamente contra riscos adversos antes do lançamento para proteger os usuários de ameaças do mundo real quando da entrada em operação. 

Implementação de sistemas de segurança para realizar o monitoramento da IA responsável em escala

Ocasionalmente, os LLMs podem gerar conteúdo que representa riscos para usuários ou organizações. Para resolver isso de forma proativa, o Microsoft 365 Copilot incorporou várias camadas de sistemas de segurança de IA. Isso inclui classificadores que detectam prompts ou resultados potencialmente prejudiciais e acionam medidas mitigadoras, como a supressão de respostas inseguras ou o redirecionamento do usuário. A Microsoft também usa metaprompting para moldar o comportamento do sistema de acordo com os princípios de IA responsável, como evitar especulações ou inferências emocionais ao resumir reuniões. As equipes da EY avaliaram como os sistemas de segurança de IA foram incorporados à arquitetura do produto, verificando se o design do Microsoft 365 Copilot incluía proteções em camadas, como classificadores e metaprompting, confirmando que a abordagem da Microsoft à IA responsável é intencional e tecnicamente robusta. 

Monitoramento contínuo dos recursos de IA na produção

A IA responsável não termina na implantação. Ela exige uma supervisão contínua. O Microsoft 365 Copilot é monitorado ativamente na produção para validar seu desempenho confiável e seguro, alinhado com as expectativas da política. As equipes de engenharia acompanham uma série de métricas, inclusive taxas de sucesso, tempo de atividade, precisão e indicadores de uso indevido, como tentativas de jailbreak. Essas métricas alimentam os sistemas de alerta inteligentes que detectam anomalias em tempo real, permitindo uma resposta rápida das equipes de plantão. As equipes da EY examinaram os pipelines de telemetria e os mecanismos de alerta para garantir que o monitoramento contínuo não só estivesse em vigor, mas também fosse acionável, permitindo responder a desvios no comportamento da IA.

Manter os humanos no centro da equação da IA responsável 

Mesmo os sistemas de IA mais avançados exigem julgamento humano para guiar seu desenvolvimento de forma responsável. Na Microsoft, essa função cabe aos líderes de IA responsável que fazem parte das equipes de produtos e supervisionam a gestão de risco a longo do ciclo de vida da IA. Essas pessoas colaboram com engenheiros para avaliar como os recursos serão usados, prever riscos potenciais e aplicar as lições aprendidas em implantações anteriores. Eles também servem como uma ponte para o Departamento de IA Responsável da Microsoft, garantindo uma governança consistente entre as equipes. As equipes da EY confirmaram que os líderes de IA responsável foram estrategicamente incorporados às equipes de produtos, de forma que pudessem orientar o desenvolvimento com consciência dos riscos e manter a governança ao longo do ciclo de vida da IA. Uma pesquisa realizada pela Ernst & Young LLP em colaboração com a Saïd Business School da Universidade de Oxford mostra que colocar os humanos no centro das grandes transformações aumenta a probabilidade de sucesso em 2,6 vezes em comparação com as transformações que não priorizam uma abordagem centrada nos humanos. 

Embora a certificação ISO 42001 tenha sido um marco importante, ela marcou o início — e não o fim — da colaboração entre a Ernst & Young LLP e a Microsoft. Com base na experiência das equipes da EY que operacionalizam a IA responsável em escala e na liderança da Microsoft na área de IA responsável, a Equipe de M365 Trusted Platform da Microsoft e os profissionais da EY trabalharam em estreita colaboração com as equipes jurídica, de conformidade, IA responsável e engenharia da Microsoft.

Juntos, eles exploraram estratégias para reforçar as práticas de IA responsável existentes, preparar sua abordagem para o futuro e incorporar a IA responsável ao ritmo da inovação.

Com esses insights e feedback, as equipes da EY definiram os seguintes princípios orientadores para sustentar e escalar as práticas de IA responsável: 

  • Incorporar a IA responsável nos fluxos de trabalho diários a fim de criar uma rotina operacional 
  • Validar continuamente o design e a eficácia dos controles 
  • Disponibilizar às equipes ferramentas e modelos para acelerar a adoção 
  • Capturar o feedback dos usuários no mundo real para obter informações sobre melhorias 
  • Oferecer treinamento contínuo para acompanhar a evolução dos riscos e requisitos 

 Esses princípios foram traduzidos em iniciativas tangíveis, para garantir que a IA responsável não fosse apenas uma política, mas também uma prática. Ao investir nessas áreas, a Microsoft fortaleceu sua capacidade de implantar a IA de forma responsável, adaptar-se às regulamentações emergentes e construir uma confiança duradoura com os usuários. 

"Operacionalizar a confiança na IA exige mais do que uma lista de verificação — exige um sistema de responsabilidade que evolua com a tecnologia e com as pessoas que a utilizam", diz Andrea Craig, diretora de Consultoria em Tecnologia da Ernst & Young LLP. "Nosso trabalho com a Microsoft se concentrou na criação desse sistema, que é resiliente, dimensionável e projetado para se adaptar conforme os recursos de IA e as expectativas dos clientes continuem a evoluir."

Homens de negócios e mulheres sentados em uma mesa redonda em um café, usando laptops, discutindo e planejando
3

Melhor se torna o mundo de negócios

Efeito multiplicador da confiança

Essa colaboração sustenta o uso responsável da IA pelos milhões de usuários do Microsoft 365 Copilot.

Desde 2023, quase 70% das empresas da Fortune 500 incorporaram o Microsoft 365 Copilot em seus fluxos de trabalho, possibilitando que seus funcionários realizem as tarefas diárias com mais eficácia e eficiência.Essa escala notável reflete não apenas a inovação da Microsoft, mas também seu compromisso com a criação da IA de forma responsável, tendo a Ernst & Young LLP como uma parceira de confiança nessa jornada.

"Na Microsoft, realmente acreditamos que ganhar e manter a confiança dos nossos usuários é o que nos permite criar funcionalidades de IA de ponta", diz Drena Kusari, vice-presidente e gerente geral de Serviços Compartilhados e RAI . "Temos orgulho do fato de que colocamos o mesmo peso para a funcionalidade dos nossos recursos e para as práticas de IA responsável que incentivem interações duradouras com o Microsoft 365 Copilot."

Atualmente, o Microsoft 365 Copilot é uma das poucas soluções de IA em todo o mundo a obter a certificação ISO 42001. Isso significa que os benefícios dessa conquista vão além da Microsoft — eles serão democratizados para as organizações que já implantaram ou estão planejando implantar o Microsoft 365 Copilot. As organizações que implantaram o Microsoft 365 Copilot agora podem acelerar seus próprios esforços de conformidade, com uma solução que foi rigorosamente testada, validada de forma independente pelos auditores externos para a ISO 42001 e desenvolvida em torno da IA responsável. E, independentemente de essas funções serem administrativas ou essenciais para a missão de gerar valor, os funcionários que usam o Microsoft 365 Copilot ganham um poderoso acelerador, pelo qual as tarefas rotineiras são resolvidas mais rapidamente e as informações e os resultados confiáveis estão a apenas alguns segundos de distância.

Esse é o efeito multiplicador da confiança: quando a IA responsável é feita corretamente, ela não apenas protege, mas acelera a adoção. A IA possibilita a inovação em escala, gera confiança nos usuários e prepara as organizações para liderar em um futuro orientado pela IA.


Tópicos relacionados

Entre em contato

Quer mais informações de como podemos te ajudar? Mande sua mensagem.

Explore nossos estudos de caso

Saiba como as equipes da EY ajudam nossos clientes a resolver seus problemas mais difíceis e a moldar o futuro com confiança.