É um risco, mas não como o conhecemos.
Neste contexto, os conselhos não são as únicas instituições que lutam para acompanhar o ritmo da IA. Os reguladores também estão sendo deixados para trás, pois as novas tecnologias superam sua capacidade de supervisioná-las. Embora as regras que estabelecem - em matéria de privacidade e segurança dos dados, por exemplo - devam ser respeitadas, os reguladores não oferecem grande apoio aos conselhos quando se trata de orientar a agenda de gestão de riscos.
Os conselhos de boas práticas têm um viés de ação, e eles sabem que precisam se mover mais rápido e ser mais ousados com IA. No entanto, não só a maioria dos diretores de conselho está constrangida por uma lacuna de conhecimento quando se trata de explorar os benefícios da IA, como também estão efetivamente por conta própria governando os riscos associados - riscos que são novos e substanciais em todos os setores.
A evidência sugere que a confiança do público em sistemas autónomos, inteligentes e robóticos é incerta e facilmente danificada. Apesar de seu poder transformador, esses sistemas não são à prova de falhas - eles podem funcionar mal, ser corrompidos ou conter viés humano algorítmico com consequências potencialmente fatais. Compete, portanto, ao conselho de administração assegurar que a confiança seja conquistada e não destruída.
"Pode ser um novo território, mas ser ousado e abraçar inovações como IA é fundamental", disse Sharon Sutherland, EY Global Center for Board Matters Leader e EY Global Markets Strategy and Operations Leader. "O papel do conselho é ajudar a fornecer perspectiva, prevenir a negligência e garantir a longevidade organizacional. O apoio dado para IA é um dos componentes chave para perceber isso."
Um novo quadro para manter a confiança na IA
Para conseguir isso de uma forma autêntica e duradoura, os conselhos precisam ir além do simples gerenciamento de riscos na era da IA, para manter a confiança. Esta mudança de mentalidade cria um novo conjunto de princípios organizacionais. A confiança deve ser pensada em um quadro, que é aplicado não apenas aos sistemas organizacionais, mas a todos os processos impactados pela IA. Ao pensar sobre a confiança num quadro de sistemas, há muitas dimensões: ética, responsabilidade, prestação de contas, transparência e, em última análise, a capacidade de explicação desses sistemas subjacentes. Sem uma abordagem holística, é muito difícil manter a confiança ao longo do tempo.
"O potencial da IA para transformar nosso mundo é enorme, mas os riscos são significativos, complexos e em rápida evolução", disse Nicola Morini Bianzino, Diretor de Tecnologia de Clientes da EY Global. "Aqueles que incorporam os princípios de confiança na IA desde o início estão melhor posicionados para colher as maiores recompensas da IA."
Com a confiança embutida, as organizações podem então começar a realizar plenamente as oportunidades potenciais que a IA trará. Estas conversas mais amplas estão começando a acontecer. Os conselhos estão começando a falar sobre o poder da IA para dar sentido aos enormes - e crescentes - volumes de dados que seus negócios agora geram. Eles estão analisando como a IA pode ajudar a alcançar eficiências na fabricação e nas cadeias de suprimentos, automatizar tarefas de back-office de rotina, melhorar a tomada de decisão e oferecer uma experiência de varejo mais personalizada para os clientes.
"Os clientes estão começando a esperar a IA, compreendendo ou não, então se você não estiver atendendo a essa nova expectativa com os clientes, sua experiência e o serviço que você está fornecendo serão cada vez mais datados e não competitivos", disse Keith Strier, EY Global e EY Americas Advisory Leader para IA.