The Board Imperative: Como uma IA confiável pode gerar valor no longo prazo?

10 Minutos de leitura 19 abr 2021
Por Sharon Sutherland

Líder da EY Global para o Center for Board Matters e Líder de Area Program Management

Mentalidade global. Poder através da diversidade. Amante da arte. Curiosa intelectualmente. Viajante. Legado é importante. Apaixonada por iniciativas de aprendizagem.

10 Minutos de leitura 19 abr 2021

Se a sua organização visa criar valor sustentável para a sociedade, como membro do Conselho de Administração, é seu papel construir e salvaguardar a confiança na Inteligência Artificial (IA). 

Em resumo

  • A IA confiável tem um enorme potencial para criar valor a longo prazo para todas as partes interessadas. Mas o custo da aplicação antiética pode ser muito alto.
  • A regulamentação da IA deve proteger as organizações, bem como os consumidores. Como membro do Conselho de Administração, você precisa garantir que a voz da sua organização seja ouvida.
  • A Sua função é entender as tecnologias de IA  em relação à estratégia da organização para mitigar os seus riscos — e fortalecer a governança em torno do uso ético.

A

s chances são de que sua organização tenha usado inteligência artificial ou está considerando ativamente seu uso para uma infinidade de tarefas; qualquer coisa, desde responder a consulta de um cliente em um aplicativo até agilizar e acelerar uma série de processos de back-office.

No entanto, apesar disso, líderes seniores, incluindo membros do conselho como você, geralmente têm apenas um entendimento limitado de como a IA funciona. E, mais pontualmente, eles não discutem regularmente seu uso e sua aplicação na organização para garantir que os padrões éticos sejam cumpridos.

É certo que, como membro do conselho, acompanhar a constante evolução da IA é difícil e a curva de aprendizado é íngreme. No EY Center for Board Matters, queremos ajudar explorando o vínculo entre a implantação de IA confiável e a entrega de valor a longo prazo. Então, entrevistamos vários especialistas para saber mais e iniciar o primeiro filme de nossa Série Board Imperative.

O filme fornece respostas e ações críticas para ajudar os membros do conselho a reformular o futuro de sua organização. Paralelamente, neste artigo, examinamos sua função na construção e salvaguarda da confiança na IA. Em seguida, consideramos como você pode minimizar a exposição da sua organização aos riscos de IA e, em última análise, ajudá-la a fazer bem fazendo o bem.

Percebemos que essas são tarefas complexas — por isso, se você extrair apenas três coisas depois de ler este conteúdo, nós te encorajaremos a:

  1. Envolver-se na discussão sobre a IA e sobre tecnologia mais ampla o quanto antes, e ajudar a garantir que a sua organização pense e incorpore a ética da IA em sua estratégia geral de IA.
  2. Aprender o suficiente sobre essas tecnologias para poder contribuir com a discussão, perguntando à sua equipe de administração as perguntas estratégicas certas para otimizar a tecnologia e minimizar os seus riscos.
  3. Certificar-se de que a voz da sua organização seja ouvida e se alimenta de discussões e consultas sobre qualquer possível regulamentação associada.
            Estátua da justiça sol
(Chapter breaker)
1

Capítulo 1

A IA tem um enorme potencial para ajudar a criar valor sustentável para todos

Obtenha a IA correta, e gere confiança nos stakeholders. Se errar, os riscos serão existenciais.

Então, qual é exatamente o vínculo entre IA e valor de longo prazo?

Uma organização responsável pensa e age no interesse de longo prazo de todos os stakeholders — ­de funcionários e fornecedores a reguladores e comunidades locais.

Isso significa que os membros do conselho como você devem se envolver com esses stakeholders e considerar seus interesses ao tomar decisões. Ao fazer isso, você apoia sua organização na criação de valor sustentado para seus stakeholders, conquistando sua confiança contínua. Isso, por sua vez, a torna mais atraente para consumidores, investidores e possíveis funcionários.

A IA tem um enorme potencial para ajudar a criar esse valor sustentado a longo prazo — desde que você acerte. Ela pode ajudá-lo a construir confiança fornecendo resultados justos para todos que entram em contato com ela ou para quem toma decisões. Também pode contribuir para outros elementos importantes de um negócio responsável, como inclusão, sustentabilidade e transparência.

Mas a rápida digitalização — particularmente a ascensão da análise de clientes — levantou questões sobre discriminação e justiça que correm o risco de destruir essa confiança. Em um mundo em que as desigualdades são mais evidentes do que nunca, uma tecnologia de IA que se mostra tendenciosa contra grupos específicos, ou impede certos resultados, é uma má notícia. Como tal, os riscos de falha da IA não são apenas sérios — eles podem afetar o futuro de uma organização.

Como a força vital da IA, os dados são fundamentais para construir e manter a confiança

No entanto, a IA ética não se trata apenas de prevenir o viés. Também se trata de privacidade. “A força vital da IA como ela é desenvolvida atualmente são dados”, diz Reid Blackman Ph.D., Fundador e CEO da Virtue Consultants. “As empresas precisam equilibrar a necessidade de coletar e usar esses dados, garantindo que tenham a confiança do consumidor — para que os consumidores continuem a se sentir confortáveis em compartilhá-los.”

Para fazer isso, os conselhos precisam garantir que suas organizações sejam claras e transparentes sobre sua abordagem aos dados, para que os consumidores possam dar consentimento informado.

Isso criará um círculo virtuoso: quanto mais os consumidores confiam em você, mais dados eles compartilharão com você. E quanto mais dados eles compartilharem, melhor será sua IA e, por fim, seus resultados comerciais.

Por outro lado, as organizações que não tratam seus dados com cuidado podem criar um ciclo vicioso. Pode ser preciso apenas um erro, ou erro percebido, para que um usuário pare de confiar em sua organização. Se isso acontecer, eles podem compartilhar menos dados, tornando sua IA menos eficaz — ou até mesmo abandoná-la para sempre.

Os conselhos têm um papel vital a desempenhar na proteção de suas organizações desse ciclo vicioso. Como diz Reid, “Os conselhos de administração têm a responsabilidade de garantir que a reputação de sua marca seja protegida”.

As empresas precisam equilibrar a necessidade de coletar e usar dados para garantir a confiança do consumidor – para que o consumidor continue se sentindo à vontade para compartilhá-los.
Reid Blackman Ph.D.
Fundador e CEO da Virtue Consultants

Os conselhos precisam ser mais construtivos e contributivos à medida que as estratégias de IA evoluem

Desde o primeiro dia de desenvolvimento de sua estratégia de IA, é crucial que você ajude a gerência a entender os riscos e as oportunidades que essas tecnologias trazem —  e como a ética influencia as duas. Dessa forma, você pode ajudá-los a construir a confiança de que precisam para adotar a IA integralmente na organização.

Mas, para fazer isso, você precisa entender e confiar na IA. E, a partir de hoje, a lacuna de confiança pode ser, em parte, o que está impedindo as organizações.

De acordo com John Thompson, presidente do Conselho da Microsoft, a falta de conhecimento no conselho é uma das razões para isso. “Não há pessoas suficientes que conheçam a tecnologia e entendam sua aplicabilidade e, portanto, como ela pode ser usada de forma significativa para a organização em geral”, diz ele. “Portanto, garantir que o conselho tenha conhecimento sobre a plataforma e tenha um ponto de vista, é um problema crítico.”

Vale a pena preencher essa lacuna de confiança em sua organização para ajudar a evitar que notícias negativas danifiquem sua marca. Também pode permitir que você apoie sua organização na implantação de tecnologias de IA centradas no ser humano, confiáveis e sirvam a sociedade como um todo. 

  • Três maneiras de garantir que a IA ajude a criar valor a longo prazo

    1. Trabalhe com a Administração para estabelecer os objetivos e os princípios éticos do uso da IA em sua organização. Isso deve incluir como vocês irão coletar, armazenar e usar dados, bem como irão comunicar os seus princípios de projeto tanto aos stakeholders internos quanto externos. Em seguida, certifique-se de que esses princípios sejam incorporados em sua estratégia de IA desde o início, e não acoplados depois.   
    2. Se eduque envolvendo-se cedo. Dependendo do setor em que está, você precisará entender menos ou mais sobre essas tecnologias para gerenciar riscos associados e contribuir para discussões sobre o uso e a aplicação delas. Em alguns casos, você também pode precisar desempenhar papel ativo na supervisão de como a estratégia de AI é desenvolvida e executada. Caso contrário, no mínimo, você precisará manter a equipe de operações para prestar contas e fazer as perguntas certas para se certificar de que elas se alinham com os princípios éticos descritos nessa estratégia.
    3. Certifique-se de que a Administração conduza o planejamento de cenários para avaliar os riscos associados antes de implantar uma nova tecnologia de IA. Isso pode incluir envolver um painel de diversos stakeholders para avaliar e considerar se eles são tratados de forma igual e impactados de acordo. A sua organização deve então se basear nas conclusões desses painéis para garantir que, no caso de haver injustiças ou preconceitos descobertos, eles sejam tratados antes do lançamento. 

            Pôr-do-sol de escritório de laptop feminino
(Chapter breaker)
2

Capítulo 2

Os reguladores precisam proteger as organizações, bem como os consumidores

Os padrões globais dariam aos consumidores e às organizações a mesma proteção em todo o mundo.

A regulamentação correta ajudará os Conselhos definindo parâmetros que garantam que as organizações implantem a IA de forma confiável. Isso significa uma maneira segura e justa para o consumidor, bem como boa para os negócios. Como Eva Kaili, membro do Parlamento Europeu e presidente de seu órgão de Science and Technology Options Assessment (STOA), coloca: “Queremos que a regulamentação beneficie os cidadãos, não apenas maximize os lucros”.

Mas dois fatores tornam a criação de regulamentação apropriada um desafio. Primeiro, os reguladores precisam percorrer uma linha tênue entre proteger os consumidores e dar às organizações espaço suficiente para inovar; se for muita rigorosa, a inovação é sufocada; se for muito frouxa, e os consumidores ficam vulneráveis a preconceitos ou a violações de privacidade.

Em segundo lugar, as tecnologias de IA cruzam fronteiras. Reconhecendo isso, em outubro de 2020, o Parlamento Europeu tornou-se uma das primeiras instituições a publicar propostas detalhadas sobre como regular a IA em seus Estados membros. Agora está reescrevendo seu projeto de legislação à luz da pandemia da Covid-19.

Colaboração e diálogo serão fundamentais para criar padrões globais

Aplaudimos este esforço. Mas, como diz Eva: “Não podemos ignorar que temos que aplicar padrões globais para obter o máximo benefício da tecnologia de IA”.  

Para Eva, estes padrões precisariam abordar negócios para consumidor, bem como de negócios para negócios. Então, uma abordagem única não funcionaria. Em vez disso, ela sugere: “Diferentes modelos de negócios terão que mostrar como eles respeitam a privacidade, como respeitam os direitos e princípios fundamentais e como eles conseguem fazer isso por padrão e incorporá-lo em seus algoritmos. Eles precisarão seguir princípios que garantam que empresas ou consumidores que interagem em nível internacional tenham a mesma proteção que eles têm em seu próprio país.”

Os princípios também se flexionariam para refletir níveis variados de risco, como explica Eva. “O conceito neste momento é garantir que teremos abordagens diferentes por setor — baixo risco e alto risco.”

Não podemos ignorar que temos que aplicar padrões globais para obter um melhor benefício da tecnologia de IA.
Eva Kaili
Membro do Parlamento Europeu e presidente de seu órgão de Science and Technology Options Assessment (STOA).

A colaboração entre o setor privado, os governos e acadêmico é fundamental para garantir que a legislação reflita como as empresas estão usando IA. E isso equilibra o risco com a realidade comercial. "Precisamos manter um diálogo aberto", diz Eva. "É muito importante, pois nossas propostas legislativas são relevantes para o que o mercado precisa, para garantir que estejamos abertos para ouvir."

  • Três maneiras de incentivar e apoiar a regulamentação de IA de maneira correta

    1. Faça perguntas de sondagem da Administração para entender melhor como a regulamentação e as boas práticas em dados e governança algorítmica podem beneficiar a sua organização, stakeholders e sociedade em geral, especialmente se você for além do que os reguladores exigem.
    2. Certifique-se de que a sua organização faça parte de discussões e consultas públicas sobre a regulamentação potencial o mais cedo possível e, em seguida, de forma contínua. Defenda essa colaboração onde ela ainda não exista.
    3. Garanta estruturas de governança relevantes para apoiar qualquer regulamentação que estejam incorporadas e existam  mecanismos para se manter atualizado sobre quaisquer novidades ou alterações.
            Projeto de ponte assistida por AI
(Chapter breaker)
3

Capítulo 3

Dez perguntas que você pode fazer para ajudar a construir e proteger a confiança na IA

Para mitigar os riscos de IA, você precisará construir o seu conhecimento e fortalecer a governança e a supervisão em torno do seu uso e de sua aplicação.

É claro que conduzir o uso da IA pode ser complexo e desafiador, especialmente para conselhos fora do setor de tecnologia. Mas, como John Thompson diz: “Acho inequívoco que a IA seja, de fato, uma plataforma tecnológica importante para todas as empresas ao redor do mundo”.

Isso significa que você precisará garantir que as tecnologias de IA que sua organização projeta e implanta sejam imparciais e protejam a organização contra a exposição a riscos associados. Para fazer isso, você precisará se educar para entender melhor essas tecnologias e fortalecer a governança em torno do seu uso.

Penso ser inequívoco que a IA será, de fato, uma importante plataforma tecnológica para todas as empresas do mundo.
John Thompson
Presidente do Conselho na Microsoft

Essas perguntas devem ajudá-lo a iniciar ou reavaliar o processo atual em sua organização, para que a IA confiável seja estabelecida para criar valor de longo prazo para todos.

  1. Como podemos garantir nosso envolvimento inicial e compromisso contínuo com a estratégia de IA da nossa organização?
  2. Entendemos nosso papel específico no estabelecimento de objetivos e princípios para que a IA ajude a proteger nossa organização contra consequências não intencionais? Temos processos e procedimentos adequados para reagir rapidamente em caso de falhas de IA?
  3. Temos o conjunto certo de habilidades para orientar a administração na tomada de decisões certas sobre IA, confiança, ética e riscos? Podemos preencher quaisquer lacunas com treinamento interno ou precisamos considerar recursos externos? Qual é o nosso plano de aprendizado e treinamento contínuos?
  4. Fizemos da transparência e da prestação de contas prioridades máximas quando se trata de IA? Se sim, onde nossos princípios podem ser encontrados? Se não, qual é o nosso plano para resolver isso?
  5. Estamos confiantes de que a atual estrutura de governança é suficiente para supervisionar efetivamente o uso da IA por nossa organização, seja desenvolvida internamente ou adquirida? Devemos considerar um comitê especial para fornecer governança e foco aprimorados?
  6. Estamos consultando um grupo diversificado de partes interessadas, incluindo usuários finais, para desafiar e testar os objetivos que definimos para nossos aplicativos de IA? Estamos nos comunicando regularmente com a equipe operacional para garantir que esses objetivos estejam alinhados com a forma como eles estão desenvolvendo e implantando a IA?
  7. Como garantimos que nossas equipes de operações de IA tenham em conta a conformidade e o gerenciamento de riscos desde os primeiros estágios de desenvolvimento?
  8. Até que ponto trabalhamos com os governos para entender os desenvolvimentos regulatórios da IA em nosso setor e garantir que estamos alinhados? Devemos considerar o engajamento aumentado se nossos níveis atuais forem baixos ou inexistentes?
  9. Como identificamos e aprendemos com os primeiros adotantes e pioneiros da regulamentação para auxiliar nossa tomada de decisão sobre a melhor forma de usar e conduzir essas tecnologias dentro de nossas organizações?
  10. Estamos fazendo o suficiente com as tecnologias de IA para além de permanecer competitivo para também garantir que criemos valor a longo prazo? Caso contrário, quais dos problemas identificados aqui estão no nosso caminho?

As opiniões de terceiros expostas nesta publicação não são necessariamente as opiniões da organização global EY ou de suas firmas-membro. Além disso, elas devem ser vistas no contexto da época em que foram feitas.
  • Agradecimentos

    A EY gostaria de agradecer pessoalmente a Reid Blackman, Eva Kaili e John Thompson por seu tempo e seus insights compartilhados no filme.

Resumo

Como membro do Conselho, você pode ajudar a sua organização a criar e proteger a confiança de suas partes interessadas na IA— mas somente se você aplicar as tecnologias corretamente. Se usar a IA de forma antiética, a sua organização poderá enfrentar riscos existenciais.

A regulamentação certa apoiará você ao exigir o uso de uma IA confiável, mas os padrões globais são desafiadores de desenvolver. Você pode ajudar a proteger a sua organização e os seus consumidores, entendendo a aplicação dessas tecnologias o suficiente para supervisionar o seu uso ético.

Sobre este artigo

Por Sharon Sutherland

Líder da EY Global para o Center for Board Matters e Líder de Area Program Management

Mentalidade global. Poder através da diversidade. Amante da arte. Curiosa intelectualmente. Viajante. Legado é importante. Apaixonada por iniciativas de aprendizagem.