Compliance nos sistemas de inteligência artificial requer supervisão humana

4 Minutos de leitura 19 jul 2023
Por Agência EY

A Agência EY é um espaço de notícias e conteúdo jornalístico

4 Minutos de leitura 19 jul 2023

É por meio desse trabalho que será analisado o banco de dados utilizado pela tecnologia e se suas decisões estão de acordo com a legislação vigente e a governança da organização, a fim de evitar, por exemplo, vieses inconscientes

Os sistemas de inteligência artificial têm sido cada vez mais usados pelas empresas para diversas finalidades, como melhorar o atendimento ao cliente; aperfeiçoar os mecanismos de detecção de fraudes; e facilitar o acesso aos dados e enriquecer as possibilidades de interpretação. Essa tecnologia toma inclusive decisões em diferentes atividades do dia a dia, como a de recrutamento e contratação, fazendo a triagem dos candidatos e economizando assim o tempo dos profissionais de recursos humanos. A IA utiliza algoritmos e sistemas de aprendizado nesse processo para executar tarefas de forma autônoma, com base nos dados que captaram ou foram oferecidos a ela. Esse poder decisório tem capacidade de evoluir conforme o tempo e o volume armazenado de informações – processo denominado machine learning.

“A supervisão humana é um dos aspectos relevantes de compliance no contexto da IA. É por meio desse trabalho que será analisado o banco de dados utilizado pelo sistema, a fim de evitar os chamados vieses inconscientes”, disse Telma Luchetta, sócia de data e analytics da EY América do Sul, na Febraban Tech 2023. “Algumas perguntas devem ser feitas nessa verificação como se o banco de dados está sendo realmente inclusivo, respeitando e contemplando as minorias no processo decisório; se está atualizado e condizente com a governança da organização; e se as decisões tomadas pelo sistema de IA estão em conformidade com a legislação em vigor, como a de proteção de dados”.

Os vieses inconscientes são visões preconcebidas sobre determinados assuntos que costumam resultar em discriminação contra as mulheres e outros grupos da sociedade. Se os bancos de dados estão enviesados por gênero, por exemplo, a IA tomará, por consequência, uma decisão enviesada. Um banco de dados antigo de 30 anos atrás pode igualmente estar enviesado, já que representa uma realidade não mais observada ou aceita pela sociedade, que, tem nos últimos anos, criado uma série de iniciativas para combater preconceitos por meio da promoção da inclusão e da diversidade.

Compreensão dos resultados e das decisões

“É preciso definir parâmetros claros para a IA. Os comandos devem ser constantemente revisados para assegurar que os sistemas estejam no caminho correto, protegendo dessa forma a reputação do negócio e evitando prejuízos financeiros”, finalizou Telma. Estão entre as boas práticas a validação dos modelos de IA em uso interno antes de levá-los aos clientes; curadoria em relação aos bancos de dados utilizados pelos sistemas; e manual de padrões éticos para garantir a transparência e a explicabilidade dos sistemas adotados.

Em relação a esse último ponto, o sistema de IA deve permitir que seus resultados possam ser compreendidos pelos humanos, incluindo os afetados por suas decisões. Já houve situações nas quais os próprios formuladores do sistema não souberam explicar por que a IA chegou a uma decisão específica.

  • Termos de uso

    O material publicado pela Agência EY pode ser reproduzido de maneira gratuita desde que sejam colocados os créditos para a Agência EY e respeitados os termos de uso. Mais informações pelo e-mail ey@fsb.com.br.

Receba nossos alertas de notícias 

Fique atualizado com conteúdos produzidos pela Agência EY

Inscreva-se

Resumo

Sobre este artigo

Por Agência EY

A Agência EY é um espaço de notícias e conteúdo jornalístico