Nesse modelo escolhido até aqui pela União Europeia, os sistemas de inteligência artificial são divididos em quatro categorias: risco baixo, limitado, alto e inaceitável
Os sistemas de inteligência artificial voltados para o consumidor estão impulsionando um mercado que deve chegar a US$ 1,3 trilhão em 2032, de acordo com estudo da Bloomberg Intelligence. O tamanho desse mercado no ano passado foi de US$ 40 bilhões, o que demonstra o enorme potencial dessa tecnologia para os próximos anos. A demanda por IA generativa cresceu substancialmente desde o lançamento da última versão do ChatGPT, da OpenAI, com a expectativa de revolução em todas as etapas dos negócios, especialmente em relação ao atendimento ao cliente.
A IA generativa é uma tecnologia que proporciona a criação de conteúdo original, como textos, imagens, músicas e vídeos, por meio de um computador e em resposta a solicitações em linguagem comum, e não de programação. Diferentemente da IA convencional, que é programada para executar tarefas específicas, a generativa pode gerar algo novo e inesperado atendendo a praticamente todos os tipos de pedido.
"Há uma série de questões em torno da IA generativa. A democratização do acesso a essa tecnologia tornou mais urgente essa discussão", disse Telma Luchetta, sócia de data e analytics da EY América do Sul, na Febraban Tech 2023. "A abordagem baseada no risco do sistema de IA é o caminho adotado até aqui pelas futuras regulações", completou. Essa escolha foi feita pela versão inicial do projeto que visa regular o uso de IA na União Europeia (UE). O Parlamento Europeu, braço legislativo da UE, aprovou o texto, chamado de EU AI Act, no dia 14 de junho. O projeto separa diferentes modelos de inteligência artificial de acordo com a "abordagem baseada em risco".
Cada sistema deve ser classificado de acordo com quatro categorias previstas: baixo risco à sociedade, como games; risco limitado, como chatbots; alto risco, como veículos autônomos; e risco inaceitável, como sistemas biométricos de vigilância. Cada uma dessas classificações traz obrigações de privacidade e transparência para as companhias, que devem seguir as regras da categoria na qual seus serviços e produtos se enquadram. O texto precisa, ainda, passar por votação final no Parlamento Europeu.
Boas práticas de IA
Enquanto a regulamentação não vem, as próprias empresas precisam estar atentas aos seus sistemas de inteligência artificial, assegurando que sejam seguros e estejam em conformidade com a legislação. Caso contrário, se as boas práticas de IA não forem consideradas, há risco de comprometimento da reputação.
"Se eu tenho uma farmacêutica, não posso fabricar remédio e colocá-lo no mercado sem fazer todos os testes necessários e exigidos. Raciocínio semelhante se aplica à IA. Preciso garantir que minhas áreas de negócio façam todas as verificações possíveis, conforme as melhores práticas observadas nesses sistemas, antes de colocar robôs de IA no mercado. Há necessidade de definir parâmetros claros para o sistema de inteligência artificial, com o objetivo de proteger o negócio", explicou Telma. A orientação é analisar os comandos ou tipos de resposta que podem vir do sistema. "Também é preciso olhar para a privacidade, entendendo os dados que serão usados ou tratados, se são sensíveis ou não".
Questões morais e de inclusão e diversidade, como orientação sexual, também devem ser observadas, especialmente em relação a como estão sendo contempladas pela base de dados da IA, a fim de evitar vieses inconscientes. Por fim, ainda segundo Telma, o olhar deve ser para a cibersegurança, com um sistema suficientemente robusto que garanta a segurança dos dados coletados, armazenados e transacionados.