Bandeiras da União Europeia em fila no exterior do edifício do Parlamento Europeu em Bruxelas

Porque é que as empresas devem preparar-se agora para a nova Lei da IA da UE

O Ato da UE sobre a IA é uma lei histórica destinada a regular a utilização da inteligência artificial na UE e não só. Saiba como se aplica a si.


Sumário Executivo

  • A Lei da IA da UE aplica-se a todas as organizações que desenvolvam, implementem, importem ou distribuam modelos ou sistemas de IA para a UE.
  •  Os sistemas de IA são classificados em níveis baseados no risco, com diferentes níveis de obrigações de conformidade.
  •  As organizações têm de tomar as medidas necessárias para cumprir a legislação ou enfrentar coimas significativas.

ALei da Inteligência Artificial (IA) da União Europeia (UE), que entra em vigor a1 de agosto de 2024, unifica a regulamentação da IA nos 27 Estados-Membros do mercado único. A legislação tem vários objectivos gerais. Procura utilizar mecanismos legais para proteger os direitos fundamentais e a segurança da população da UE quando exposta à IA; incentivar o investimento e a inovação na tecnologia; e desenvolver um mercado único e não fragmentado para "aplicações de IA legais, seguras e fiáveis".

Quem é afectado pela lei?

A lei aplica-se a todos os sistemas de IA que afectam as pessoas na UE e a todas as organizações ao longo da cadeia de valor, quer sejam criadores, implantadores, importadores ou distribuidores. O mais importante é que a lei é extraterritorial, o que significa que as entidades não precisam de estar sediadas na UE para que a lei seja aplicável. Na maioria dos casos, a lei não se aplica retroactivamente, mas em alguns casos limitados, os modelos e sistemas de IA colocados no mercado antes da entrada em vigor da lei terão de estar em conformidade.

Como é que a Lei da IA da UE o afecta?

Compreender os principais elementos da lei e as suas obrigações de conformidade.

Quais são os pontos essenciais da lei?

A lei exige que as organizações cumpram determinadas obrigações, dependendo em grande medida do nível de risco colocado pela forma como os seus sistemas de IA são utilizados. Existem dois sistemas de classificação dos riscos, um para os modelos de IA de utilização geral (GPAI) e outro para outros sistemas de IA.

Os riscos para os sistemas de IA são classificados em três níveis principais: proibido, risco elevado e risco mínimo. Cada nível tem diferentes requisitos de conformidade, conforme resumido abaixo.

Nível de risco
Descrição
Nível de conformidade
Os exemplos de casos de utilização incluem:

Proibido

Sistemas de IA que representam um risco inaceitável para a segurança, a protecção e os direitos fundamentais das pessoas.

Proibido

1. Pontuação social suscetível de conduzir a um tratamento prejudicial

 

2. Sistemas de reconhecimento emocional no local de trabalho

 

3. Policiamento preditivo de indivíduos

 

(São aplicáveis algumas isenções)

Risco elevado

Permitido, sujeito ao cumprimento dos requisitos do Ato da UE sobre a IA (incluindo avaliações de conformidade antes da colocação no mercado).

Significativo

Utilização da IA em: 

 

1. Recrutamento

 

2. Sistemas de vigilância de identificação biométrica

 

3. Segurança das infra-estruturas críticas (por exemplo, energia e transportes)

Risco mínimo

Permitido, sujeito a obrigações específicas de transparência e divulgação, quando a utilização representa um risco limitado.

Limitada

1. Chatbots

 

2. Conteúdo visual ou áudio manipulado por IA

Risco mínimo

Permitido, sem requisitos adicionais, quando a utilização representa um risco mínimo.

Mínimo

1. Software de edição de fotografias

 

2. Sistemas de recolha de produtos

 

3. Software de filtragem de spam

Os modelos GPAI, incluindo a IA generativa, também seguem uma abordagem faseada, mas num quadro de classificação separado que aplica requisitos de transparência adicionais. As obrigações mais rigorosas aplicam-se aos modelos GPAI mais potentes que representam um "risco sistémico".

Nível
Descrição
Nível de conformidade

Risco de nível básico

Modelos que correspondem à definição do GPAI

Obrigações de transparência limitadas (mais pormenores disponíveis em aqui)

Risco sistémico

Os modelos GPAI de elevado impacto que representam um risco sistémico são provisoriamente identificados com base na quantidade acumulada de potência informática utilizada para a formação (com potência superior a 1025 operações de vírgula flutuante).

Um modelo pode também ser classificado neste nível com base numa decisão da Comissão segundo a qual um modelo de IA de uso geral tem capacidades ou impacto equivalentes aos acima referidos.

Obrigações significativas (mais pormenores disponíveis em aqui)

Quando é que a lei entra em vigor?

A Lei da IA da UE entra em vigor a partir de1 de agostode 2024, mas as suas obrigações de conformidade escalonadas entrarão em vigor por fases ao longo de vários anos. Por exemplo, as organizações devem cumprir as proibições do AI Act da UE no prazo de seis meses (2 de fevereiro de 2025) e garantir que estão em conformidade com a maioria das obrigações do GPAI no prazo de um ano (2 de agosto de 2025). As organizações devem cumprir a maioria das outras obrigações no prazo de dois anos (2 de agosto de 2026).

Quais são as sanções em caso de incumprimento?

As sanções são significativas. Uma empresa pode ser multada até 35 milhões de euros ou 7% do seu volume de negócios anual (receitas) a nível mundial, consoante o montante mais elevado, por violar os requisitos proibidos do sistema de IA. O não cumprimento dos requisitos do sistema de IA de alto risco pode resultar numa coima até 15 milhões de euros ou 3% do volume de negócios anual a nível mundial, mais uma vez dependendo do que for maior. O fornecimento de informações incorrectas ou enganosas às autoridades reguladoras pode dar origem a uma coima até 7,5 milhões de euros ou 1% do volume de negócios anual a nível mundial.

É útil notar que a maioria dos sistemas de IA já existentes no mercado (exceto os proibidos) não terá de cumprir retroactivamente, a menos que tenham sido objecto de alterações substanciais após as datas de aplicação.

O que deve fazer para se preparar para a Lei?

Considere as seguintes acções:

1. Crie um inventário de todos os sistemas de IA que possui - ou planeia possuir - e determine se algum deles é abrangido pelo âmbito de aplicação do AI Act da UE.

2. Avaliar e categorizar os sistemas de IA abrangidos para determinar a sua classificação de risco e identificar os requisitos de conformidade aplicáveis.

3. Compreenda a posição da sua organização nas cadeias de valor relevantes da IA, as obrigações de conformidade associadas e a forma como estas serão cumpridas. Incorporar a conformidade em todas as funções responsáveis ao longo da cadeia de valor, durante todo o ciclo de vida do sistema de IA.

4. Pense noutras questões, riscos e oportunidades que a Lei da IA da UE coloca às suas operações e estratégia.

  • Os riscos incluem a interação com outros regulamentos da UE ou de fora da UE, incluindo os relativos à privacidade dos dados.
  • As oportunidades podem envolver o acesso a canais de investigação e desenvolvimento de IA. A UE está, por exemplo, a criar "caixas de areia" onde os inovadores, as pequenas e médias empresas e outros podem optar por experimentar, testar, formar e validar os seus sistemas sob supervisão regulamentar antes de os colocar no mercado.

5. Desenvolva e execute um plano para garantir que os quadros adequados de responsabilidade e governação, os sistemas de gestão e controlo dos riscos, a gestão da qualidade, o acompanhamento e a documentação estejam em vigor quando a lei entrar em vigor. 

Resumo 

O cumprimento da Lei da IA da UE exigirá uma grande preparação para as organizações abrangidas, em especial as que desenvolvem sistemas de IA de alto risco e IA de uso geral. No entanto, a Lei da IA da UE estabelece uma base comum de confiança, transparência e responsabilidade para esta tecnologia em rápido desenvolvimento.

About this article