A União Europeia iniciou formalmente a aplicação de sua histórica lei de inteligência artificial no domingo, abrindo caminho para restrições severas e potenciais multas altas por violações.
A Lei de IA da UE, uma estrutura regulatória pioneira para a tecnologia, entrou formalmente em vigor em agosto de 2024.
No domingo, o prazo para proibições de certos sistemas de inteligência artificial e requisitos para garantir conhecimento suficiente de tecnologia entre os funcionários expirou oficialmente.
Isso significa que as empresas agora devem cumprir as restrições e podem enfrentar penalidades se não o fizerem.
A Lei de IA proíbe certas aplicações de IA que considera representar “risco inaceitável” para os cidadãos.
Isso inclui sistemas de pontuação social, reconhecimento facial em tempo real e outras formas de identificação biométrica que categorizam as pessoas por raça, vida sexual, orientação sexual e outros atributos, e ferramentas de IA “manipuladoras”.
As empresas enfrentam multas de até 35 milhões de euros (US$ 35,8 milhões) ou 7% de suas receitas anuais globais — o que for maior — por violações do EU AI Act.
O tamanho das penalidades dependerá da violação e do tamanho da empresa multada.
Isso é maior do que as multas possíveis sob o GDPR, a rigorosa lei de privacidade digital da Europa. As empresas enfrentam multas de até 20 milhões de euros ou 4% do faturamento global anual por violações do GDPR.
“Não é perfeito”, mas “muito necessário”
Vale a pena ressaltar que o AI Act ainda não está em pleno vigor — este é apenas o primeiro passo de uma série de muitos desenvolvimentos futuros.
Tasos Stampelos, chefe de política pública da UE e relações governamentais na Mozilla, disse à 365GGNEWS anteriormente que, embora “não seja perfeito”, o AI Act da UE é “muito necessário”.
“É muito importante reconhecer que o AI Act é predominantemente uma legislação de segurança de produtos”, disse Stampelos em um painel moderado pela 365GGNEWS em novembro.
“Com as regras de segurança de produtos, no momento em que você as coloca em prática, não é um acordo fechado. Há muitas coisas surgindo e seguindo após a adoção de um ato”, disse ele.
“No momento, a conformidade dependerá de como os padrões, diretrizes, legislação secundária ou instrumentos derivativos que seguem o AI Act, que realmente estipularão como será a conformidade”, acrescentou Stampelos.
Em dezembro, o EU AI Office, um órgão recém-criado que regula o uso de modelos de acordo com o AI Act, publicou um segundo rascunho de código de prática para modelos de IA de uso geral (GPAI), que se refere a sistemas como a família GPT de modelos de grandes linguagens da OpenAI, ou LLMs.
O segundo rascunho continha isenções para provedores de certos modelos de IA de código aberto, ao mesmo tempo em que incluía a exigência de que desenvolvedores de modelos GPAI “sistêmicos” passassem por avaliações de risco rigorosas.
Definindo o padrão global?
Vários executivos e investidores de tecnologia estão descontentes com alguns dos aspectos mais onerosos do AI Act e temem que ele possa estrangular a inovação.
Em junho de 2024, o príncipe Constantijn da Holanda disse à 365GGNEWS em uma entrevista que está “realmente preocupado” com o foco da Europa na regulamentação da IA.
“Nossa ambição parece estar limitada a ser bons reguladores”, disse Constantijn. “É bom ter barreiras. Queremos trazer clareza ao mercado, previsibilidade e tudo mais. Mas é muito difícil fazer isso em um espaço tão dinâmico.”
Ainda assim, alguns acham que ter regras claras para IA pode dar à Europa uma vantagem de liderança.
“Enquanto os EUA e a China competem para construir os maiores modelos de IA, a Europa está mostrando liderança na construção dos mais confiáveis”, disse Diyan Bogdanov, diretor de inteligência de engenharia e crescimento da empresa búlgara de fintech Payhawk, por e-mail.
“Os requisitos da Lei de IA da UE em torno da detecção de viés, avaliações regulares de risco e supervisão humana não estão limitando a inovação — eles estão definindo o que é bom”, acrescentou.