Entrou em vigor uma lei inédita para regular a Inteligência Artificial na União Europeia
O AI Act é o primeiro quadro jurídico em matéria de Inteligência Artificial, que aborda os riscos da IA e posiciona a Europa para desempenhar um papel de liderança a nível mundial.
Esta é a primeira estrutura legal abrangente sobre IA em todo o mundo. O objetivo das novas regras é promover uma IA fiável na Europa e fora dela, assegurando que os sistemas de IA respeitam os direitos fundamentais, a segurança e os princípios éticos e abordando os riscos de modelos de IA muito poderosos e impactantes.
As novas regras:
- lidar com os riscos criados especificamente por aplicativos de IA
- proibir práticas de IA que representem riscos inaceitáveis
- Determinar uma lista de aplicativos de alto risco
- definir requisitos claros para sistemas de IA para aplicações de alto risco
- definir obrigações específicas implantadores e provedores de aplicativos de IA de alto risco
- exigir uma avaliação da conformidade antes de um determinado sistema de IA ser colocado em serviço ou colocado no mercado
- aplicar a aplicação da lei depois de um determinado sistema de IA ser colocado no mercado
- estabelecer uma estrutura de governação a nível europeu e nacional
O AI Act divide os sistemas de IA numa hierarquia de riscos: risco mínimo, risco específico de transparência, risco elevado e risco inaceitável.
- Risco mínimo: encontram-se os sistemas que fazem recomendações – por exemplo, publicidades com base nos conteúdos consumidos -e não representam qualquer problema para os cidadãos.
- Risco específico: entram os chatbots, que devem informar claramente aos utilizadores de que estão a interagir com uma máquina e se forem deep fakes têm de ser identificados dessa forma.
- Risco elevado: entram os algoritmos que mexem verdadeiramente com a vida das pessoas e podem causar obstáculos ao desenvolvimento ou à vida dos cidadãos, entre os quais os que fazem recrutamento, avaliam se alguém tem direito a empréstimo ou gerem robôs autónomos. Aí terão obrigações concretas de controlo humano, login e registo de atividade, entre outras.
- Risco inaceitável: abrange brinquedos para menores que recorrem à assistência por voz para incentivar comportamentos perigosos, sistemas de governos e organizações que fazem “pontuação social” e aplicações de policiamento preditivo.
Os 27 países da UE têm até 2 de agosto de 2025 para designar autoridades nacionais competentes que se encarreguem de supervisionar a aplicação destas regras e fazerem fiscalização ao mercado.
Veja o vídeo: https://twitter.com/vonderleyen/status/1818907654921535707
Saber mais:
AI Act: Regulamento europeu da Inteligência Artificial entra em vigor (sapo.pt)