Num contexto tecnológico em rápida evolução, a União Europeia está a fazer incursões com um movimento histórico: a introdução da revolucionária Lei da IA (Vou te linkar para o texto). Este novo quadro regulamentar, que deverá ser votado em 2024, visa estabelecer novos padrões globais de segurança e transparência para os desenvolvedores de IA, incluindo OpenAI e outros. Com o objetivo de equilibrar a inovação e os direitos fundamentais, a Lei da IA poderá representar um ponto de viragem significativo na regulamentação da IA em todo o mundo.
O que a Lei de IA representa?
A Lei da IA, como mencionado, é um ponto de viragem na política tecnológica da UE, porque introduz um quadro abrangente para a segurança e transparência da inteligência artificial.
Após mais de 36 horas (tempo real) de intensas discussões, os responsáveis da UE finalizaram um conjunto de diretrizes, que são atualmente as mais rigorosas a nível mundial. Este ato estabelece a Europa como um exemplo para outras nações no domínio da regulamentação da IA.
Quais são os pontos da nova Lei de IA?
O núcleo da Lei de IA é a classificação de ferramentas e aplicativos de IA em três “categorias de risco”. As IAs com o mais alto nível de risco enfrentam um intenso escrutínio regulatório. Estes incluem veículos autónomos, ferramentas de infraestrutura crítica, dispositivos médicos e sistemas de identificação biométrica.
Estes sistemas de “alto risco” exigirão avaliações de impacto nos direitos fundamentais, requisitos rigorosos de transparência e terão de ser registados numa base de dados pública da UE.
Proibições e sanções
Além de definir categorias de risco, a Lei de IA proíbe categoricamente certos usos de inteligência artificial. Entre eles, o reconhecimento facial em tempo real (um objetivo perseguido há algum tempo), os sistemas de reconhecimento de emoções e de “crédito social” são proibidos.
As principais empresas de tecnologia dos EUA (como OpenAI e Google) que operam “sistemas de IA de uso geral”, terão de cumprir os novos padrões impostos pela UE. Estas incluem a atualização das autoridades da UE sobre os seus modelos de métodos de formação e a criação de políticas para aderir às leis de direitos de autor da UE.
As empresas de tecnologia que violarem essas regras poderão enfrentar multas significativas, que variam entre 1,5% e 7% do seu volume de negócios total. Muito? Pequeno? O suficiente para dissuadir ou não? Perguntas destinadas a permanecer sem resposta, por enquanto.
E aqui surgem dúvidas
Apesar do apoio generalizado, a Lei da IA levantou preocupações entre os especialistas europeus em privacidade. Alguns acreditam que o quadro dá pouca ênfase aos direitos humanos fundamentais, contrastando com abordagens anteriores, como o RGPD. Mais uma vez: existe a preocupação de que a abordagem baseada no risco possa não fornecer uma visão completa do impacto futuro de ferramentas de IA aparentemente de baixo risco.
Enquanto se aguarda a votação final em 2024 (e talvez algumas alterações), o impacto deste regulamento no panorama da IA continua a ser objeto de especulação. A rápida evolução da IA coloca desafios significativos à sua aplicação e eficácia a longo prazo.
A Lei da IA representa, no entanto, uma tentativa ambiciosa e louvável da União Europeia de navegar no complexo equilíbrio entre a inovação tecnológica e a protecção dos direitos fundamentais. Embora o caminho ainda seja incerto, a Lei da IA poderá servir de modelo para a regulação global da inteligência artificial, influenciando significativamente o futuro da tecnologia e da sociedade.