Já está em vigor a primeira regulamentação abrangente do mundo sobre a inteligência artificial (IA). O IA Act entrou formalmente em vigor na União Europeia a 1 de agosto, embora a maior parte da sua aplicação só arranque a partir de 2 de agosto de 2026.Pretende-se fomentar o desenvolvimento da tecnologia tendo em conta a defesa dos direitos fundamentais dos cidadãos e a harmonização na sua utilização, incentivando a adoção desta tecnologia e criando um ambiente favorável à inovação e ao investimento.
Em comunicado, a Comissão Europeia destaca que o IA Act foi concebido para garantir que a IA desenvolvida e utilizada na UE seja fiável, com salvaguardas para proteger os direitos fundamentais das pessoas. Para isso, introduz uma definição prospetiva de IA, baseada numa abordagem baseada na segurança dos produtos e no risco na UE.
Assim, é introduzida uma definição prospetiva de IA, com uma abordagem baseada na segurança dos produtos e no risco na UE:
- Risco mínimo: A maioria dos sistemas de IA, como os sistemas de recomendação baseados na IA e os filtros de spam, inserem-se nesta categoria. Estes sistemas não enfrentam obrigações, pelo seu risco mínimo para os direitos e a segurança dos cidadãos. As empresas podem adotar voluntariamente códigos de conduta adicionais.
- Risco específico de transparência: Os sistemas de IA, como os robôs de conversação, devem revelar claramente aos utilizadores que estão a interagir com uma máquina. Determinados conteúdos gerados por IA, incluindo falsificações profundas, devem ser rotulados como tal e os utilizadores têm de ser informados aquando da utilização de sistemas de categorização biométrica ou de reconhecimento de emoções. Além disso, os fornecedores terão de conceber sistemas de modo que os conteúdos áudio, vídeo, texto e imagens sintéticos sejam marcados num formato legível por máquina e detetáveis como artificialmente gerados ou manipulados.
- Risco elevado: Os sistemas deIA identificados como de risco elevado serão obrigados a cumprir requisitos rigorosos, incluindo sistemas de atenuação de riscos, conjuntos de dados de elevada qualidade, registo de atividade, documentação pormenorizada, informações claras sobre os utilizadores, supervisão humana e um elevado nível de robustez, exatidão e cibersegurança. Os ambientes de testagem da regulamentação facilitarão a inovação responsável e o desenvolvimento de sistemas de IA conformes. Esses sistemas de IA de risco elevado incluem, por exemplo, sistemas de IA utilizados para recrutamento ou para avaliar se alguém tem direito a obter um empréstimo ou a gerir robôs autónomos.
- Risco inaceitável: Os sistemas de IA considerados uma clara ameaça aos direitos fundamentais das pessoas serão proibidos. Incluem-se sistemas ou aplicações de IA que manipulam o comportamento humano para contornar a vontade livre dos utilizadores, tais como brinquedos que utilizam assistência vocal para incentivar um comportamento perigoso de menores, sistemas que permitem uma «pontuação social» por parte de governos ou empresas e determinadas aplicações de policiamento preditivo. Além disso, serão proibidas algumas utilizações de sistemas biométricos, por exemplo, sistemas de reconhecimento de emoções utilizados no local de trabalho e alguns sistemas de categorização de pessoas ou de identificação biométrica à distância em tempo real para fins de aplicação da lei em espaços acessíveis ao público (com exceções restritas).
Para complementar este sistema, o Regulamento da IA introduz regras para os chamados modelos de IA de finalidade geral, modelos altamente capazes de desempenhar uma grande variedade de tarefas, como a geração de texto semelhante ao ser humano. Os modelos de IA de finalidade geral são cada vez mais utilizados como componentes de aplicações de IA. O IA Act assegurará a transparência ao longo da cadeia de valor e abordará os possíveis riscos sistémicos dos modelos mais capazes.
Os estados-membros têm até 2 de agosto de 2025 para designar as autoridades nacionais competentes, que supervisionarão a aplicação das regras aplicáveis aos sistemas de IA e realizarão atividades de fiscalização do mercado. O Serviço IA da CE será o principal organismo de execução do IA Act ao nível da UE, bem como a entidade responsável pela aplicação das regras aplicáveis aos modelos de IA de finalidade geral.
Haverá três órgãos consultivos apoiarão a aplicação das regras. O Comité Europeu para a Inteligência Artificial assegurará uma aplicação uniforme em todos os estados-membros e funcionará como o principal organismo de cooperação entre a CE e os estados-membros. Um painel científico de peritos independentes prestará aconselhamento técnico e contributos sobre a aplicação da legislação. Em especial, este painel pode emitir alertas sobre os riscos associados a modelos de IA de finalidade geral. Poderá haver ainda orientações de um fórum consultivo, composto por um conjunto diversificado de partes interessadas.
As empresas que não cumpram as regras serão multadas, podendo as coimas alcançar 7% do volume de negócios anual mundial por violações de aplicações de IA proibidas, até 3% para as violações de outras obrigações e até 1,5% para o fornecimento de informações incorretas.
A maioria das regras começará a ser aplicável em 2 de agosto de 2026. No entanto, as proibições de sistemas de IA considerados como apresentando um risco inaceitável serão aplicáveis no prazo de seis meses e as regras para os chamados modelos de IA de finalidade geral serão aplicáveis no prazo de um ano.
Para colmatar o período de transição antes da plena aplicação, a Comissão lançou o Pacto para a IA. Esta iniciativa convida os criadores de IA a adotarem voluntariamente as principais obrigações antes dos prazos legais.
Manifestando algumas preocupações em torno as conclusões e medidas propostas
Oferecia 23 mil milhões de dólares pela empresa de cibersegurança