
Em 2024, o Parlamento Europeu aprovou o AI Act, a primeira legislação abrangente voltada à regulação da IA na Europa. Trata-se do Regulamento (UE) 2024/1689, diretamente aplicável aos Estados-Membros, com implementação gradual.
O objetivo central é garantir que os sistemas de IA sejam confiáveis, seguros e respeitem os direitos fundamentais dos cidadãos, e, ao mesmo tempo, fomentar a adoção da tecnologia. Assim, a UE busca — ou ao menos declara buscar — um equilíbrio entre inovação e proteção.
Principais pontos do AI Act
1. Âmbito e aplicação
O regulamento aplica-se a fornecedores e utilizadores de sistemas de IA no mercado europeu, bem como a sistemas desenvolvidos fora da UE cujo resultado (output) seja utilizado dentro da região. Estão previstas exceções para sistemas usados exclusivamente para fins militares ou de defesa, ou em determinados contextos de pesquisa científica.
2. Classificação de risco
Um dos pilares do AI Act é a abordagem baseada em risco, que classifica os sistemas de IA em quatro categorias principais:
- Risco inaceitável – usos proibidos por representarem ameaça a direitos ou segurança.
- Risco elevado (high-risk) – permitidos, mas sujeitos a requisitos rigorosos antes de entrarem no mercado.
- Risco limitado (limited risk) – sistemas com obrigações mais leves, como requisitos de transparência.
- Risco mínimo ou nulo (minimal or no risk) – a maioria das aplicações, sujeitas a pouca ou nenhuma obrigação adicional.
3. Práticas proibidas
Na categoria de risco inaceitável, o regulamento proíbe explicitamente usos como:
- sistemas de pontuação social (“social scoring”) baseados em comportamento individual;
- sistemas de manipulação do comportamento humano que explorem vulnerabilidades específicas;
- categorização biométrica em larga escala.
4. Regras para sistemas de risco elevado
Sistemas classificados como de alto risco deverão cumprir obrigações rigorosas, incluindo:
- avaliação de impacto sobre direitos fundamentais, saúde e segurança;
- supervisão humana efetiva;
- monitoramento pós-comercialização e notificação de incidentes;
- documentação técnica e rastreabilidade dos dados de treino;
- robustez, segurança, mitigação de vieses e proteção à privacidade.
5. Modelos de finalidade geral (General-Purpose AI – GPAI)
O AI Act também contempla os modelos de finalidade geral, que podem ser adaptados a múltiplas tarefas. Quando considerados de risco sistêmico, esses modelos deverão cumprir requisitos adicionais de mitigação de risco, transparência (ex.: divulgação de dados de treino, testes de segurança e fontes de financiamento) e, em alguns casos, estarão sujeitos a supervisão reforçada.
6. Governança e fiscalização
O regulamento estabelece uma estrutura de governança multinível, composta por:
- um AI Office na Comissão Europeia, responsável por coordenar a aplicação das regras;
- um painel científico de peritos independentes para avaliação de riscos em grandes modelos;
- um AI Board, formado por representantes dos Estados-Membros, para assegurar a aplicação coerente e a coordenação geral.
7. Sanções e conformidade
O AI Act prevê multas severas para o não cumprimento das normas — podendo chegar a 35 milhões de euros ou 7% do volume de negócios global da empresa (o que for maior), no caso de infrações graves como o uso de sistemas proibidos.
8. Prazos de implementação
Embora o regulamento entre em vigor logo após sua publicação, as obrigações serão aplicadas de forma faseada, para permitir adaptação de empresas e autoridades nacionais. Exemplos:
- 6 meses após a entrada em vigor – proibições;
- 12, 24 ou 36 meses – obrigações para sistemas de risco elevado.
Impactos esperados
Com essa estrutura, a UE espera promover o uso responsável e confiável da IA, assegurando que a tecnologia seja “humano-centrada, digna de confiança e segura”. O objetivo é prevenir danos, proteger direitos fundamentais e estimular a inovação responsável.
Críticas e o desafio europeu: regulação versus estímulo
Apesar dos avanços, o AI Act tem sido alvo de críticas significativas, centradas na percepção de que a Europa prioriza a regulação em detrimento do estímulo à inovação, o que poderia colocá-la em desvantagem frente aos Estados Unidos e à China.
Recentemente, líderes empresariais de mais de 45 organizações enviaram uma carta à Comissão Europeia solicitando o adiamento, por dois anos, da entrada em vigor das regras, defendendo uma abordagem regulatória mais “favorável à inovação”.
A crítica central é que, ao enfatizar a precaução e a proteção, a UE pode estar sacrificando agilidade, experimentação e competitividade. Startups europeias, por exemplo, podem enfrentar custos de conformidade elevados, barreiras burocráticas e incertezas regulatórias, o que desincentiva soluções inovadoras.
Enquanto isso, os EUA mantêm um ambiente mais flexível e orientado ao mercado, e a China aposta em investimentos estatais massivos e no tamanho do seu mercado interno para impulsionar sua liderança em IA.
Considerações finais
Em síntese, o AI Act representa um marco histórico — a primeira legislação global de caráter abrangente e harmonizado sobre inteligência artificial. Ele estabelece uma base regulatória para a regulação da IA na Europa buscando garantir segurança, confiança e respeito aos direitos fundamentais.
Contudo, o grande desafio europeu será equilibrar regulação e inovação. Se a ênfase permanecer excessivamente na regulação, a Europa corre o risco de consolidar-se como referência normativa, mas não como líder tecnológica no cenário global da IA.



