
Entender a regulação da IA nos EUA é fundamental, já que o país é, atualmente, o maior desenvolvedor e polo global dessa tecnologia — seguido de longe pela China. As principais empresas do setor, como OpenAI (ChatGPT), Google (Gemini), Microsoft (Copilot), Meta e X (Grok), nasceram e operam nos EUA.
A primeira iniciativa abrangente de regulação federal foi a Executive Order (EO) 14110, publicada em outubro de 2023 durante a administração Biden. O texto estabelecia diretrizes amplas para o desenvolvimento seguro, confiável e ético da IA, com foco na proteção de direitos, mitigação de riscos e promoção da inovação responsável.
A EO 14110 adotou um modelo descentralizado, no qual diversas agências federais receberam atribuições específicas. O objetivo era enfrentar riscos como viés algorítmico, impactos no mercado de trabalho, privacidade, segurança nacional e concorrência global. Entre as medidas previstas estavam:
- Mapeamento de riscos setoriais por cada órgão federal;
- Desenvolvimento de testes de segurança e confiabilidade pelo NIST (Instituto Nacional de Padrões e Tecnologia);
- Estímulo à adoção de marca d’água para conteúdos gerados por IA;
- Monitoramento de riscos químicos, radiológicos, biológicos e nucleares relacionados à IA, a cargo dos Departamentos de Energia e de Segurança Interna;
- Nomeação de “Chief AI Officers” e criação de planos de gestão de risco em todas as agências federais.
Mudança de rumo sob a administração Trump
Com o início do governo Donald Trump, em 20 janeiro de 2025, a EO 14110 foi revogada, marcando uma nova fase de desregulamentação sob o argumento de que as regras anteriores “limitavam a inovação” e impunham “custos excessivos” ao setor.
Em julho de 2025, a nova administração lançou o plano “Winning the Race: America’s AI Action Plan”, voltado a garantir a liderança global dos EUA em IA, com foco estratégico na competitividade frente à China. O plano estrutura-se em três pilares principais, que somam mais de 90 medidas de política pública:
Pilar I – Acelerar a Inovação em IA (“Accelerate AI Innovation”)
Promover o rápido desenvolvimento da IA, inclusive com apoio a modelos open-source e open-weight; revisar normas federais que possam inibir a inovação; e implementar “sandboxes” regulatórios.
Pilar II – Construir a Infraestrutura Americana de IA (“Build American AI Infrastructure”)
Expandir a infraestrutura física e digital necessária para o avanço da IA — data centers, semicondutores e energia elétrica; restaurar a manufatura doméstica de chips e garantir a segurança cibernética e física das instalações críticas.
Pilar III – Liderar em Diplomacia e Segurança Internacional de IA (“Lead in International AI Diplomacy & Security”)
Fortalecer a exportação de tecnologias americanas, coordenar padrões e normas internacionais em fóruns multilaterais e assegurar que os valores e interesses dos EUA estejam refletidos na governança global da IA.
Novas ordens executivas (2025)
Além do AI Action Plan, foram publicadas três novas Executive Orders (EOs) em 2025:
- Executive Order 14318 – Facilita a rápida construção e implantação de centros de dados, especialmente voltados para IA. Define critérios de elegibilidade para projetos de Data Centers que possam receber empréstimos, garantias, subsídios e incentivos fiscais.
- Executive Order 14319 – Estabelece os “Unbiased AI Principles” (Princípios de IA sem viés) para contratações federais, onde os sistemas de IA devem ser neutros e não partidarizados, evitando vieses associados a pautas ideológicas como diversity, equity and inclusion (DEI).
- Executive Order 14320 – Cria o American AI Exports Program, coordenado pelo Departamento de Comércio, para expandir a exportação de tecnologias de IA dos EUA. O programa mobiliza o Economic Diplomacy Action Group (EDAG), sob liderança do Secretário de Estado, para coordenar diplomacia, financiamento, cooperação com aliados e identificação de mercados estratégicos.
O quadro atual
A regulação da IA nos EUA, portanto, tem caráter predominantemente pró-inovação, com foco em crescimento econômico e competitividade, diferindo do modelo mais restritivo e protetivo da União Europeia – baseado em níveis de risco pré-definidos (inaceitável, alto, limitado e mínimo) – e do projeto de lei brasileiro (PL 2.338/2023).
Diante da lacuna regulatória federal nos EUA, vários estados norte-americanos começaram a agir de forma autônoma. A Califórnia, por exemplo, aprovou novas leis relacionadas à IA, com foco especial na proteção de crianças e adolescentes. Fontes como o The National Conference of State Legislatures (NCSL) e o US State AI Governance Legislation Tracker, mantido pelo IAPP, reúnem e atualizam informações sobre as legislações estaduais de IA.
Por outro lado, há preocupações de que a ausência de uma regulação federal possa, na prática, levar à proliferação de legislações estaduais sobre IA — criando um emaranhado normativo que iria contra a intenção inicial da administração Trump de promover um ambiente mais desregulamentado.
Outro ponto de destaque é que diversos atores têm defendido a necessidade de uma regulação global da IA. Nesse aspecto, o governo Trump já deixou claro que não apoiará tais iniciativas.
Conclusão
Acompanhar a evolução da regulação da IA nos EUA é essencial. A influência econômica, tecnológica e diplomática do país significa que as decisões tomadas em Washington tendem a reverberar globalmente, moldando o futuro das políticas de IA em outras regiões — inclusive na Europa e América Latina.
Iremos continuar acompanhando as notícias e as novidades do ponto de vista da regulação e dos riscos da IA.
Quer ver outros artigos sobre IA? Artigos



