Skip to content
cropped-Logo-2.png

Tudo sobre Regulação & Avaliação de IA, no Brasil e no Mundo

Primary Menu
  • Artigos
  • Regulação
    • Brasil
    • EUA
    • Europa
    • Direitos Autorais
    • Responsabilidade Civil
  • Avaliação
    • Auditoria
    • Riscos
      • Incidentes
      • AI Psychosis
      • Deepfake
      • Segurança
    • Testes
  • Referências
    • Benchmarks
    • Instituições
    • Legislações
  • Home
  • Regulação
  • RAISE Act – Projeto de Lei de IA de Nova York
  • EUA
  • Regulação

RAISE Act – Projeto de Lei de IA de Nova York

Redação 04/12/2025 3 minutes read

Após a aprovação da Lei de IA da Califórnia, Nova York se prepara para regulamentar a inteligência artificial em nível estadual com a proposta Responsible AI Safety and Education Act (RAISE Act).

O Projeto de Lei de IA de Nova York: RAISE Act estabelece obrigações de transparência, testes de segurança e reporte de incidentes para os maiores provedores de modelos de IA. A lei se aplica a “desenvolvedores de grande porte” (“large developers”) que treinaram pelo menos um modelo de IA de fronteira (“frontier model”) e gastaram mais de US$ 100 milhões em custos de computação agregados — um critério distinto do modelo californiano, que se baseia em empresas com receita anual superior a US$ 500 milhões.

Principais obrigações

Entre as exigências da lei, destacam-se:

  • Implementar um protocolo escrito de segurança e proteções (safety & security protocol).
  • Registrar e reter informações detalhadas sobre os testes realizados.
  • Implementar salvaguardas adequadas para prevenir riscos de dano crítico.

A lei proíbe a implantação de um modelo que crie risco não razoável de dano crítico, definido como:

  • Morte ou ferimento grave de 100 ou mais pessoas, ou
  • Danos financeiros ou materiais superiores a US$ 1 bilhão, causados ou facilitados pelo uso, armazenamento ou liberação do modelo.

Relato de incidentes

O desenvolvedor deve reportar cada incidente de segurança em até 72 horas após tomar conhecimento. Exemplos de incidentes incluem:

  • Modelo agindo autonomamente sem solicitação de usuário;
  • Roubo, uso indevido, liberação inadvertida, acesso não autorizado ou “escape” dos pesos do modelo;
  • Falhas críticas em controles técnicos ou administrativos;
  • Uso não autorizado do modelo.

Penalidades

A lei prevê penalidades civis de até US$ 10 milhões para a primeira violação e US$ 30 milhões para violações subsequentes.

Objetivo e contexto

Segundo a justificativa oficial, o RAISE Act busca definir proteções e procedimentos razoáveis que, se implementados corretamente, reduzam de forma eficaz o risco de danos críticos decorrentes do uso da IA.

Reportagens citam que a iniciativa enfrenta resistência, com lobby intenso e campanhas em redes sociais, mas conta com apoio de grupos trabalhistas, startups, investidores e especialistas em IA. Pesquisas indicam que 84% dos nova-iorquinos apoiam a legislação.

Se quiser se aprofundar, já discutimos anteriormente como funciona a regulação de IA nos EUA e os desafios da proliferação de leis estaduais sobre inteligência artificial.

Post navigation

Previous: Avaliação da IA: o que é e como funciona
Next: Nova Executive Order dos EUA busca bloquear leis estaduais de IA

Notícias relacionadas

PAx
  • EUA

Pax Silica: a nova estratégia dos EUA para a cadeia de IA

Redação 16/01/2026 0
ai-generated-8959863_1280
  • AI Psychosis
  • Regulação

China propõe regulamentação sobre a “influência emocional” da IA

Redação 08/01/2026 0
Captura de tela 2025-12-26 234518
  • Regulação

Austrália: regulações específicas para IA apenas como último recurso

Redação 05/01/2026 0

Archives

  • fevereiro 2026
  • janeiro 2026
  • dezembro 2025
  • novembro 2025
  • outubro 2025

Categories

  • AI Psychosis
  • Artigos
  • Auditoria
  • Avaliação
  • Brasil
  • Deepfake
  • Direitos Autorais
  • Estudos
  • EUA
  • Europa
  • Incidentes
  • Regulação
  • Responsabilidade Civil
  • Riscos
  • Segurança
  • Testes
  • Política de Privacidade
  • Termos & Condições
  • Informações de Contato
  • Sobre Nós
Copyright © All rights reserved. O conteúdo pode ser reproduzido, desde que a fonte seja mencionada e o link da publicação original seja incluído. | MoreNews by AF themes.