Skip to content
cropped-Logo-2.png

Tudo sobre Regulação & Avaliação de IA, no Brasil e no Mundo

Primary Menu
  • Artigos
  • Regulação
    • Brasil
    • EUA
    • Europa
    • Direitos Autorais
    • Responsabilidade Civil
  • Avaliação
    • Auditoria
    • Testes
    • Riscos
      • Incidentes
      • Segurança
      • AI Psychosis
  • Referências
    • Instituições
    • Legislações
  • Home
  • Regulação
  • RAISE Act – Projeto de Lei de IA de Nova York
  • EUA
  • Regulação

RAISE Act – Projeto de Lei de IA de Nova York

Redação 04/12/2025

Após a aprovação da Lei de IA da Califórnia, Nova York se prepara para regulamentar a inteligência artificial em nível estadual com a proposta Responsible AI Safety and Education Act (RAISE Act).

O Projeto de Lei de IA de Nova York: RAISE Act estabelece obrigações de transparência, testes de segurança e reporte de incidentes para os maiores provedores de modelos de IA. A lei se aplica a “desenvolvedores de grande porte” (“large developers”) que treinaram pelo menos um modelo de IA de fronteira (“frontier model”) e gastaram mais de US$ 100 milhões em custos de computação agregados — um critério distinto do modelo californiano, que se baseia em empresas com receita anual superior a US$ 500 milhões.

Principais obrigações

Entre as exigências da lei, destacam-se:

  • Implementar um protocolo escrito de segurança e proteções (safety & security protocol).
  • Registrar e reter informações detalhadas sobre os testes realizados.
  • Implementar salvaguardas adequadas para prevenir riscos de dano crítico.

A lei proíbe a implantação de um modelo que crie risco não razoável de dano crítico, definido como:

  • Morte ou ferimento grave de 100 ou mais pessoas, ou
  • Danos financeiros ou materiais superiores a US$ 1 bilhão, causados ou facilitados pelo uso, armazenamento ou liberação do modelo.

Relato de incidentes

O desenvolvedor deve reportar cada incidente de segurança em até 72 horas após tomar conhecimento. Exemplos de incidentes incluem:

  • Modelo agindo autonomamente sem solicitação de usuário;
  • Roubo, uso indevido, liberação inadvertida, acesso não autorizado ou “escape” dos pesos do modelo;
  • Falhas críticas em controles técnicos ou administrativos;
  • Uso não autorizado do modelo.

Penalidades

A lei prevê penalidades civis de até US$ 10 milhões para a primeira violação e US$ 30 milhões para violações subsequentes.

Objetivo e contexto

Segundo a justificativa oficial, o RAISE Act busca definir proteções e procedimentos razoáveis que, se implementados corretamente, reduzam de forma eficaz o risco de danos críticos decorrentes do uso da IA.

Reportagens citam que a iniciativa enfrenta resistência, com lobby intenso e campanhas em redes sociais, mas conta com apoio de grupos trabalhistas, startups, investidores e especialistas em IA. Pesquisas indicam que 84% dos nova-iorquinos apoiam a legislação.

Se quiser se aprofundar, já discutimos anteriormente como funciona a regulação de IA nos EUA e os desafios da proliferação de leis estaduais sobre inteligência artificial.

Post navigation

Previous: Avaliação da IA: o que é e como funciona

Notícias relacionadas

Regulação de IA na China
  • Artigos
  • Regulação

Regulação da IA na China

Redação 24/11/2025
lady-justice-2388500_1920
  • Artigos
  • Regulação

A Regulação da IA no Japão: foco na inovação

Redação 17/11/2025
Sem título 3
  • EUA
  • Europa
  • Regulação

Europa é a mais confiável para regular a IA que EUA e China, aponta pesquisa

Redação 05/11/2025

Archives

  • dezembro 2025
  • novembro 2025
  • outubro 2025

Categories

  • AI Psychosis
  • Artigos
  • Auditoria
  • Avaliação
  • Brasil
  • Direitos Autorais
  • Estudos
  • EUA
  • Europa
  • Incidentes
  • Regulação
  • Responsabilidade Civil
  • Riscos
  • Segurança
  • Testes
  • Política de Privacidade
  • Termos & Condições
  • Informações de Contato
  • Sobre Nós
Copyright © All rights reserved. O conteúdo pode ser reproduzido, desde que a fonte seja mencionada e o link da publicação original seja incluído. | MoreNews by AF themes.