Skip to content
cropped-Logo-2.png

Tudo sobre Regulação & Avaliação de IA, no Brasil e no Mundo

Primary Menu
  • Artigos
  • Regulação
    • Brasil
    • EUA
    • Europa
    • Direitos Autorais
    • Responsabilidade Civil
  • Avaliação
    • Auditoria
    • Testes
    • Riscos
      • Incidentes
      • Segurança
      • AI Psychosis
  • Referências
    • Instituições
    • Legislações
  • Home
  • Avaliação
  • Riscos
  • Personalidades se unem por proibição do desenvolvimento de IA
  • Riscos
  • Segurança

Personalidades se unem por proibição do desenvolvimento de IA

Redação 26/10/2025

O Future of Life Institute atualizou o documento Statement on Superintelligence, solicitando a proibição do desenvolvimento de IA — a ser mantida até que haja amplo consenso científico de que essa tecnologia pode ser desenvolvida de forma segura e controlável.

O Statement é assinado por diversas personalidades de diferentes áreas, entre elas:

  • Geoffrey Hinton, laureado com o Prêmio Turing (conhecido como o “Nobel da computação”);
  • Steve Wozniak, cofundador da Apple;
  • Steve Bannon, ex-estrategista-chefe do presidente Donald Trump;
  • Susan Rice, ex-conselheira de Segurança Nacional no governo Obama;
  • e, mais recentemente, o Príncipe Harry, Duque de Sussex.

O Future of Life Institute é uma organização apolítica e sem fins lucrativos, com o objetivo de reduzir riscos existenciais causados por tecnologias transformadoras. A entidade atua na melhoria da governança da IA e na redução do risco de guerra nuclear, por meio de iniciativas como:

  • a defesa de um tratado sobre armas autônomas nas Nações Unidas,
  • a promoção de um AI Act mais robusto na União Europeia,
  • e o incentivo a um marco mais sólido de gestão de riscos de IA nos Estados Unidos.

Segundo o Instituto, a superinteligência “levanta preocupações que vão desde a obsolescência e perda de poder econômico humano até riscos à liberdade, dignidade, segurança nacional — e até mesmo a possível extinção da humanidade.”, por isto solicita a proibição do desenvolvimento de IA até que possa ser desenvolvida de forma segura e controlável.

Quer entender por que é importante a regulação da IA? Leia nosso artigo: Regulação da IA: por que e como regular a Inteligência Artificial

Post navigation

Previous: ANPD realiza tomada de subsídios para revisar Agenda Regulatória 2025–2026
Next: Leis estaduais de IA avançam nos EUA na ausência de lei federal

Notícias relacionadas

adventure-8013826_1280
  • AI Psychosis
  • Riscos

Novas ações contra o ChatGPT por “AI Psychosis”

Redação 20/11/2025
Sem título 2
  • Riscos

Percepção dos riscos da IA: globalmente, preocupação supera entusiasmo

Redação 31/10/2025
Gemini_Generated_Image_vhmmi6vhmmi6vhmm
  • Artigos
  • Riscos

Quais são os principais riscos da IA?

Redação 30/10/2025

Archives

  • novembro 2025
  • outubro 2025

Categories

  • AI Psychosis
  • Artigos
  • Auditoria
  • Brasil
  • Direitos Autorais
  • Estudos
  • EUA
  • Europa
  • Incidentes
  • Regulação
  • Responsabilidade Civil
  • Riscos
  • Segurança
  • Testes
  • Política de Privacidade
  • Termos & Condições
  • Informações de Contato
  • Sobre Nós
Copyright © All rights reserved. O conteúdo pode ser reproduzido, desde que a fonte seja mencionada e o link da publicação original seja incluído. | MoreNews by AF themes.