
O Future of Life Institute atualizou o documento Statement on Superintelligence, solicitando a proibição do desenvolvimento de IA — a ser mantida até que haja amplo consenso científico de que essa tecnologia pode ser desenvolvida de forma segura e controlável.
O Statement é assinado por diversas personalidades de diferentes áreas, entre elas:
- Geoffrey Hinton, laureado com o Prêmio Turing (conhecido como o “Nobel da computação”);
- Steve Wozniak, cofundador da Apple;
- Steve Bannon, ex-estrategista-chefe do presidente Donald Trump;
- Susan Rice, ex-conselheira de Segurança Nacional no governo Obama;
- e, mais recentemente, o Príncipe Harry, Duque de Sussex.
O Future of Life Institute é uma organização apolítica e sem fins lucrativos, com o objetivo de reduzir riscos existenciais causados por tecnologias transformadoras. A entidade atua na melhoria da governança da IA e na redução do risco de guerra nuclear, por meio de iniciativas como:
- a defesa de um tratado sobre armas autônomas nas Nações Unidas,
- a promoção de um AI Act mais robusto na União Europeia,
- e o incentivo a um marco mais sólido de gestão de riscos de IA nos Estados Unidos.
Segundo o Instituto, a superinteligência “levanta preocupações que vão desde a obsolescência e perda de poder econômico humano até riscos à liberdade, dignidade, segurança nacional — e até mesmo a possível extinção da humanidade.”, por isto solicita a proibição do desenvolvimento de IA até que possa ser desenvolvida de forma segura e controlável.
Quer entender por que é importante a regulação da IA? Leia nosso artigo: Regulação da IA: por que e como regular a Inteligência Artificial



