Skip to content
cropped-Logo-2.png

Tudo sobre Regulação & Avaliação de IA, no Brasil e no Mundo

Primary Menu
  • Artigos
  • Regulação
    • Brasil
    • EUA
    • Europa
    • Direitos Autorais
    • Responsabilidade Civil
  • Avaliação
    • Auditoria
    • Testes
    • Riscos
      • Incidentes
      • Segurança
      • AI Psychosis
  • Referências
    • Instituições
    • Legislações
  • Home
  • Avaliação
  • Riscos
  • Novas ações contra o ChatGPT por “AI Psychosis”
  • AI Psychosis
  • Riscos

Novas ações contra o ChatGPT por “AI Psychosis”

Redação 20/11/2025
Imagem: Pixabay

O Tech Justice Law Project e o Social Media Victims Law Center entraram com sete ações judiciais na Califórnia contra a OpenAI, desenvolvedora do ChatGPT, alegando que o lançamento do modelo GPT-4o teria sido feito de forma prematura e sem as devidas salvaguardas de segurança psicológica, contribuindo para o fenômeno da “AI Psychosis“.

Segundo as petições, o GPT-4o teria apresentado comportamento “perigosamente bajulador” e “psicologicamente manipulativo”, o que teria estimulado dependência emocional, substituído relações humanas e, em casos mais graves, contribuído para delírios, vícios e até suicídios. As ações acusam o sistema de ter, em certos momentos, atuado como um “treinador de suicídio” (suicide coach) — termo que tem sido usado para descrever situações em que a IA teria reforçado ideias autodestrutivas em usuários vulneráveis.

Das sete ações apresentadas, quatro envolvem casos de suicídio, enquanto três foram movidas por sobreviventes ou familiares de pessoas que teriam desenvolvido dependência psicológica ou sintomas de “psicose induzida por IA” (AI Psychosis) após longas interações com o chatbot.

Casos citados nas ações

  • Zane Shamblin — jovem que, segundo os advogados, passou semanas interagindo com o ChatGPT em busca de apoio emocional antes de tirar a própria vida. A ação alega que a IA teria oferecido respostas que reforçaram a ideia de suicídio.
  • Amaurie Lacey — estudante universitária diagnosticada com depressão. A família afirma que a IA forneceu conselhos inadequados e mensagens encorajando o afastamento social, agravando o quadro clínico.
  • Joshua Enneking — adulto em tratamento para transtorno bipolar. Os advogados alegam que o ChatGPT teria encorajado a execução de um plano de suicídio.
  • Joseph Martin Ceccanti — caso em que a vítima teria sido induzida a acreditar que o ChatGPT “o compreendia melhor que qualquer pessoa”, levando ao isolamento extremo. A queixa alega que uso prolongado e as respostas do chatbot contribuíram para o suicídio.
  • Jacob Lee Irwin — sobrevivente que relatou sintomas de “despersonalização” após uso prolongado do chatbot em conversas noturnas, as quais teriam reforçaram delírios e resultaram em crise mental hospitalizante.
  • Hannah Madden — adolescente que usava o ChatGPT para falar sobre autoestima e ansiedade. Segundo os pais, a IA reforçava padrões negativos de autopercepção, induziu gastos e levou a hospitalização e prejuízos financeiros.
  • Allan Brooks — usuário diagnosticado com esquizofrenia, cujo advogado afirma que o ChatGPT teria intensificado delírios persecutórios através de respostas que confirmavam suas crenças distorcidas, causando crise mental e danos reputacionais/financeiros.

Resposta da OpenAI

Diante do aumento das preocupações públicas e jurídicas, a OpenAI anunciou novas medidas de segurança, incluindo controles parentais e sistemas de alerta. Agora, os responsáveis podem ser notificados se menores de idade discutirem temas sensíveis como suicídio ou automutilação durante o uso do ChatGPT.

A empresa também reforçou políticas de intervenção ética e encaminhamento automatizado para linhas de ajuda, como o CVV (no Brasil) ou o 988 Suicide and Crisis Lifeline (nos EUA), quando detecta linguagem de risco.

Pressão por regulação

Apesar dessas medidas, os novos processos reacenderam o debate sobre a regulação de sistemas de IA conversacional e a proteção de usuários vulneráveis. Especialistas pedem a criação de limites etários obrigatórios e protocolos de triagem psicológica para detectar casos de dependência, psicose ou ideação suicida.

Há também quem defenda que, em contextos de risco mental grave, a IA seja programada para interromper a interação e redirecionar o usuário para atendimento médico especializado.

Quer saber mais sobre AI Psychosis? AI Psychosis

Post navigation

Previous: A Regulação da IA no Japão: foco na inovação
Next: Regulação da IA na China

Notícias relacionadas

Sem título 2
  • Riscos

Percepção dos riscos da IA: globalmente, preocupação supera entusiasmo

Redação 31/10/2025
Gemini_Generated_Image_vhmmi6vhmmi6vhmm
  • Artigos
  • Riscos

Quais são os principais riscos da IA?

Redação 30/10/2025
Future_of_Life_Institute_logo.svg
  • Riscos
  • Segurança

Personalidades se unem por proibição do desenvolvimento de IA

Redação 26/10/2025

Archives

  • novembro 2025
  • outubro 2025

Categories

  • AI Psychosis
  • Artigos
  • Auditoria
  • Brasil
  • Direitos Autorais
  • Estudos
  • EUA
  • Europa
  • Incidentes
  • Regulação
  • Responsabilidade Civil
  • Riscos
  • Segurança
  • Testes
  • Política de Privacidade
  • Termos & Condições
  • Informações de Contato
  • Sobre Nós
Copyright © All rights reserved. O conteúdo pode ser reproduzido, desde que a fonte seja mencionada e o link da publicação original seja incluído. | MoreNews by AF themes.