Skip to content
cropped-Logo-2.png

Tudo sobre Regulação & Avaliação de IA, no Brasil e no Mundo

Primary Menu
  • Artigos
  • Regulação
    • Brasil
    • EUA
    • Europa
    • Direitos Autorais
    • Responsabilidade Civil
  • Avaliação
    • Auditoria
    • Riscos
      • Incidentes
      • AI Psychosis
      • Deepfake
      • Segurança
    • Testes
  • Referências
    • Benchmarks
    • Instituições
    • Legislações
  • Home
  • Regulação
  • China propõe regulamentação sobre a “influência emocional” da IA
  • AI Psychosis
  • Regulação

China propõe regulamentação sobre a “influência emocional” da IA

Redação 08/01/2026 3 minutes read
Imagem: Pixabay

Nos últimos dias de dezembro de 2025, a Administração do Ciberespaço da China (CAC) apresentou um projeto de regulamentação pioneiro focado em lidar com os chamados riscos de “influência emocional” de sistemas de IA — especialmente chatbots e serviços interativos que simulam personalidade humana. A consulta pública ao texto está aberta até 25 de janeiro de 2026.

Importante ressaltar que o foco é governança de serviços de IA que interagem emocionalmente com as pessoas, não todas as aplicações de IA em geral. Assim, o projeto estabelece que IA interativa de uso público não pode:

  • Gerar conteúdo que encoraje suicídio ou autolesão.
  • Incentivar violência ou manipulação emocional que prejudique a saúde mental dos usuários.
  • Criar conteúdo relacionado a jogos de azar, pornografia ou incitação a crimes.

Esses elementos representam uma tentativa explícita de limitar não apenas conteúdos ilegais tradicionais, mas também respostas que poderiam desencadear comportamentos perigosos através de interação emocional ou psicológica.

O texto determina que provedores de IA de interação humanizada:

  • devem reconhecer estados emocionais dos usuários, protegendo a privacidade;
  • identificar padrões de dependência ou extrema emoção;
  • intervir quando detectarem situações de risco (por exemplo, tristeza extrema, ideação suicida ou pensamentos auto-lesivos).

A proposta prevê que, quando o serviço identificar pedido explícito de suicídio ou autolesão, a conversa deve ser assumida por um humano e — se aplicável — notificar um contato de emergência ou responsável para o usuário.

Proteção especial para grupos vulneráveis

O regulamento ainda exige que, para menores de idade, os sistemas de IA devam operar em um modo específico para crianças e adolescentes, com limites de tempo de uso, exigência de consentimento do responsável legal e mecanismos que permitam ao responsável acompanhar e controlar a utilização do serviço.

Já em relação aos idosos, a proposta determina que os sistemas sejam capazes de identificar situações de risco e acionar um contato de emergência quando necessário, além de proibir expressamente a simulação de parentes, cuidadores ou pessoas próximas com o objetivo de manipular emocionalmente o usuário.

O texto também requer que provedores:

  • avaliem dependência e risco de vício emocional;
  • configurem alertas e limites de uso, como lembretes se a interação passar de 2 horas;
  • facilitem saída fácil do serviço, sem barreiras.

A proposta chinesa pode ser vista como um primeiro passo concreto para lidar com os riscos psicológicos do uso humanizado da IA, ao impor limites à interação afetiva, exigir detecção de estados emocionais extremos e prever intervenção humana em situações de risco. Deste modo, o regulador tenta mitigar fenômenos emergentes como dependência emocional e o chamado AI psychosis, em que usuários passam a atribuir autoridade, consciência ou vínculo excessivo às IAs.

Quer saber mais sobre influência emocional e AI psychosis: AI psychosis

Post navigation

Previous: Austrália: regulações específicas para IA apenas como último recurso
Next: Intelligence Index: novo benchmark de IA focado em tarefas do mundo real

Notícias relacionadas

-05 230417
  • Europa
  • Regulação

Espanha publica guias para sistemas de IA de alto risco sob o AI Act

Redação 06/02/2026 0
Captura de tela 2025-12-26 234518
  • Regulação

Austrália: regulações específicas para IA apenas como último recurso

Redação 05/01/2026 0
ChatGPT Image 17 de dez. de 2025, 16_48_36
  • Deepfake
  • Regulação

Coreia: rotulagem obrigatória para combater deepfakes de celebridades

Redação 19/12/2025 0

Archives

  • fevereiro 2026
  • janeiro 2026
  • dezembro 2025
  • novembro 2025
  • outubro 2025

Categories

  • AI Psychosis
  • Artigos
  • Auditoria
  • Avaliação
  • Brasil
  • Deepfake
  • Direitos Autorais
  • Estudos
  • EUA
  • Europa
  • Incidentes
  • Regulação
  • Responsabilidade Civil
  • Riscos
  • Segurança
  • Testes
  • Política de Privacidade
  • Termos & Condições
  • Informações de Contato
  • Sobre Nós
Copyright © All rights reserved. O conteúdo pode ser reproduzido, desde que a fonte seja mencionada e o link da publicação original seja incluído. | MoreNews by AF themes.