
Nos últimos dias de dezembro de 2025, a Administração do Ciberespaço da China (CAC) apresentou um projeto de regulamentação pioneiro focado em lidar com os chamados riscos de “influência emocional” de sistemas de IA — especialmente chatbots e serviços interativos que simulam personalidade humana. A consulta pública ao texto está aberta até 25 de janeiro de 2026.
Importante ressaltar que o foco é governança de serviços de IA que interagem emocionalmente com as pessoas, não todas as aplicações de IA em geral. Assim, o projeto estabelece que IA interativa de uso público não pode:
- Gerar conteúdo que encoraje suicídio ou autolesão.
- Incentivar violência ou manipulação emocional que prejudique a saúde mental dos usuários.
- Criar conteúdo relacionado a jogos de azar, pornografia ou incitação a crimes.
Esses elementos representam uma tentativa explícita de limitar não apenas conteúdos ilegais tradicionais, mas também respostas que poderiam desencadear comportamentos perigosos através de interação emocional ou psicológica.
O texto determina que provedores de IA de interação humanizada:
- devem reconhecer estados emocionais dos usuários, protegendo a privacidade;
- identificar padrões de dependência ou extrema emoção;
- intervir quando detectarem situações de risco (por exemplo, tristeza extrema, ideação suicida ou pensamentos auto-lesivos).
A proposta prevê que, quando o serviço identificar pedido explícito de suicídio ou autolesão, a conversa deve ser assumida por um humano e — se aplicável — notificar um contato de emergência ou responsável para o usuário.
Proteção especial para grupos vulneráveis
O regulamento ainda exige que, para menores de idade, os sistemas de IA devam operar em um modo específico para crianças e adolescentes, com limites de tempo de uso, exigência de consentimento do responsável legal e mecanismos que permitam ao responsável acompanhar e controlar a utilização do serviço.
Já em relação aos idosos, a proposta determina que os sistemas sejam capazes de identificar situações de risco e acionar um contato de emergência quando necessário, além de proibir expressamente a simulação de parentes, cuidadores ou pessoas próximas com o objetivo de manipular emocionalmente o usuário.
O texto também requer que provedores:
- avaliem dependência e risco de vício emocional;
- configurem alertas e limites de uso, como lembretes se a interação passar de 2 horas;
- facilitem saída fácil do serviço, sem barreiras.
A proposta chinesa pode ser vista como um primeiro passo concreto para lidar com os riscos psicológicos do uso humanizado da IA, ao impor limites à interação afetiva, exigir detecção de estados emocionais extremos e prever intervenção humana em situações de risco. Deste modo, o regulador tenta mitigar fenômenos emergentes como dependência emocional e o chamado AI psychosis, em que usuários passam a atribuir autoridade, consciência ou vínculo excessivo às IAs.
Quer saber mais sobre influência emocional e AI psychosis: AI psychosis



