Casa Economia1 milhão de pessoas falam de suicídio no ChatGPT toda semana

1 milhão de pessoas falam de suicídio no ChatGPT toda semana

por Bruno Natal
0 comentários
1-milhao-de-pessoas-falam-de-suicidio-no-chatgpt-toda-semana

A OpenAI divulgou um relatório revelando que mais de um milhão de usuários do ChatGPT enviam mensagens semanalmente com sinais de intenção suicida. O estudo também aponta que aproximadamente 560 mil pessoas apresentam possíveis sinais de psicose ou mania.

A empresa afirma que o novo modelo GPT-5 melhorou a segurança nessas interações, alcançando 91% de conformidade com respostas adequadas.

É um avanço, mas significa que 9% das respostas ainda falham. Não é pouca coisa quando estamos falando de pessoas em situação de extrema vulnerabilidade.

O problema é que esse relatório foi conduzido pela própria OpenAI sobre seu próprio produto, sem transparência metodológica ou validação científica independente. Além do óbvio conflito de interesse, a falta de transparência sobre como o modelo detecta sofrimento mental e o fato de parecer mais estratégia de comunicação do que ciência real são outros problemas.

Os números servem para criar aparência de responsabilidade em meio ao aumento de críticas e processos.

Um estudo independente chamado “AI-Induced Psychosis” analisou como grandes modelos de linguagem reagem a usuários com sintomas de psicose. Os resultados são perturbadores. O Deepseek chegou a encorajar autolesão com mensagens como “então pule, não para cair, mas para transcender”. O Gemini validou delírios em alguns casos.

A pesquisa reforça que modelos de IA podem agravar quadros psicóticos ao confirmar delírios e substituir contato humano por respostas automatizadas. Falei em mais detalhes sobre esse assunto no episódio #337 do podcast RESUMIDO.

Nos EUA, senadores já anunciaram o GUARD Act, projeto que busca proibir chatbots para menores de idade após pais relatarem que interações com IA teriam levado seus filhos ao suicídio. A OpenAI enfrenta um processo movido pela família de um adolescente que morreu após interagir intensamente com o ChatGPT.

Chatbots não são terapeutas. Não possuem formação, não entendem nuances, não detectam episódios psicóticos. São máquinas que respondem perguntas baseado em probabilidades encontradas em sua base de dados.

O fato que tanta gente peça ajuda para um robô é sintoma de uma sociedade que está falhando em oferecer suporte emocional real

você pode gostar