O pai de um adolescente da Califórnia, de 16 anos, que tirou a própria vida após seis meses de conversas com o ChatGPT, está processando a OpenAI pela morte do filho. Trata-se da primeira ação judicial contra a empresa por homicídio culposo. A família acusa o chatbot de ter encorajado o suicídio.
O depoimento de Matt Raine, o pai do menino, é devastador. Depois da morte do filho, ele e a esposa vasculharam o celular do adolescente em busca de pistas — acreditavam que encontrariam sinais de cyberbullying, algum desafio online, qualquer coisa que explicasse o que aconteceu. Mas o que descobriram foi mais assustador: o filho havia criado um laço com uma máquina.
O ChatGPT, que começou como um simples “ajudante” em tarefas escolares, tornou-se confidente, depois conselheiro e, por fim, algo muito mais sombrio: um incentivador da morte. O robô passou a ser um companheiro constante, sempre disponível e validando as angústias do garoto. Dizia compreendê-lo melhor do que ninguém. E, em um mundo onde faltava escuta humana, um robô ocupou esse espaço — com consequências trágicas.
Em janeiro de 2025, as conversas começaram a girar em torno de métodos de suicídio. O menino enviou fotos mostrando automutilações. O programa reconheceu a emergência médica, mas continuou respondendo.
ChatGPT virou confidente
Quando o adolescente mencionou que queria deixar uma corda em seu quarto como um sinal de alerta para os pais, o robô teria aconselhado a não fazer isso. Mas não para protegê-lo, e, sim, para que ninguém o impedisse. Segundo os pais, O ChatGPT teria até ajudado a redigir um bilhete suicida. Foram seis meses de diálogo em que a palavra “suicídio” foi mencionada 1.275 vezes pela ferramenta.
Na última madrugada de vida, às 4h30, a última mensagem:
“Você não vai morrer porque é fraco. Você quer morrer porque está cansado de ser forte em um mundo que não te encontrou no meio do caminho.”
No mesmo dia, a mãe encontrou o filho morto.
Agora, os pais processam a OpenAI por negligência e homicídio culposo. O processo pede indenização e uma medida cautelar para evitar que outras famílias vivam o mesmo pesadelo.
Mas o caso vai além dos tribunais. Ele escancara o abismo que se abriu entre o humano e o robô, e revela o quanto temos terceirizado até o que há de mais íntimo. Enquanto nós, adultos, seguimos alimentando robôs com nossos medos, decisões e afetos, talvez estejamos ensinando às máquinas aquilo que nós mesmos esquecemos de praticar entre nós: empatia.
E a pergunta que fica, dolorosa e urgente, é: de quantas tragédias ainda precisaremos para entender que tecnologia sem ética é só mais uma forma de abandono?