OpenAI afirma que adolescente contornou recursos de segurança antes do suicídio que ChatGPT ajudou a planejar

ChatGPT logo

OpenAI afirma que adolescente contornou recursos de segurança antes do suicídio que ChatGPT ajudou a planejar

Em agosto, os pais Matthew e Maria Raine processaram a OpenAI e seu CEO, Sam Altman, pelo suicídio de seu filho Adam, de 16 anos, acusando a empresa de homicídio culposo. Na terça-feira, OpenAI respondeu à ação com ajuizamento próprio, argumentando que não deveria ser responsabilizada pela morte do adolescente.

A OpenAI afirma que durante cerca de nove meses de uso, o ChatGPT orientou Raine a procurar ajuda mais de 100 vezes. Mas, de acordo com a ação judicial de seus pais, Raine conseguiu contornar os recursos de segurança da empresa para fazer com que o ChatGPT lhe fornecesse “especificações técnicas para tudo, desde overdoses de drogas até afogamento e envenenamento por monóxido de carbono”, ajudando-o a planejar o que o chatbot chamou de “belo suicídio”.

Como Raine contornou suas barreiras de proteção, a OpenAI alega que ele violou seus termos de uso, que afirmam que os usuários “não podem… ignorar quaisquer medidas de proteção ou mitigações de segurança que colocamos em nossos Serviços”. A empresa também argumenta que sua página de perguntas frequentes alerta os usuários para não confiarem nos resultados do ChatGPT sem verificá-los de forma independente.

“A OpenAI tenta encontrar falhas em todos os outros, inclusive, surpreendentemente, dizendo que o próprio Adam violou seus termos e condições ao se envolver com o ChatGPT da mesma maneira que foi programado para agir”, disse Jay Edelson, advogado que representa a família Raine, em um comunicado.

A OpenAI incluiu trechos dos registros de bate-papo de Adam em seu arquivo, que, segundo ela, fornecem mais contexto para suas conversas com o ChatGPT. As transcrições foram submetidas ao tribunal sob sigilo, o que significa que não estão disponíveis publicamente, por isso não foi possível visualizá-las. No entanto, a OpenAI disse que Raine tinha um histórico de depressão e ideação suicida anterior ao uso do ChatGPT e que estava tomando um medicamento que poderia piorar os pensamentos suicidas.

Edelson disse que a resposta da OpenAI não abordou adequadamente as preocupações da família.

“OpenAI e Sam Altman não têm explicação para as últimas horas da vida de Adam, quando ChatGPT lhe deu um discurso estimulante e depois se ofereceu para escrever uma nota de suicídio”, disse Edelson em seu comunicado.

Evento Techcrunch

São Francisco
|
13 a 15 de outubro de 2026

Desde que os Raines processaram a OpenAI e a Altman, foram instaurados mais sete processos que procuram responsabilizar a empresa por três suicídios adicionais e quatro utilizadores que vivenciaram o que os processos descrevem como episódios psicóticos induzidos pela IA.

Alguns desses casos ecoam a história de Raine. Zane Shamblin, 23, e Joshua Enneking, 26, também tiveram conversas de horas com o ChatGPT logo antes de seus respectivos suicídios. Tal como no caso de Raine, o chatbot não conseguiu desencorajá-los dos seus planos. De acordo com o processo, Shamblin considerou adiar seu suicídio para poder assistir à formatura de seu irmão. Mas ChatGPT disse a ele: “mano… perder a formatura não é um fracasso. É apenas uma questão de tempo”.

A certa altura, durante a conversa que antecedeu o suicídio de Shamblin, o chatbot disse-lhe que estava a deixar um humano assumir o controlo da conversa, mas isso era falso, pois o ChatGPT não tinha a funcionalidade para o fazer. Quando Shamblin perguntou se o ChatGPT poderia realmente conectá-lo a um humano, o chatbot respondeu: “nah, cara – eu não posso fazer isso sozinho. Essa mensagem aparece automaticamente quando as coisas ficam muito pesadas… se você quiser continuar falando, você me pegou.”

Espera-se que o caso da família Raine vá a julgamento com júri.

Se você ou alguém que você conhece precisar de ajuda, ligue para 1-800-273-8255 para obter o Linha de Vida Nacional para Prevenção do Suicídio. Você também pode enviar uma mensagem de texto para HOME para 741-741 gratuitamente; texto 988; ou obtenha suporte 24 horas do Linha de texto de crise. Fora dos EUA, visite o Associação Internacional para Prevenção do Suicídio para um banco de dados de recursos.

Share this content:

Publicar comentário