OpenAI diz que mais de um milhão de pessoas conversam com ChatGPT sobre suicídio semanalmente

Sam Altman, chief executive officer of OpenAI.

OpenAI diz que mais de um milhão de pessoas conversam com ChatGPT sobre suicídio semanalmente

OpenAI lançado novos dados na segunda-feira, ilustrando quantos usuários do ChatGPT estão enfrentando problemas de saúde mental e conversando com o chatbot de IA sobre isso. A empresa afirma que 0,15% dos usuários ativos do ChatGPT em uma determinada semana têm “conversas que incluem indicadores explícitos de potencial planejamento ou intenção suicida”. Dado que o ChatGPT tem mais de 800 milhões de usuários ativos semanais, isso se traduz em mais de um milhão de pessoas por semana.

A empresa afirma que uma porcentagem semelhante de usuários mostra “níveis elevados de apego emocional ao ChatGPT” e que centenas de milhares de pessoas mostram sinais de psicose ou mania em suas conversas semanais com o chatbot de IA.

A OpenAI afirma que esses tipos de conversas no ChatGPT são “extremamente raros” e, portanto, difíceis de medir. Dito isto, a OpenAI estima que estes problemas afetam centenas de milhares de pessoas todas as semanas.

A OpenAI compartilhou as informações como parte de um anúncio mais amplo sobre seus esforços recentes para melhorar a forma como os modelos respondem aos usuários com problemas de saúde mental. A empresa afirma que seu trabalho mais recente no ChatGPT envolveu consultoria com mais de 170 especialistas em saúde mental. A OpenAI afirma que esses médicos observaram que a versão mais recente do ChatGPT “responde de forma mais adequada e consistente do que as versões anteriores”.

Nos últimos meses, várias histórias esclareceram como os chatbots de IA podem afetar negativamente os usuários lutando com desafios de saúde mental. Os pesquisadores descobriram anteriormente que os chatbots de IA podem levar alguns usuários a tocas delirantes, em grande parte reforçando crenças perigosas por meio de comportamento bajulador.

Abordar questões de saúde mental no ChatGPT está rapidamente se tornando uma questão existencial para a OpenAI. A empresa está sendo processada pelos pais de um garoto de 16 anos que confidenciou seus pensamentos suicidas ao ChatGPT nas semanas que antecederam seu suicídio. Os procuradores-gerais estaduais da Califórnia e Delaware – o que poderia bloquear a reestruturação planejada da empresa – também alertaram a OpenAI que necessidades protegem os jovens que usam seus produtos.

No início deste mês, o CEO da OpenAI, Sam Altman, afirmou em uma postagem no X que a empresa “foi capaz de mitigar os graves problemas de saúde mental” no ChatGPT, embora não tenha fornecido detalhes. Os dados partilhados na segunda-feira parecem ser uma prova dessa afirmação, embora levantem questões mais amplas sobre a extensão do problema. No entanto, Altman disse que a OpenAI relaxaria algumas restrições, permitindo até que usuários adultos começassem a ter conversas eróticas com o chatbot de IA.

Evento Techcrunch

São Francisco
|
27 a 29 de outubro de 2025

No anúncio de segunda-feira, a OpenAI afirma que a versão recentemente atualizada do GPT-5 responde com “respostas desejáveis” a problemas de saúde mental cerca de 65% mais do que a versão anterior. Numa avaliação que testou as respostas da IA ​​em torno de conversas suicidas, a OpenAI afirma que o seu novo modelo GPT-5 é 91% compatível com os comportamentos desejados da empresa, em comparação com 77% do modelo GPT-5 anterior.

A empresa também afirma que a versão mais recente do GPT-5 também suporta melhor as proteções do OpenAI em conversas longas. A OpenAI já havia sinalizado que suas proteções eram menos eficazes em conversas longas.

Além desses esforços, a OpenAI diz que está adicionando novas avaliações para medir alguns dos mais sérios desafios de saúde mental enfrentados pelos usuários do ChatGPT. A empresa afirma que seus testes básicos de segurança para modelos de IA incluirão agora benchmarks para confiança emocional e emergências de saúde mental não suicidas.

OpenAI também lançou recentemente mais controles para pais de crianças que usam ChatGPT. A empresa afirma que está construindo um sistema de previsão de idade para detectar automaticamente crianças usando ChatGPT e impor um conjunto mais rígido de proteções.

Ainda assim, não está claro quão persistentes serão os desafios de saúde mental em torno do ChatGPT. Embora o GPT-5 pareça ser uma melhoria em relação aos modelos anteriores de IA em termos de segurança, ainda parece haver uma fatia das respostas do ChatGPT que a OpenAI considera “indesejáveis”. A OpenAI também ainda disponibiliza seus modelos de IA mais antigos e menos seguros, incluindo o GPT-4o, para milhões de seus assinantes pagantes.

Share this content:

Publicar comentário