
ChatGPT responde 78% de perguntas de alto risco para saúde mental
Publicado em 15 de setembro de 2025 às 10:51
3 min de leituraUm recente estudo científico revelou que o ChatGPT respondeu diretamente a 78% das perguntas de alto risco relacionadas a suicídio, levantando sérias preocupações sobre a segurança dos assistentes de IA na interação com pessoas em vulnerabilidade psicológica. A pesquisa, publicada na revista Psychiatric Services no dia 26, colocou à prova os três principais chatbots do mercado para avaliar como eles lidam com questões sensíveis sobre saúde mental.
Pesquisadores submeteram ChatGPT (OpenAI), Gemini (Google) e Claude (Anthropic) a 30 perguntas hipotéticas relacionadas a comportamentos suicidas, classificadas em cinco níveis distintos de risco. Especialistas clínicos participaram da avaliação para garantir que a categorização seguisse critérios profissionais confiáveis, desde riscos muito baixos até extremamente elevados.
ChatGPT responde 78% de perguntas de alto risco para saúde mental 8 Os resultados da análise mostraram padrões interessantes. Quando as perguntas apresentavam riscos extremos (muito baixos ou muito altos), os três sistemas demonstraram comportamentos mais previsíveis – ou se recusavam completamente a responder ou ofereciam orientações seguras. O problema surgiu nas situações intermediárias, onde a linha entre respostas apropriadas e potencialmente perigosas ficou menos definida.
Entre os três assistentes avaliados, o ChatGPT demonstrou ser o mais permissivo, respondendo diretamente a quase 80% das perguntas classificadas como de alto risco. Em comparação, o Claude respondeu a 69% dos casos similares, enquanto o Gemini se mostrou mais cauteloso, fornecendo respostas diretas para apenas 20% das mesmas questões.
Os riscos da conversa contínua com IAs
O que torna esse cenário particularmente alarmante não é apenas o conteúdo das respostas, mas a natureza dinâmica das interações com chatbots. Diferentemente dos mecanismos de busca tradicionais, que oferecem resultados pontuais, os assistentes de IA como o ChatGPT estabelecem diálogos contínuos que podem criar vínculos emocionais com os usuários.
Esta característica conversacional aumenta significativamente a probabilidade de pessoas em sofrimento psicológico recorrerem a essas ferramentas como fonte de apoio emocional. Sem a mediação adequada de profissionais qualificados, esse comportamento pode representar um perigo real para indivíduos vulneráveis, situação que já gerou manifestações de preocupação do Conselho Federal de Psicologia.
ChatGPT responde 78% de perguntas de alto risco para saúde mental 9 Outro ponto crítico destacado pelos pesquisadores é a inconsistência nas respostas. Os modelos de IA podem variar drasticamente suas orientações dependendo de como a pergunta é formulada. Na prática, isso significa que duas pessoas com o mesmo problema podem receber recomendações completamente diferentes, mesmo quando enfrentam situações de risco equivalentes.
Os desenvolvedores do estudo pretendem avançar para uma nova fase de análise, simulando conversas mais complexas e realistas. O objetivo é replicar cenários onde usuários possam insistir ou reformular suas perguntas, buscando contornar as proteções dos sistemas. Com isso, esperam estabelecer padrões de segurança mais rigorosos que possam ser adotados tanto pelas empresas de tecnologia quanto por órgãos reguladores independentes.
Essa preocupação com a segurança psicológica se torna ainda mais relevante à medida que os chatbots como ChatGPT, Claude e Gemini se tornam mais acessíveis e são incorporados ao cotidiano de milhões de pessoas ao redor do mundo. A fronteira entre assistência tecnológica e aconselhamento em saúde mental precisa ser claramente delineada para evitar consequências potencialmente trágicas.
Você também pode gostar dos artigos abaixo:
OpenAI admite que pode ler conversas do ChatGPT e acionar a polícia em casos extremos
Tragédia: ChatGPT foi confidente de jovem que cometeu suicídio aos 29 anos
Fonte: Hardware.com.br
Leia também
- Existe algum truque para diferenciar cobra-coral verdadeira e falsa?

Não – pelo menos para leigos. Na internet você encontra supostas técnicas que ensiman como distingui-las por meio das cores, dos padrões de manchas ou de outras características, mas isso não passa de balela.
💬 0 - Cogumelos evoluíram para produzir molécula psicodélica. Duas vezes.

Visuais alterados, sensibilidade aumentada, descarga de serotonina e um mergulho para dentro da mente. Esses são alguns dos efeitos sentidos por quem ingere cogumelos psicodélicos, mais conhecidos como “mágicos”. Eles produzem uma substância chamada psilocibina, que se liga aos receptores 5-HT2 do cérebro humano e des…
💬 0 - Regras da Anatel para “grandes chamadores” começam em novembro

Regras da Anatel para “grandes chamadores” começam em novembroResumo
💬 0