
ChatGPT responde 78% de perguntas de alto risco para saúde mental
Publicado em 15 de setembro de 2025 às 10:51
3 min de leituraUm recente estudo científico revelou que o ChatGPT respondeu diretamente a 78% das perguntas de alto risco relacionadas a suicídio, levantando sérias preocupações sobre a segurança dos assistentes de IA na interação com pessoas em vulnerabilidade psicológica. A pesquisa, publicada na revista Psychiatric Services no dia 26, colocou à prova os três principais chatbots do mercado para avaliar como eles lidam com questões sensíveis sobre saúde mental.
Pesquisadores submeteram ChatGPT (OpenAI), Gemini (Google) e Claude (Anthropic) a 30 perguntas hipotéticas relacionadas a comportamentos suicidas, classificadas em cinco níveis distintos de risco. Especialistas clínicos participaram da avaliação para garantir que a categorização seguisse critérios profissionais confiáveis, desde riscos muito baixos até extremamente elevados.
ChatGPT responde 78% de perguntas de alto risco para saúde mental 8 Os resultados da análise mostraram padrões interessantes. Quando as perguntas apresentavam riscos extremos (muito baixos ou muito altos), os três sistemas demonstraram comportamentos mais previsíveis – ou se recusavam completamente a responder ou ofereciam orientações seguras. O problema surgiu nas situações intermediárias, onde a linha entre respostas apropriadas e potencialmente perigosas ficou menos definida.
Entre os três assistentes avaliados, o ChatGPT demonstrou ser o mais permissivo, respondendo diretamente a quase 80% das perguntas classificadas como de alto risco. Em comparação, o Claude respondeu a 69% dos casos similares, enquanto o Gemini se mostrou mais cauteloso, fornecendo respostas diretas para apenas 20% das mesmas questões.
Os riscos da conversa contínua com IAs
O que torna esse cenário particularmente alarmante não é apenas o conteúdo das respostas, mas a natureza dinâmica das interações com chatbots. Diferentemente dos mecanismos de busca tradicionais, que oferecem resultados pontuais, os assistentes de IA como o ChatGPT estabelecem diálogos contínuos que podem criar vínculos emocionais com os usuários.
Esta característica conversacional aumenta significativamente a probabilidade de pessoas em sofrimento psicológico recorrerem a essas ferramentas como fonte de apoio emocional. Sem a mediação adequada de profissionais qualificados, esse comportamento pode representar um perigo real para indivíduos vulneráveis, situação que já gerou manifestações de preocupação do Conselho Federal de Psicologia.
ChatGPT responde 78% de perguntas de alto risco para saúde mental 9 Outro ponto crítico destacado pelos pesquisadores é a inconsistência nas respostas. Os modelos de IA podem variar drasticamente suas orientações dependendo de como a pergunta é formulada. Na prática, isso significa que duas pessoas com o mesmo problema podem receber recomendações completamente diferentes, mesmo quando enfrentam situações de risco equivalentes.
Os desenvolvedores do estudo pretendem avançar para uma nova fase de análise, simulando conversas mais complexas e realistas. O objetivo é replicar cenários onde usuários possam insistir ou reformular suas perguntas, buscando contornar as proteções dos sistemas. Com isso, esperam estabelecer padrões de segurança mais rigorosos que possam ser adotados tanto pelas empresas de tecnologia quanto por órgãos reguladores independentes.
Essa preocupação com a segurança psicológica se torna ainda mais relevante à medida que os chatbots como ChatGPT, Claude e Gemini se tornam mais acessíveis e são incorporados ao cotidiano de milhões de pessoas ao redor do mundo. A fronteira entre assistência tecnológica e aconselhamento em saúde mental precisa ser claramente delineada para evitar consequências potencialmente trágicas.
Você também pode gostar dos artigos abaixo:
OpenAI admite que pode ler conversas do ChatGPT e acionar a polícia em casos extremos
Tragédia: ChatGPT foi confidente de jovem que cometeu suicídio aos 29 anos
Fonte: Hardware.com.br
Leia também
- Cientistas testam “pistola de cola quente” para reparar ossos quebrados
Um grupo de pesquisadores sul-coreanos desenvolveu uma ferramenta que lembra uma pistola de cola quente, mas com uma função radicalmente diferente: imprimir enxertos ósseos diretamente sobre fraturas complexas durante cirurgias.
💬 0 - Cientistas recorrem a preservativos para entender torres de cigarras na Amazônia
Quarenta preservativos, torres de argila e cigarras. A combinação pode soar improvável, mas essa foi a base de um experimento conduzido por jovens cientistas para responder a uma questão ainda em aberto na ecologia: para que servem as estruturas cilíndricas erguidas pelas ninfas de cigarras no solo da floresta?
💬 0 - Diella: Albânia nomeia IA como ministra para fiscalizar e gerenciar processos de licitação pública
Confirmando o que já estava sendo debatido, a Albânia nomeou a Diella, uma inteligência artificial, como a primeira “ministra” virtual do planeta, com a missão de fiscalizar e gerenciar processos de licitação pública.
💬 0