
OpenAI adota controles parentais no ChatGPT após crises de saúde mental
Publicado em 2 de setembro de 2025 às 12:16
3 min de leituraFonte: Tecnoblog
OpenAI adota controles parentais no ChatGPT após crises de saúde mental Novos mecanismos incluem vinculação de contas a responsáveis e uso de modelo mais avançado em conversas consideradas sensíveis Novos mecanismos incluem vinculação de contas a responsáveis e uso de modelo mais avançado em conversas consideradas sensíveis A OpenAI anunciou nesta terça-feira (02/09) que o ChatGPT terá recursos de controle parental, como configurações adicionais e alertas em momentos de estresse emocional intenso. Além disso, o modelo de “raciocínio” da empresa será encarregado de lidar com situações mais delicadas. As medidas chegam após diversos relatos de crises de saúde mental envolvendo chatbots de inteligência artificial generativa. No fim de agosto, os pais de um jovem de 16 anos processaram a OpenAI por morte por negligência — seu filho cometeu suicídio, e a ação apresenta indícios de que o ChatGPT pode ter agravado a situação ao longo de meses. Segundo a OpenAI, contas de adolescentes poderão ser vinculadas a de pais ou responsáveis, que poderão definir a maneira como o chatbot responde ou desativar a memória e o histórico de chats. O ChatGPT também poderá notificar os adultos quando o adolescente vinculado estiver passando por um “momento de sofrimento agudo” com base nas conversas. A OpenAI diz que os controles parentais devem ser lançados ao longo do próximo mês, sem especificar uma data. Vale lembrar que apenas maiores de 13 anos podem usar o ChatGPT, de acordo com os termos da empresa. A OpenAI também anunciou que, ao detectar conversas sensíveis, o ChatGPT passará a usar modelos de “raciocínio”, como o GPT-5-thinking, que usam seu processamento de linguagem de forma mais detalhada para tentar lidar melhor com problemas complexos. Segundo a empresa, esses modelos aplicam proteções de forma mais consistente. Em um comunicado anterior, a companhia admitiu que as salvaguardas desenvolvidas para o ChatGPT são menos efetivas depois de algum tempo de conversa. Quando o robô passa a considerar uma quantidade maior de dados, ele deixa de respeitar regras de segurança. Nos últimos meses, circularam diversos relatos de crises de delírio e paranoia ligadas ao uso de chatbots de IA generativa. A situação ganhou até um termo específico: “psicose induzida por IA”. O problema vem sendo discutido de maneira mais frequente por pesquisadores e críticos. Mustafa Suleyman, CEO de IA da Microsoft, defendeu que a IA não deve ser uma “pessoa digital”. Dave Winer, veterano do setor de tecnologia e pioneiro da web, foi além e sugeriu que a IA não deveria conversar como se fosse um humano, e sim funcionar da mesma forma que um programa de computador qualquer. Reverter essa tendência, porém, pode não ser tão simples. O pesquisador Leif Weatherby argumenta que as pessoas estão usando o ChatGPT e outras ferramentas do tipo como forma de entretenimento, para além de fins práticos. Uma onda de reclamações após o lançamento do GPT-5 sugere que Weatherby tem razão: os usuários disseram que o robô estava menos próximo e mais impessoal. A OpenAI trouxe de volta o modelo anterior. {{ excerpt | truncatewords: 35 }} {% endif %}
Leia também
- Como o DNA das moscas revela os animais escondidos em uma região
Em uma fazenda em recuperação ambiental no interior de São Paulo, cientistas estão rastreando a presença de onças-pardas, antas e outros animais sem jamais vê-los. As pistas não estão em pegadas, câmeras ou armadilhas, mas em um lugar improvável: o estômago das moscas.
- Cientistas descobrem vasos sanguíneos preservados no maior fóssil de T. Rex do mundo
Jerit Leo Mitchell é doutorando na Universidade de Regina, no Canadá. O texto abaixo saiu originalmente no site The Conversation.
- CEO da OpenAI aceita pela primeira vez a teoria da internet morta
Sam Altman fez uma publicação em seu perfil no X sobre a teoria (imagem: Vitor Pádua/Tecnoblog)