Pular para o conteúdo
OpenAI admite que pode ler conversas do ChatGPT e acionar a polícia em casos extremos
Hardware
hardware
conversas
openai
privacidade
risco

OpenAI admite que pode ler conversas do ChatGPT e acionar a polícia em casos extremos

Publicado em 30 de agosto de 2025 às 11:00

2 min de leitura

Fonte: Hardware.com.br

A promessa dos chatbots de inteligência artificial sempre foi clara: ajudar em tarefas cotidianas, responder dúvidas e até apoiar na tomada de decisões. Mas a própria OpenAI acaba de reforçar um alerta que muitos já desconfiavam — confiar demais na IA pode colocar em risco não só a privacidade, mas também a segurança do usuário. Conversas podem ser revisadas em situações de risco A empresa revelou em seu site que, em casos específicos, pode acessar e revisar conversas mantidas no ChatGPT. O objetivo, segundo a OpenAI, é identificar potenciais riscos graves, como situações de autolesão, incentivo ao suicídio ou ameaças contra terceiros. “Quando detectamos que um usuário pretende machucar outras pessoas, encaminhamos as conversas para canais especializados — onde uma pequena equipe, treinada em nossas políticas de uso, está autorizada a agir e pode até mesmo realizar o banimento de contas. Se os revisores humanos concluírem que há risco iminente de grave lesão física para outras pessoas, podemos encaminhar o caso para a polícia. No momento, não encaminhamos casos de autolesão para a polícia em respeito à privacidade, dada a natureza privada das interações com o ChatGPT”, destaca a OpenAI em seu site. Essas interações passam primeiro por um time reduzido de revisores humanos. Caso eles entendam que há risco iminente de dano físico, o caso pode ser repassado às autoridades competentes, incluindo a polícia. Quando a privacidade dá lugar à segurança Na prática, isso significa que a privacidade dos usuários pode ser quebrada em nome da segurança. A própria OpenAI detalha exemplos em que isso pode ocorrer:

Conversas que incentivem o suicídio ou automutilação.

Planos para ferir pessoas ou destruir propriedades.

Tentativas de desenvolver ou usar armas.

Atividades que representem risco à segurança de sistemas. O comunicado reconhece que o modelo conversacional ainda apresenta falhas, especialmente em tópicos sensíveis como saúde mental. Por isso, a empresa afirma que a intervenção humana é indispensável antes de qualquer medida. O dilema: proteção ou invasão? A revelação expõe um dilema cada vez mais relevante no mundo da IA: como equilibrar segurança e privacidade. Para especialistas, esse tipo de monitoramento levanta questões éticas importantes. Por um lado, pode evitar tragédias. Por outro, abre espaço para debates sobre até onde empresas privadas podem acessar dados pessoais de usuários. Com os assistentes de IA ganhando popularidade e se tornando parte do cotidiano de milhões de pessoas, a pressão por regras mais claras — e por limites bem definidos — tende a crescer.

Leia também