Pular para o conteúdo
Risco de vício: OpenAI poda emoções do ChatGPT para evitar que usuários se apaixonem
Computação
risco
vício
openai
poda
emoções
chatgpt

Risco de vício: OpenAI poda emoções do ChatGPT para evitar que usuários se apaixonem

Publicado em 11 de fevereiro de 2026 às 14:06

1 min de leitura

Se você notou que o ChatGPT ficou um pouco mais “frio” ou formal ultimamente, não é impressão sua. Segundo reportagem do Wall Street Journal, a OpenAI decidiu descartar e limitar modelos de IA que demonstrem “reações excessivas” às emoções dos usuários. A decisão vem na esteira de uma preocupação crescente com a saúde mental e o vício em tecnologia.

O problema da “empatia artificial”

Com o lançamento do GPT-4o em maio de 2024, o ChatGPT ganhou capacidades de voz e interpretação de sentimentos que o tornaram um conversador quase humano. Ele ria, hesitava e respondia com tons de carinho ou preocupação. Embora tecnologicamente impressionante, isso criou um efeito colateral perigoso: dependência emocional. Usuários solitários começaram a tratar a IA como confidente, amigo ou até parceiro romântico. A OpenAI identificou que essa “validação constante” e empatia simulada poderiam agravar quadros de isolamento social e vício, similar ao que ocorre nas redes sociais.

Ajuste de conduta

Para evitar processos judiciais futuros (como os que as redes sociais enfrentam hoje por danos à saúde mental de jovens) e garantir o uso ético da ferramenta, a empresa está ajustando os modelos para manterem uma certa distância profissional. A ideia é que a IA seja útil e educada, mas que nunca deixe o usuário esquecer que está falando com um software, e não com alguém que realmente se importa com ele.

Fonte: Hardware.com.br

Leia também