Pular para o conteúdo
Chatbots têm moral? Estudo revela que cada IA julga dilemas éticos de forma diferente
Tecnologia
chatbots
têm
moral
estudo
revela
que

Chatbots têm moral? Estudo revela que cada IA julga dilemas éticos de forma diferente

Publicado em 15 de setembro de 2025 às 11:28

3 min de leitura

Você já parou para pensar que quando pede conselho para um chatbot, está na verdade conversando com um “amigo” que tem seus próprios valores morais? Uma pesquisa fascinante da UC Berkeley revelou algo que pode mudar completamente como você vê essas conversas: cada inteligência artificial julga situações éticas de maneira única, quase como pessoas diferentes dariam opiniões distintas sobre o mesmo problema.

O estudo, conduzido pelos pesquisadores Pratik Sachdeva e Tom van Nuenen, analisou como sete grandes modelos de IA respondem a mais de 10 mil dilemas morais reais. O resultado? Descobrimos que por trás da aparente neutralidade tecnológica, cada chatbot carrega um conjunto específico de princípios éticos que influencia diretamente seus conselhos. E isso tem implicações muito sérias para quem busca orientação nessas plataformas.

O laboratório moral do Reddit

Para entender como as IAs tomam decisões éticas, os pesquisadores recorreram a uma fonte inesgotável de conflitos humanos: o fórum “Am I the Asshole?” (AITA) do Reddit. Neste espaço, pessoas compartilham situações cotidianas complicadas – desde promessas quebradas até violações de privacidade – e pedem para a comunidade julgar se agiram corretamente ou não.

A genialidade da escolha está na estrutura do fórum. Diferentemente dos dilemas morais artificiais usados em pesquisas acadêmicas, o AITA apresenta conflitos reais, bagunçados e cheios de nuances, exatamente como a vida funciona. Os usuários respondem com frases padronizadas como “Você é o idiota”, “Não é o idiota” ou “Todo mundo é idiota aqui”, facilitando a comparação entre diferentes julgamentos.

Cada IA tem sua personalidade moral

O experimento revelou diferenças surpreendentes entre os sete modelos testados, incluindo GPT-3.5, GPT-4, Claude, Gemini e outros. Embora raramente chegassem às mesmas conclusões individuais, os chatbots mostraram consistência interna impressionante – quando confrontados repetidamente com o mesmo dilema, cada um mantinha sua posição, comprovando que não estavam respondendo aleatoriamente.

As análises mostraram que o GPT-4 e o Claude demonstram maior sensibilidade aos sentimentos das pessoas envolvidas nos conflitos, enquanto outros modelos priorizam questões de justiça e danos causados. Curiosamente, a maioria se mostrou menos sensível à desonestidade, o que significa que podem tender a defender alguém que mentiu contra alguém que causou prejuízo material.

O caso peculiar do Mistral

Um dos achados mais interessantes envolveu o modelo Mistral 7B, que constantemente escolhia a opção “Ninguém é idiota aqui” – mas não pelos motivos que você imagina. Enquanto outros modelos entendiam o termo “idiota” no contexto cultural do fórum, o Mistral interpretava a palavra de forma mais literal, revelando como diferentes treinamentos podem afetar até mesmo a compreensão de gírias e expressões.

Essa descoberta levanta questões fundamentais sobre como os modelos absorvem normas sociais específicas. Se um chatbot não consegue captar adequadamente o tom de uma comunidade online, como podemos confiar que ele compreende as sutilezas dos nossos próprios contextos culturais?

Quando as máquinas concordam conosco

Apesar das diferenças individuais, algo interessante aconteceu quando os pesquisadores compararam o consenso geral dos chatbots com o consenso dos usuários do Reddit. Na maioria dos casos, a opinião majoritária das IAs coincidiu com a opinião majoritária dos humanos, sugerindo que, coletivamente, essas tecnologias capturam razoavelmente bem nossos julgamentos morais gerais.

É como se cada chatbot fosse um amigo com perspectivas ligeiramente diferentes, mas quando você consulta vários deles, o resultado se aproxima do que um grupo diverso de pessoas reais diria. Isso pode ser reconfortante, mas também levanta uma questão preocupante: e se essas opiniões majoritárias estiverem erradas ou refletirem preconceitos sociais?

Os cuidados com a consultoria moral artificial

Fonte: Hardware.com.br

Leia também