
Chatbots têm moral? Estudo revela que cada IA julga dilemas éticos de forma diferente
Publicado em 15 de setembro de 2025 às 11:28
3 min de leituraVocê já parou para pensar que quando pede conselho para um chatbot, está na verdade conversando com um “amigo” que tem seus próprios valores morais? Uma pesquisa fascinante da UC Berkeley revelou algo que pode mudar completamente como você vê essas conversas: cada inteligência artificial julga situações éticas de maneira única, quase como pessoas diferentes dariam opiniões distintas sobre o mesmo problema.
O estudo, conduzido pelos pesquisadores Pratik Sachdeva e Tom van Nuenen, analisou como sete grandes modelos de IA respondem a mais de 10 mil dilemas morais reais. O resultado? Descobrimos que por trás da aparente neutralidade tecnológica, cada chatbot carrega um conjunto específico de princípios éticos que influencia diretamente seus conselhos. E isso tem implicações muito sérias para quem busca orientação nessas plataformas.
O laboratório moral do Reddit
Para entender como as IAs tomam decisões éticas, os pesquisadores recorreram a uma fonte inesgotável de conflitos humanos: o fórum “Am I the Asshole?” (AITA) do Reddit. Neste espaço, pessoas compartilham situações cotidianas complicadas – desde promessas quebradas até violações de privacidade – e pedem para a comunidade julgar se agiram corretamente ou não.
A genialidade da escolha está na estrutura do fórum. Diferentemente dos dilemas morais artificiais usados em pesquisas acadêmicas, o AITA apresenta conflitos reais, bagunçados e cheios de nuances, exatamente como a vida funciona. Os usuários respondem com frases padronizadas como “Você é o idiota”, “Não é o idiota” ou “Todo mundo é idiota aqui”, facilitando a comparação entre diferentes julgamentos.
Cada IA tem sua personalidade moral
O experimento revelou diferenças surpreendentes entre os sete modelos testados, incluindo GPT-3.5, GPT-4, Claude, Gemini e outros. Embora raramente chegassem às mesmas conclusões individuais, os chatbots mostraram consistência interna impressionante – quando confrontados repetidamente com o mesmo dilema, cada um mantinha sua posição, comprovando que não estavam respondendo aleatoriamente.
As análises mostraram que o GPT-4 e o Claude demonstram maior sensibilidade aos sentimentos das pessoas envolvidas nos conflitos, enquanto outros modelos priorizam questões de justiça e danos causados. Curiosamente, a maioria se mostrou menos sensível à desonestidade, o que significa que podem tender a defender alguém que mentiu contra alguém que causou prejuízo material.
O caso peculiar do Mistral
Um dos achados mais interessantes envolveu o modelo Mistral 7B, que constantemente escolhia a opção “Ninguém é idiota aqui” – mas não pelos motivos que você imagina. Enquanto outros modelos entendiam o termo “idiota” no contexto cultural do fórum, o Mistral interpretava a palavra de forma mais literal, revelando como diferentes treinamentos podem afetar até mesmo a compreensão de gírias e expressões.
Essa descoberta levanta questões fundamentais sobre como os modelos absorvem normas sociais específicas. Se um chatbot não consegue captar adequadamente o tom de uma comunidade online, como podemos confiar que ele compreende as sutilezas dos nossos próprios contextos culturais?
Quando as máquinas concordam conosco
Apesar das diferenças individuais, algo interessante aconteceu quando os pesquisadores compararam o consenso geral dos chatbots com o consenso dos usuários do Reddit. Na maioria dos casos, a opinião majoritária das IAs coincidiu com a opinião majoritária dos humanos, sugerindo que, coletivamente, essas tecnologias capturam razoavelmente bem nossos julgamentos morais gerais.
É como se cada chatbot fosse um amigo com perspectivas ligeiramente diferentes, mas quando você consulta vários deles, o resultado se aproxima do que um grupo diverso de pessoas reais diria. Isso pode ser reconfortante, mas também levanta uma questão preocupante: e se essas opiniões majoritárias estiverem erradas ou refletirem preconceitos sociais?
Os cuidados com a consultoria moral artificial
Fonte: Hardware.com.br
Leia também
- Sexo, drogas e rock ‘n’ roll: os fatores que podem atrair picadas de mosquitos
Em vários estados do Brasil, as temperaturas voltaram a subir nas últimas semanas. Os sinais da temporada de calor começam a serem sentidos – seja pelo suor, as blusas de frio já no fundo do armário ou aquele barulhinho de “zzz” que você escuta ao colocar a cabeça no travesseiro. É um sinal conhecido da presença de um…
💬 0 - Instagram corrige falha que reduzia alcance de stories
Instagram corrige falha que reduzia alcance de stories (imagem: Vitor Pádua/Tecnoblog)
💬 0 - Criador da web diz que algoritmos viciantes deveriam ser banidos
Tim Berners-Lee criou várias tecnologias que permitem que a internet seja o que é hoje (foto: Knight Foundation)
💬 0