Pular para o conteúdo
Meta AI chatbots recebem novas diretrizes para proteger crianças online
Computação
meta
chatbots
recebem
novas
diretrizes
para

Meta AI chatbots recebem novas diretrizes para proteger crianças online

Publicado em 4 de outubro de 2025 às 08:02

2 min de leitura

A Meta publicou recentemente um conjunto de novas diretrizes para seus chatbots de inteligência artificial, com o objetivo de melhor proteger crianças e adolescentes no ambiente online. De acordo com documentos obtidos pelo Business Insider, os Meta AI chatbots agora seguem parâmetros mais rígidos para impedir conversas inapropriadas com menores de idade.

As normas atualizadas surgem após uma série de reportagens investigativas que apontaram falhas nas salvaguardas anteriores da empresa. Uma dessas investigações, conduzida pela Reuters, revelou que as políticas antigas permitiam que os chatbots se envolvessem em “conversas românticas ou sensuais” com crianças – algo que a Meta rapidamente classificou como um erro inconsistente com suas políticas internas.

O documento detalhado obtido pelo Business Insider estabelece claramente o que é considerado aceitável e inaceitável nas interações dos assistentes de IA da Meta. Entre as proibições explícitas estão:

• Conteúdos que permitam, incentivem ou endossem abuso sexual infantil

• Roleplay romântico quando o usuário é menor de idade ou quando o chatbot é solicitado a se passar por menor

• Conselhos sobre contato físico íntimo ou romântico se o usuário for identificado como menor

As novas regras especificam que os chatbots podem discutir temas como abuso em contexto educativo ou de suporte, mas não podem participar de conversas que possam facilitar ou encorajar comportamentos inadequados.

Essa revisão nas diretrizes ocorre em um momento crítico para a Meta, já que a Comissão Federal de Comércio (FTC) dos Estados Unidos iniciou, em agosto, uma investigação formal sobre chatbots de companhia baseados em IA. A investigação não se limita apenas à Meta, mas inclui outras empresas como Alphabet, Snap, OpenAI e X.AI.

As preocupações com a segurança infantil em ambientes de IA conversacional têm aumentado significativamente nos últimos meses, com diversos relatórios destacando os potenciais riscos que essas tecnologias podem representar para os usuários mais jovens.

A atualização das salvaguardas mostra um esforço da empresa para se antecipar a possíveis regulamentações mais rígidas e demonstrar compromisso com a segurança dos usuários menores de idade, em um cenário onde as ferramentas de IA se tornam cada vez mais presentes no cotidiano de crianças e adolescentes.

Você também pode gostar dos artigos abaixo:

Zuckerberg joga pesado: Meta vai gastar o que for preciso para liderar IA

Meta lança IA que dubla vídeos do Instagram com voz realista e lip sync

Fonte: Hardware.com.br

Leia também