
Sora: novo recurso da OpenAI tenta conter polêmica com vídeos gerados por IA
Publicado em 7 de outubro de 2025 às 07:43
2 min de leituraApp Sora permite transformações de imagens em vídeos altamente realistas • O Sora, aplicativo da OpenAI, gera vídeos realistas a partir de textos ou imagens, mas enfrenta críticas por facilitar deepfakes e uso indevido de imagens.
• Usuários relataram perda de controle sobre suas representações digitais, levando a preocupações éticas e sobre a autenticidade dos vídeos.
• A OpenAI implementou novas medidas de segurança, incluindo restrições de uso de “cameos” e melhorias na visibilidade da marca d’água.
A mais recente criação da OpenAI, o aplicativo Sora, vem chamando atenção tanto pelo realismo dos vídeos quanto pelas preocupações éticas que desperta. Lançado inicialmente nos Estados Unidos e no Canadá, ele chegou ao topo das lojas de aplicativos, permitindo que qualquer pessoa transforme textos ou imagens em vídeos altamente realistas – com movimento, som e estilos variados, do cinematográfico ao animado.
Apesar do sucesso, a ferramenta tem sido apontada por críticos como um gerador facilitado de deepfakes, já que possibilita o uso do rosto e da voz de outras pessoas em vídeos criados por inteligência artificial. Usuários que disponibilizaram sua imagem como “cameo” – termo usado para participações digitais – descobriram que, uma vez concedida a permissão, tinham pouco ou nenhum controle sobre o que era feito com suas representações.
O que motivou a polêmica em torno do Sora?
A proposta inicial do aplicativo era simples: permitir que qualquer um transforme ideias em vídeos com realismo sem precedentes. No entanto, rapidamente surgiram casos em que rostos autorizados foram usados em contextos controversos, incluindo declarações políticas opostas às convicções daquelas pessoas.
Embora os vídeos criados pelo Sora tragam uma marca d’água móvel identificando a origem do conteúdo, alguns usuários encontraram maneiras de removê-la, levantando preocupações adicionais sobre autenticidade e manipulação digital. A ausência de mecanismos eficazes de controle e transparência acendeu um alerta sobre o uso indevido de imagens e a propagação de conteúdo enganoso.
Como funcionam as novas medidas de segurança?
Diante das críticas, a OpenAI anunciou a implementação de ferramentas adicionais de controle. Bill Peebles, líder do projeto Sora, explicou que agora é possível definir restrições específicas sobre o uso de um “cameo”.
A empresa promete tornar o sistema ainda mais robusto, permitindo ajustes detalhados sobre como e onde a imagem de uma pessoa pode ser utilizada. Além disso, a OpenAI declarou que pretende tornar a marca d’água mais visível e difícil de remover, embora não tenha revelado quais medidas técnicas serão adotadas para isso.
Sora: novo recurso da OpenAI tenta conter polêmica com vídeos gerados por IA
Fonte: Tecnoblog
Leia também
- “Agentes de IA não funcionam”, diz cofundador da OpenAI

Andrej Karpathy cunhou o termo “vibe coding”Resumo
💬 0 - Caos sem fim: novo caso de queima do conector de energia numa RTX 5090; veja o relato

O problema de superaquecimento e derretimento dos conectores 12VHPWR/12V-2×6 continua preocupando proprietários de placas de vídeo topo de linha da NVIDIA na série RTX 50. Embora os casos não tenham se tornado massivos, novos relatos de conectores danificados aparecem regularmente – especialmente ao usar adaptadores d…
💬 0 - OpenAI reverte política de direitos autorais do Sora após pressão de Hollywood; entenda

A OpenAI acabou de fazer o que Hollywood queria desde o início: mudar completamente as regras do jogo no Sora. Após uma semana turbulenta repleta de vídeos virais de Pikachu e Bob Esponja gerados por IA, a empresa de Sam Altman anunciou uma reversão completa em sua política de direitos autorais — e a mudança é radical.
💬 0