A OpenAI, criadora do ChatGPT, mal lançou sua nova e impressionante ferramenta de criação de vídeos, o Sora, e já se viu no meio de uma grande confusão.
A capacidade da ferramenta de criar vídeos ultrarrealistas a partir de simples textos levou a uma onda de criações… peculiares.
Vimos de tudo: o físico Stephen Hawking pulando em uma piscina e até Albert Einstein como um lutador de luta livre. A criatividade da internet não tem limites, mas essa liberdade toda acabou esbarrando em uma questão muito séria: o uso não autorizado da imagem de pessoas famosas, criando os famosos deepfakes no Sora 2.
A situação ficou tão grave que gigantes de Hollywood, incluindo o ator Bryan Cranston (o eterno Walter White de Breaking Bad), e sindicatos de atores tiveram que intervir. O resultado?
A OpenAI deu um passo atrás e reforçou suas regras para proibir a criação de vídeos com celebridades sem consentimento. Vamos mergulhar nessa história para entender o que aconteceu e o que isso muda no mundo da inteligência artificial.
O estopim da crise: quando a IA imita a vida real (demais)
O problema começou quando usuários do aplicativo Sora, que funciona com o novo modelo Sora 2, começaram a usar a ferramenta para criar vídeos com a imagem e a voz de celebridades, tanto vivas quanto falecidas. A tecnologia é tão avançada que os resultados são assustadoramente realistas.
O ator Bryan Cranston foi um dos que soou o alarme. Ele descobriu vídeos circulando na internet que usavam sua imagem e voz geradas por IA, colocando-o em situações bizarras ao lado do falecido cantor Michael Jackson e até do personagem Ronald McDonald. A preocupação de Cranston não era apenas com sua própria imagem, mas com a de todos os artistas.
“Fiquei profundamente preocupado não apenas por mim, mas por todos os artistas cujo trabalho e identidade podem ser mal utilizados dessa maneira”, declarou o ator.
Ele não estava sozinho. A família de celebridades já falecidas, como os comediantes Robin Williams e George Carlin, também expressou indignação. A filha de Williams, Zelda, chegou a classificar os vídeos de seu pai como “nojentos” e “lixo de TikTok”, afirmando que não era algo que ele aprovaria.
O caso mais grave, no entanto, envolveu o líder dos direitos civis Martin Luther King Jr. A OpenAI teve que bloquear a geração de conteúdo com sua imagem após a criação de vídeos ofensivos e racistas, que a própria empresa classificou como “representações desrespeitosas”.
A reação de Hollywood e a resposta da OpenAI
A queixa de Bryan Cranston não ficou apenas nas redes sociais. Ele levou o problema diretamente ao SAG-AFTRA, o poderoso sindicato que representa mais de 170 mil profissionais de mídia nos Estados Unidos. A partir daí, a pressão sobre a OpenAI se tornou gigantesca.
O sindicato, junto com outras grandes agências de talentos, uniu forças para exigir mais proteção para os artistas. Eles argumentaram que o uso da imagem e da voz de uma pessoa sem consentimento, crédito ou compensação financeira não é inovação, mas sim exploração.
Diante da enorme repercussão negativa, a OpenAI não teve outra escolha a não ser agir. A empresa, que já apoiava uma lei em tramitação nos EUA chamada “No Fakes Act” (Lei Contra Falsificações), que visa proteger artistas contra o uso não autorizado de sua imagem por IA, teve que aplicar essa filosofia na prática.
Novas regras para os vídeos de IA
Em um comunicado conjunto com o sindicato de atores e outras entidades, a OpenAI anunciou que fortaleceu suas “barreiras de proteção” (guardrails). A principal mudança é a seguinte: agora, é proibido gerar vídeos de IA com a imagem e a voz de figuras públicas e celebridades que não tenham dado consentimento explícito para isso.
Sam Altman, o CEO da OpenAI, reforçou o compromisso da empresa. “A OpenAI está profundamente comprometida em proteger os artistas da apropriação indevida de sua voz e imagem”, afirmou.
A empresa também deu aos representantes legais de figuras históricas, como no caso de Martin Luther King Jr., o poder de solicitar que a imagem delas não seja usada nas criações do Sora. É uma tentativa de colocar ordem na casa e evitar que a ferramenta se torne uma fábrica de desinformação e desrespeito.
Como funcionam os deepfakes no Sora 2?
É importante entender que o Sora é uma ferramenta poderosa. Uma de suas funcionalidades, chamada “Cameo”, permite que os usuários adicionem um avatar de si mesmos aos vídeos. No entanto, essa mesma tecnologia foi explorada para inserir avatares de celebridades, gerando os deepfakes.
A tecnologia de inteligência artificial generativa, como a do Sora 2, aprende a partir de uma quantidade colossal de dados (fotos, vídeos, textos) disponíveis na internet.
É assim que ela consegue criar conteúdo novo que parece autêntico. O problema é que, ao aprender com imagens públicas de atores, por exemplo, a IA se torna capaz de recriá-los em qualquer contexto.
Essa capacidade levanta um debate muito mais amplo sobre o futuro do entretenimento e da própria identidade digital. Afinal, se uma IA pode fazer um ator famoso dizer ou fazer qualquer coisa, onde fica o direito sobre a própria imagem?
O avanço dessa tecnologia é tão rápido que a legislação muitas vezes não consegue acompanhar, como vemos no caso do PIX, que também enfrenta desafios com novas ameaças.
O que muda para o usuário comum?
Para a maioria das pessoas que esperam usar o Sora para criar vídeos criativos, a mudança é positiva. As novas regras ajudam a garantir um ambiente mais ético e seguro, evitando que a plataforma se torne um terreno fértil para abusos.
Desde seu lançamento em 30 de setembro, o acesso ao aplicativo Sora tem sido restrito a convites, começando pelo iOS e com planos de expansão para Android. A polêmica dos deepfakes certamente fará com que a OpenAI seja ainda mais cautelosa na liberação da ferramenta para o público geral.
A empresa se desculpou pelas “gerações não intencionais” e agora aposta em uma política de opt-in, ou seja, a pessoa precisa autorizar ativamente o uso de sua imagem. Para os artistas, Bryan Cranston resumiu o sentimento de alívio: “Espero que eles e todas as empresas envolvidas neste trabalho respeitem nosso direito pessoal e profissional de gerenciar a replicação de nossa voz e imagem”.
O caso dos deepfakes no Sora 2 serve como um grande alerta. A inteligência artificial abre portas para uma criatividade sem precedentes, mas também traz consigo responsabilidades enormes.
A decisão da OpenAI de ouvir a comunidade e ajustar suas políticas mostra que, talvez, seja possível inovar de forma responsável. O futuro dos vídeos de IA depende desse equilíbrio.






