Sora da OpenAI ressalta a crescente ameaça dos deepfakes

Sora da OpenAI ressalta a crescente ameaça dos deepfakes

Sora da OpenAI ressalta a crescente ameaça dos deepfakes

Quando a OpenAI lançou seu aplicativo de geração de vídeo AI, Sora, em setembro, prometido que “você está no controle de sua imagem de ponta a ponta”. O aplicativo permite que os usuários incluam a si mesmos e a seus amigos em vídeos por meio de um recurso chamado “camafeos” – o aplicativo escaneia o rosto do usuário e realiza uma verificação de vivacidade, fornecendo dados para gerar um vídeo do usuário e para autenticar seu consentimento para que os amigos usem sua imagem no aplicativo.

Mas a Reality Defender, empresa especializada em identificar deepfakes, diz que conseguiu ignorar As salvaguardas anti-personificação de Sora dentro de 24 horas. Plataformas como Sora oferecem uma “sensação plausível de segurança”, diz Ben Colman, CEO do Reality Defender, apesar do fato de que “qualquer pessoa pode usar ferramentas completamente prontas para uso” para passar a autenticação como outra pessoa.

Os pesquisadores do Reality Defender usaram imagens disponíveis publicamente de indivíduos notáveis, incluindo CEOs e artistas, em teleconferências sobre lucros e entrevistas na mídia. A empresa conseguiu violar as salvaguardas com todas as imagens que tentaram imitar. Colman argumenta que “qualquer aluno inteligente do 10º ano” poderia descobrir as ferramentas que sua empresa usava.

Um porta-voz da OpenAI disse em uma declaração enviada por e-mail à TIME que “os pesquisadores construíram um sofisticado sistema deepfake de CEOs e artistas para tentar contornar essas proteções, e estamos continuamente fortalecendo o Sora para torná-lo mais resiliente contra esse tipo de uso indevido”.

A libertação de Sora e a rápida evasão dos seus mecanismos de autenticação são um lembrete de que a sociedade não está preparada para a próxima onda de deepfakes cada vez mais realistas e personalizados. A lacuna entre o avanço da tecnologia e o atraso na regulamentação deixa os indivíduos sozinhos para navegar num cenário informativo incerto – e para se protegerem de possíveis fraudes e assédio.

“As plataformas sabem perfeitamente que isto está a acontecer e sabem perfeitamente que poderiam resolver o problema se quisessem. Mas até que as regulamentações se aproximem – estamos a ver a mesma coisa em todas as plataformas de redes sociais – não farão nada”, afirma Colman.

Sora atingiu 1 milhão de downloads em menos de cinco dias – mais rápido que o ChatGPT, que na época era o aplicativo de consumo que mais crescia – apesar de exigir que os usuários tivessem um convite, de acordo com para Bill Peebles, chefe da Sora da OpenAI. O lançamento do OpenAI seguiu uma oferta semelhante da Meta chamada Vibes, que está integrada ao aplicativo Meta AI.

A crescente acessibilidade de deepfakes convincentes alarmou alguns observadores. “A verdade é que detectar (deepfakes) a olho nu está se tornando quase impossível, dados os rápidos avanços nas capacidades de texto para imagem, texto para vídeo e clonagem de áudio”, disse Jennifer Ewbank, ex-vice-diretora de inovação digital da CIA, em um e-mail à TIME.

Os reguladores têm lutado para descobrir como lidar com os deepfakes desde pelo menos 2019, quando o presidente Trump assinado uma lei que exige que o Diretor de Inteligência Nacional investigue o uso de deepfakes por governos estrangeiros. No entanto, à medida que a acessibilidade aos deepfakes aumentou, o foco da legislação aproximou-se de casa. Em maio de 2025, a Lei Take It Down foi assinado na lei federal, proibindo a publicação on-line de “representações visuais íntimas” de menores e de adultos sem consentimento, e exigindo que as plataformas retirem conteúdo ofensivo dentro de 48 horas após a solicitação – mas a fiscalização só começar em maio de 2026.

A legislação que proíbe deepfakes pode ser complicada. “Na verdade, é muito complicado, técnica e legalmente, porque há preocupações da Primeira Emenda sobre a retirada de certos discursos”, diz Jameson Spivack, vice-diretor de política dos EUA no Fórum do Futuro da Privacidade. Em agosto, um juiz federal derrubou uma lei deepfake da Califórnia, que visava restringir conteúdo deepfake gerado por IA durante as eleições, após o X de Elon Musk processado o estado com base no fato de que a lei violava as proteções da Primeira Emenda. Como resultado, os requisitos para rotular o conteúdo gerado pela IA são mais comuns do que as proibições definitivas, diz Spivack.

Outra abordagem promissora é que as plataformas adotem melhores esquemas de conhecer o seu cliente, diz Fred Heiding, pesquisador do Programa de Defesa, Tecnologia Emergente e Estratégia da Universidade de Harvard. Os esquemas de conhecimento do seu cliente exigem que os utilizadores de plataformas como a Sora iniciem sessão utilizando uma identificação verificada, aumentando a responsabilização e permitindo que as autoridades rastreiem comportamentos ilegais. Mas também há compensações aqui. “O problema é que realmente valorizamos o anonimato no Ocidente”, diz Heiding. “Isso é bom, mas o anonimato tem um custo, e o custo é que essas coisas são realmente difíceis de aplicar.”

Enquanto os legisladores lutam com a crescente prevalência e realismo dos deepfakes, indivíduos e organizações podem tomar medidas para se protegerem. Spivack recomenda o uso de software de autenticação como Credenciais de conteúdodesenvolvido pela Coalition for Content Provenance and Authenticity, que anexa metadados sobre a proveniência a imagens e vídeos. Câmeras de Cânone e Sony apoiam a marca d’água, assim como o Google Pixel 10. O uso dessa autenticação aumenta a confiança em imagens genuínas e prejudica as falsificações.

À medida que o panorama da informação online muda, tornando mais difícil confiar nas coisas que vemos e ouvimos online, tanto os legisladores como os indivíduos devem construir a resiliência da sociedade aos meios de comunicação falsos. “Quanto mais cultivamos essa resiliência, mais difícil se torna para alguém monopolizar a nossa atenção e manipular a nossa confiança”, diz Ewbank.

Share this content:

Publicar comentário