OpenAI reforça controles no Sora após críticas sobre uso indevido de rostos em vídeos gerados por IA

Lançado nos Estados Unidos e no Canadá, o aplicativo Sora, da OpenAI, alcançou rapidamente o topo das lojas de apps ao permitir que usuários transformem textos ou imagens em vídeos altamente realistas, completos com movimento, som e diversos estilos visuais.

O sucesso, porém, veio acompanhado de preocupações éticas. Especialistas apontam que a plataforma facilita a criação de deepfakes, já que possibilita inserir rostos e vozes de terceiros nos conteúdos gerados. Quem disponibiliza sua imagem como cameo descobre que, depois de conceder autorização, tem pouca influência sobre o destino dessa representação digital.

Casos recentes expuseram rostos autorizados em contextos considerados controversos, incluindo declarações políticas contrárias às convicções de quem emprestou a imagem. A situação se agrava porque alguns usuários descobriram métodos para remover a marca-d’água móvel que indica a origem do vídeo, dificultando a identificação do material como produção de inteligência artificial.

Diante das críticas, a OpenAI anunciou novas ferramentas de controle. De acordo com Bill Peebles, líder do projeto, agora é possível impor restrições específicas ao uso de um cameo, detalhando em quais circunstâncias a imagem pode aparecer.

A empresa também promete tornar a marca-d’água mais visível e resistente a tentativas de remoção, embora não tenha divulgado as soluções técnicas que serão adotadas. Segundo a OpenAI, o objetivo é garantir maior transparência e diminuir o risco de manipulação digital.

Com informações de Tecnoblog