A OpenAI bloqueou os usuários de fazer vídeos de Martin Luther King Jr. em seu aplicativo Sora depois que o espólio do líder dos direitos civis reclamou da disseminação de “representações desrespeitosas”.
Desde que a empresa lançou Sora, há três semanas, vídeos hiper-realistas e falsos de King dizendo coisas grosseiras, ofensivas ou racistas dispararam nas redes sociais, incluindo vídeos falsos de King roubando em um supermercado, fugindo da polícia e perpetuando estereótipos raciais.
Na noite de quinta-feira, a OpenAI e o espólio de King divulgaram um comunicado conjunto dizendo que os vídeos de IA retratando King estão sendo bloqueados enquanto a empresa “fortalece as proteções para figuras históricas”.
A OpenAI disse acreditar que há “fortes interesses de liberdade de expressão” em permitir que os usuários façam deepfakes de figuras históricas por IA, mas que as propriedades devem ter o controle final sobre como essas semelhanças são usadas.
O aplicativo Sora, que permanece apenas para convidados, adotou uma abordagem de atirar primeiro e mirar depois em relação às barreiras de segurança, o que gerou alarme entre advogados de propriedade intelectual, figuras públicas e pesquisadores de desinformação.
Quando alguém entra no aplicativo, é instruído a gravar um vídeo de si mesmo de vários ângulos e a se gravar falando. Os usuários podem controlar se outras pessoas podem fazer vídeos falsos deles, o que Sora chama de “participação especial”.
Mas o aplicativo permitiu que as pessoas fizessem vídeos de muitas celebridades e figuras históricas sem consentimento explícito, permitindo aos usuários criar imagens falsas da Princesa Diana, John F. Kennedy, Kurt Cobain, Malcolm X e muitos outros.
Kristelia García, professora de direito de propriedade intelectual na Georgetown Law, disse que o fato de a OpenAI agir apenas após a reclamação do espólio de King é consistente com a abordagem da empresa de “pedir perdão, não permissão”.
“A indústria de IA parece se mover muito rapidamente, e o primeiro lançamento no mercado parece ser a moeda do dia (certamente em uma abordagem contemplativa e ética)”, disse García à NPR por e-mail.
Ela observou como as leis de direito à publicidade e difamação variam de acordo com o estado e nem sempre se aplicam a deepfakes, o que significa que pode haver “pouca desvantagem legal em simplesmente deixar as coisas andarem, a menos e até que alguém reclame”.
Embora a capacidade de controlar a imagem de alguém dependa da localização do patrimônio de alguém, alguns estados têm fortes proteções, como a Califórnia, onde os herdeiros de uma figura pública, ou seus bens, possuem os direitos à imagem por 70 anos após a morte de uma celebridade.
Nos dias após o lançamento do aplicativo Sora, o CEO da OpenAI, Sam Altman, anunciou mudanças no aplicativo, proporcionando aos detentores de direitos a capacidade de optar por que suas imagens fossem retratadas pela IA, em vez de tais representações serem permitidas por padrão.
Ainda assim, as famílias de algumas celebridades e figuras públicas falecidas criticaram a OpenAI por permitir representações de comportamento vulgar, pouco lisonjeiro ou incriminador.
Depois que vídeos de Robin Williams inundaram os feeds das redes sociais, Zelda Williams, filha do falecido ator, pediu ao público que parasse de fazer vídeos de seu pai. “Por favor, pare de me enviar vídeos de IA do meu pai”, escreveu ela em um post no Instagram, acrescentando que “NÃO é o que ele gostaria”.
Bernice King, filha do líder dos direitos civis, concordou, escrevendo no X: “Por favor, pare”.
Os estúdios de Hollywood e agências de talentos também expressaram preocupação com o fato de a OpenAI ter revelado o aplicativo Sora sem receber o consentimento dos detentores dos direitos autorais.
É uma abordagem semelhante à forma como a empresa desenvolveu o ChatGPT, que sugou uma grande quantidade de conteúdo protegido por direitos autorais sem aprovação ou pagamento antes de finalmente fechar acordos de licenciamento com alguns editores. A abordagem gerou uma onda de ações judiciais de direitos autorais.