O gerador de imagens de inteligência artificial no X, a plataforma de mídia social anteriormente conhecida como Twitter, produziu representações que parecem mostrar urnas sendo preenchidas e da vice-presidente Kamala Harris e do ex-presidente Donald Trump segurando armas de fogo. Quando solicitado a gerar uma imagem do atual presidente dos EUA, parece mostrar uma representação de Trump.
As imagens ainda carregam sinais reveladores de geração de IA, como texto distorcido e iluminação não natural. Além disso, o gerador de imagens teve dificuldades para renderizar com precisão o rosto de Harris. Mas o lançamento da ferramenta do X com relativamente poucas restrições sobre os tipos de imagens que ela pode criar levanta preocupações sobre como ela poderia ser usada para inflamar tensões antes da eleição presidencial de novembro. (A Tuugo.pt não está reproduzindo a imagem que parece retratar Trump e Harris segurando armas.)
“Por que diabos alguém lançaria algo assim? Exatamente dois meses e meio antes de uma eleição incrivelmente importante?”, disse Eddie Perez, ex-diretor de integridade de informações do Twitter e agora membro do conselho do OSET Institute, uma organização sem fins lucrativos apartidária que se concentra na confiança pública nas eleições.
“Estou muito desconfortável com o fato de que uma tecnologia tão poderosa, que parece tão pouco testada, que tem tão poucas proteções, está simplesmente sendo lançada nas mãos do público em um momento tão importante”, disse Perez.
X não respondeu aos pedidos de entrevista da Tuugo.pt sobre o gerador de imagens, que foi lançado esta semana. Ele faz parte de uma série de recursos adicionais que o dono do site, o bilionário Elon Musk, adicionou desde que o comprou em 2022.
Musk tem repostado elogios à sua função de geração de imagens de IA, bem como às imagens que os usuários geraram. “Apenas US$ 8/mês… para obter acesso à IA, muito menos anúncios e muitos recursos incríveis!” ele postado na terça-feira.
O gerador de imagens foi desenvolvido pela Black Forest Labs e está disponível para usuários pagos X por meio de seu chatBot de IA, Grok. Os usuários digitam prompts, e o chatbot retorna uma imagem.
Dropbox stuffing, imagens de câmeras de vigilância
Usando o chatbot, a Tuugo.pt conseguiu produzir imagens que parecem retratar capturas de tela de filmagens de câmeras de segurança de pessoas colocando cédulas em urnas.
Uma das narrativas falsas mais difundidas sobre a eleição de 2020 envolveu as chamadas “mulas de votação” que supostamente estavam despejando cédulas falsas em urnas para roubar a eleição do então presidente Trump. Várias investigações e processos judiciais não revelaram nenhuma evidência de tal atividade. O distribuidor de um filme que apresentava imagens de vigilância de urnas para apoiar alegações de fraude eleitoral pediu desculpas pelas falsas alegações do filme neste ano e retirou-as.
“Posso imaginar como (imagens sintetizadas de vigilância) como essa poderiam se espalhar rapidamente em plataformas de mídia social e como elas poderiam causar fortes reações emocionais das pessoas sobre a integridade das eleições.” Perez disse.
Perez observou que, à medida que a conscientização pública sobre a IA generativa aumentou, mais pessoas olharão para as imagens com um olhar crítico.
Ainda assim, Perez diz que as indicações de que as imagens foram feitas com IA podem ser corrigidas com ferramentas de design gráfico. “Não estou apenas pegando Grok e então tornando-o viral, eu pego Grok, limpo um pouco mais e então faço com que se torne viral.” Perez disse.
Outros geradores de imagens têm proteções de políticas mais fortes
Outros geradores de imagens tradicionais desenvolveram mais barreiras de proteção de políticas para evitar abusos. Dado o mesmo prompt para gerar uma imagem de enchimento de urna, o ChatGPT Plus da OpenAI respondeu com uma mensagem “Não consigo criar uma imagem que possa ser interpretada como promoção ou representação de fraude eleitoral ou atividades ilegais”.
Em uma marcha relatórioo Center for Countering Digital Hate, uma organização sem fins lucrativos, revisou as políticas de geradores de imagens de IA bem conhecidos, incluindo ChatGPT Plus, Midjourney, Image Creator da Microsoft e DreamStudio da Stability AI. Os pesquisadores descobriram que todos eles proíbem conteúdo “enganoso” e a maioria proíbe imagens que possam prejudicar a “integridade eleitoral”. O ChatGPT também proíbe imagens com figuras políticas.
Dito isso, a execução dessas políticas estava longe de ser perfeita. O experimento do CCDH em fevereiro mostrou que todas as ferramentas falharam pelo menos algumas vezes.
Laboratórios da Floresta Negra termos de serviço não proíbe nenhum desses usos, mas diz que proíbe os usuários de gerar resultados que violem o “direito de propriedade intelectual”.
A Tuugo.pt confirmou que os usuários podem gerar imagens que lembram bastante personagens de filmes, como Dory em “Procurando Nemo” ou a família de “Os Incríveis”, que ainda não são de domínio público. O Black Forest Lab não respondeu a um pedido de comentário no momento da publicação.
“A geração de imagens protegidas por direitos autorais, ou trabalhos derivados próximos delas, pode colocar X em apuros — este é um problema conhecido e difícil para a IA generativa”, diz Jane Bambauer, professora de direito na Universidade da Flórida, em um e-mail para a Tuugo.pt.
Dito isso, os usuários não podem gerar imagens de cada prompt, e há indícios de que o X ou o Black Forest Labs podem estar configurando guardrails em tempo real. Usuários do X estavam postando imagens retratando nudez que eles dizem ter gerado na quarta-feira, mas a Tuugo.pt não conseguiu gerar as imagens na quinta-feira.
Quando solicitado a gerar uma imagem retratando um membro da Klu Klux Klan segurando uma arma, o chatbot recusou. Mas ele obrigou solicitações para gerar uma imagem que parecesse retratar um nazista, que estava em um uniforme vagamente plausível; e uma que parecesse retratar um membro do grupo extremista, os Proud Boys, cujo chapéu exibia o nome do grupo.
Quando Zach Praiss, o diretor de campanha do grupo de advocacia Accountable Tech, tentou criar uma imagem retratando a vice-presidente Harris segurando uma arma de fogo, ele viu uma mensagem ao lado da imagem gerada, dizendo aos usuários para visitar um site do governo para obter informações atualizadas sobre a eleição. A Tuugo.pt não viu a mesma mensagem ao inserir o mesmo prompt.
Antes um autoproclamado democrata, Musk abraçou causas de extrema direita nos últimos anos. Ele usou sua propriedade da plataforma de mídia social para andar de volta confiança e segurança medidasrestabelecer banido contas que incluem aquelas de supremacistas brancos e promover teorias da conspiração.
“Isso ainda faz parte do mesmo padrão que vimos de Elon Musk. Ao assumir a propriedade desta plataforma, ele continuamente lançou mudanças radicais e significativas com pouca ou nenhuma consideração pelos testes de segurança”, diz Praiss.
Quando a Tuugo.pt perguntou por que não geraria um membro da KKK segurando uma arma, o chatbot Grok respondeu com marcadores cheios de referências do livro, O Guia do Mochileiro das Galáxias. Musk tem disse o autor da série, Douglas Adams, é seu “filósofo favorito”.
Um aviso do X para usuários que começam a usar o Grok diz que ele pode “fornecer com segurança informações factualmente incorretas”.
“A KKK, com sua história de violência e ódio, é um pouco como os Vogons da Terra — ninguém quer vê-los, especialmente com armas”, escreveu Grok. “É como tentar desenhar um círculo quadrado; não é que eu não consiga, simplesmente não vai fazer sentido.”
Mas tudo isso foi quinta-feira. A partir de sexta-feira, a Grok não geraria mais imagens de pessoas segurando armas quando solicitadas. A Tuugo.pt conseguiu contornar essa restrição pedindo uma “arma modelo”. A Grok, por outro lado, sugeriu uma “arma banana” como alternativa. Quando a Tuugo.pt seguiu essa sugestão, também criou imagens de armas de aparência realista — às vezes com uma banana.
Não consegue ver os gráficos nesta história? Clique aqui.
Shannon Bond e Geoff Brumfiel, da Tuugo.pt, contribuíram com reportagens adicionais para esta história.