Como a campanha de Donald Trump está usando memes gerados por IA: Tuugo.pt

Na semana passada, Donald Trump postado em Truth Social uma imagem gerada por inteligência artificial de Taylor Swift em uma roupa de Tio Sam, alegando falsamente que ela o havia apoiado. A imagem é claramente falsa e foi acompanhada por outras representações, algumas também aparentemente geradas por IA, de mulheres jovens em camisetas com os dizeres “Swifties for Trump”.

Na verdade, Swift não apoiou nenhum candidato à presidência este ano e apoiou Joe Biden em vez de Trump em 2020.

Dias depois, Trump reconheceu que as imagens não eram reais.

“Eu não sei nada sobre eles, além de que outra pessoa os gerou, eu não os gerei. Alguém apareceu e disse: ‘Oh, olhe para isso.’ Tudo isso foi feito por outras pessoas”, ele disse Fox Negócios em resposta a uma pergunta sobre se ele estava preocupado com um processo de Swift.

“A IA é sempre muito perigosa nesse sentido”, ele continuou, dizendo que também foi alvo de falsificações que insinuavam que ele fez recomendações que nunca fez.

Mas, na realidade, o próprio Trump compartilhou repetidamente conteúdo gerado por IA nas mídias sociais no exemplo mais recente de como a inteligência artificial está aparecendo na eleição de 2024. A campanha de Trump não respondeu a um pedido de comentário.

Normalmente, Trump repete as postagens de seus apoiadores que adotaram novas ferramentas que facilitam a transformação de descrições de texto rápidas em imagens, plausíveis e fantástico.


Uma imagem gerada por IA do ex-presidente Trump tocando violão com um personagem storm trooper de Star Wars que foi republicada por suas principais contas de mídia social. A NPR adicionou bordas à imagem para deixar claro que a imagem foi gerada por IA.

O tema das imagens que eles criam é frequentemente o próprio Trump: montado numa leãocomo um fisiculturistase apresentando em um show de rock com um stormtrooper de Star Wars (realmente).

Outras vezes, eles zombar ou difamar os seus oponentes — como uma imagem falsa recente que ele partilhou do que pareceu à vice-presidente Harris discursando em um comício de estilo soviéticocompleto com uma bandeira comunista em forma de foice e martelo.

“Uma coisa que a IA em particular é boa em fazer é pegar ideias ou alegações feitas em texto e transformá-las em representações metafóricas”, disse Brendan Nyhan, professor de ciência política no Dartmouth College. Ele diz que esta é uma versão alimentada por IA do tipo de memes, sátira e comentário que são um elemento básico das comunicações políticas.

“É uma delícia para as pessoas que leem muitas notícias políticas online e tendem a ter uma dieta de informação tendenciosa”, disse ele.


Uma imagem gerada por IA publicada pelas contas de mídia social do ex-presidente Trump que retrata a vice-presidente Kamala Harris discursando antes de uma convenção política de estilo soviético. Os apoiadores de Trump frequentemente geram imagens que denigrem e zombam dos oponentes de Trump. A NPR adicionou a borda à imagem para deixar claro que ela foi gerada com IA.

Apoiadores de Trump adotam IA para piadas e sátiras

Muitas dessas imagens de IA não parecem ter a intenção de serem tomadas como literalmente verdadeiras. Elas são frequentemente compartilhadas como piadas ou paródias. De fato, algumas das fotos falsas de Swifties para Trump que Trump postou foram rotulado como sátira pelo seu criador original.

Eles são direcionados a um público de pessoas que já são fãs de Trump. Isso está de acordo com a longa história de Trump de recompartilhamento de memes grosseiros, atribuição de apelidos depreciativos e piadas às custas de seus rivais.

“Essas imagens têm a função de lembrar às pessoas de que lado elas estão, de quais políticos elas gostam e de quais não gostam, e assim por diante”, disse Nyhan.

À medida que as ferramentas de IA se tornaram amplamente disponíveis, as preocupações concentraram-se nas suas funções mais usos maliciosos para enganar os eleitorescomo deepfakes de candidatos, ou representações fotorrealistas de eventos que nunca aconteceu.

Algumas dessas preocupações se concretizaram tanto nos EUA quanto no exterior — como a IA gerada chamada falsa de robô personificando o presidente Biden dizendo aos democratas para não votarem nas primárias de New Hampshire.

Há uma falta de consenso entre as empresas por trás dos geradores de IA sobre quais proteções devem ser colocadas. A OpenAI, a fabricante do DALL-E e do ChatGPT, proíbe os usuários de criar imagens de figuras públicas, incluindo candidatos políticos e celebridades. Mas o gerador de imagens de IA lançado recentemente no X, a plataforma de mídia social anteriormente conhecida como Twitter, parece ter menos limites. Quando a Tuugo.pt o testou em meados de agosto, a ferramenta produziu representações que parecem mostrar Trump e Harris segurando armas de fogo e urnas sendo preenchidas.

Usos ainda mais mundanos da IA ​​também podem contribuir para um ambiente onde as pessoas confiam no que veem cada vez menos, disse Hany Farid, professor da UC Berkeley especializado em análise forense de imagens.

O próprio Trump capitalizou essa desconfiança, alegando falsamente que a campanha Harris-Walz usou IA para fingir uma multidão em um comício recente. (A multidão e a foto em questão eram reais.)

“Se você vê constantemente imagens falsas e aquelas que parecem realmente atraentes e realmente altamente fotorrealistas … você então tem menos probabilidade de acreditar? Você agora começa a simplesmente duvidar de tudo?” Farid disse.

Material gerado por IA pode inflamar tensões

Nyhan diz que, embora esse tipo de conteúdo de IA dificilmente conquiste pessoas que ainda não estão alinhadas com Trump, ele pode inflamar ou até mesmo mobilizar aqueles que já têm as visões mais extremas. É por isso que ele se preocupa com representações de violência, mesmo aquelas que são obviamente falsas.

“As pessoas, é claro, encontrarão conteúdo de IA online. Todo mundo encontrará. Mas as pessoas que estão encontrando o conteúdo mais enganoso ou inflamatório provavelmente já vêm das franjas”, disse ele. “Essas pessoas já estão polarizadas. É provável que isso as polarize ainda mais? Provavelmente não mudará seu voto. De que maneiras isso pode ser prejudicial?”

Ainda há muito tempo antes do dia da eleição para que conteúdo enganoso ou de IA enganoso se torne viral ou, como alguns observadores dizem ser o maior risco, seja direcionado a eleitores individuais em canais privados.

“Os tipos mais perniciosos de mídia sintética enganosa em torno das eleições nem serão esforços para desacreditar um candidato em particular ou fazê-lo parecer ruim. … Serão esforços para tentar suprimir eleitores e enganá-los e impedi-los de votar”, disse Daniel Weiner, diretor do programa de eleições e governo do Brennan Center for Justice, uma organização sem fins lucrativos de políticas públicas focada em direitos de voto.

Ele está preocupado que isso possa ser usado para fazer alegações falsas e convincentes de ameaças ou interrupções nos locais de votação — e, em última análise, minar ainda mais a confiança nas próprias eleições.

“A maior preocupação em torno da IA ​​é que ela tende a amplificar ameaças que resultam de outras lacunas e fraquezas no processo democrático”, disse ele.