Enquanto o Irã e Israel lutavam, as pessoas se voltaram para a IA por fatos. Eles não encontraram muitos


Uma imagem gerada pela IA de um avião de combate disparou no deserto com dezenas de pessoas caminhando em direção à frente do avião.

Nos primeiros dias após os ataques aéreos surpresos de Israel no Irã, um vídeo começou a circular no X. Um noticiário, narrado em Azeri, mostra imagens de drones de um aeroporto bombardeado. O vídeo recebeu quase 7 milhões de visualizações sobre X.

Centenas de usuários marcaram a AI integrada do X. GROK Integrado para perguntar: isso é real?

Não é – o vídeo foi criado com IA generativa. Mas as respostas de Grok variaram muito, às vezes minuto a minuto. “O vídeo provavelmente mostra danos reais”, disse uma resposta; “Provavelmente não é autêntico”, disse outro.

Em um novo relatório, os pesquisadores do Laboratório Digital de Pesquisa Forense tabularam mais de 300 respostas da GROK ao Post.

“O que estamos vendo é a IA mediando a experiência da guerra”, disse Emerson Brooking, diretor de estratégia do DFRLab, parte do grupo de políticas não participantes do Conselho Atlântico. Ele é co-autor de um livro sobre como as mídias sociais moldam as percepções de guerra.

“Há uma diferença entre experimentar conflitos apenas em uma plataforma de mídia social e experimentá -lo com um companheiro de conversação, que é infinitamente paciente, que você pode pedir para falar sobre qualquer coisa”, disse Brooking. “Este é outro marco na maneira como os públicos processarão e entenderão conflitos e guerra armados. E estamos apenas no início”.

Com imagens e vídeos gerados pela IA crescendo rapidamente, os pesquisadores que estudam conflitos e informações dizem que se tornou mais fácil para os atores motivados espalharem reivindicações falsas e mais difíceis para alguém entender os conflitos com base no que está vendo online. Brooking assistiu a esse escalado desde o ataque do Hamas a Israel em 7 de outubro de 2023.

“Inicialmente, muito do material gerado pela IA estava em alguns esforços de diplomacia pública de Israel, justificando greves crescentes contra Gaza”, disse Brooking. “Mas com o passar do tempo, começando no ano passado com as primeiras trocas de incêndio entre o Irã e Israel, o Irã também começou a saturar o espaço com material de conflito gerado pela IA”.

Edifícios destruídos e aeronaves derrubadas estão entre as imagens e vídeos gerados pela IA que se espalharam, alguns com óbvio dizem que foram criados com a IA, mas outros com sinais mais sutis.

“Este é potencialmente o pior que vi o ambiente de informação nos últimos dois anos”, disse Isabelle Frances-Wright, diretora de tecnologia e sociedade do Instituto de Diálogo Estratégico sem fins lucrativos. “Só posso imaginar como é (pois) o usuário médio de mídia social está nesses feeds”.

Os bots da AI entraram no chat

As empresas de mídia social e fabricantes de AI Chatbots não compartilharam dados sobre a frequência com que as pessoas usam chatbots para procurar informações sobre os eventos atuais, mas um relatório do Reuters Institute publicado em junho mostrou que cerca de 7% dos usuários nas dezenas de países que o instituto pesquisou usam a IA para obter notícias. Quando solicitado a comentar, X, Openai, Google e Antrópico não responderam.

A partir de março, os usuários de X conseguiram fazer perguntas à GROK marcando -as em respostas. O relatório do DFRLab analisou mais de 100.000 postagens de usuários marcando Grok e perguntando sobre a guerra de Israel-Irã nos seus três primeiros dias.

O relatório constatou que, quando solicitado a verificar algo, a GROK faz referência à Comunidade Notas, o esforço de verificação de fatos de X Crowdsourced. Isso tornou as respostas do chatbot mais consistentes, mas ainda se contradizia.


A fumaça sobe de locais direcionados em Teerã em meio ao terceiro dia das ondas de greves de Israel contra o Irã, em 15 de junho de 2025. Embora essa imagem seja real, a proliferação de imagens geradas pela IA permitiu que as campanhas de influência apoiadas pelo Estado florescessem.

A NPR enviou consultas semelhantes a outros chatbots sobre a autenticidade de fotos e vídeos supostamente representando a guerra de Israel-Irã. O ChatGPT da Openai e os Gêmeos do Google responderam corretamente que uma imagem alimentou que não era do conflito atual, mas depois a atribuiu a outras operações militares. Claude da Anthrópica disse que não poderia autenticar o conteúdo de uma maneira ou de outra.

Mesmo fazendo perguntas mais complicadas do Chatbots do que “é real?” Vem com suas próprias armadilhas, disse Mike Caulfield, pesquisador de alfabetização e desinformação digital. “(As pessoas) tiram uma foto e dizem: ‘Analise isso para mim como se você fosse um analista de defesa.'” Ele disse que os chatbots podem responder de maneiras bastante impressionantes e podem ser ferramentas úteis para especialistas, mas “não é algo que sempre ajudará um novato”.

Ai e o “dividendo do mentiroso”

“Não sei por que tenho que dizer às pessoas isso, mas você não obtém informações confiáveis ​​sobre as mídias sociais ou um bot da IA”, disse Hany Farid, professor especializado em mídia forense da Universidade da Califórnia, Berkeley.

Farid, que foi pioneiro em técnicas para detectar meios sintéticos digitais, alertou contra o uso casualmente de chatbots para verificar a autenticidade de uma imagem ou vídeo. “Se você não sabe quando é bom e quando não é bom e como contrabalançar isso com técnicas forenses mais clássicas, você está apenas pedindo para mentir.”

Ele usou alguns desses chatbots em seu trabalho. “Na verdade, é bom em reconhecimento de objetos e reconhecimento de padrões”, disse Farid, observando que os chatbots podem analisar o estilo de edifícios e o tipo de carros típicos de um local.

A ascensão das pessoas que usam a IA Chatbots como fonte de notícias coincide com os vídeos gerados pela IA se tornando mais realistas. Juntos, essas tecnologias apresentam uma lista crescente de preocupações para os pesquisadores.

“Há um ano, principalmente o que vimos foram imagens. As pessoas ficaram um pouco cansadas ou desconfiadas, devo dizer, de imagens. Mas agora vídeos completos, com efeitos sonoros-esse é um jogo de bola diferente diferente”, disse ele, apontando para o gerador de texto para vídeo recentemente lançado do Google, VEO 3.

As novas tecnologias são impressionantes, disse Farid, mas ele e outros pesquisadores há muito tempo alertam sobre o potencial da IA ​​para reforçar o que é conhecido como “o dividendo do mentiroso”. É quando uma pessoa que tenta evitar a responsabilidade é mais provável de se acreditar por outras pessoas ao afirmar que incriminatação ou comprometimento de evidências visuais contra elas são fabricadas.

Outra preocupação com Farid é a capacidade da IA ​​de percepções significativamente enlameadas dos eventos atuais. Ele aponta um exemplo dos recentes protestos contra os ataques de imigração do presidente Trump: o governador da Califórnia, Gavin Newsom, compartilhou uma imagem de membros da Guarda Nacional ativada dormindo no chão de Los Angeles. O post de Newsom criticou a liderança de Trump, dizendo: “Você enviou suas tropas aqui sem combustível, comida, água ou um lugar para dormir”. Farid disse que os usuários da Internet começaram a questionar a autenticidade da foto, com alguns dizendo que foi gerada pela IA. Outros o enviaram ao ChatGPT e foram informados de que a imagem era falsa.

“E de repente a internet enlouqueceu: ‘O governador Newsom pegou compartilhando uma imagem falsa'”, disse Farid, cuja equipe foi capaz de autenticar a foto. “Então, agora, não apenas as pessoas recebem informações não confiáveis ​​do ChatGPT, mas estão colocando imagens que não se encaixam na narrativa, não se encaixam na história que querem contar e depois Chatgpt diz: ‘Ah, é falso’. E agora vamos para as corridas. “

Como Farid alerta com frequência, essas camadas adicionais de incerteza parecem ter certeza de que de maneiras perigosas. “Quando o verdadeiro vídeo de violações dos direitos humanos sai, ou um bombardeio, ou alguém dizendo algo inapropriado, quem vai acreditar mais?” Ele disse. “Se eu digo, ‘1 mais 1 é 2’ e você diz: ‘Não, não é. É maçã’ – porque esse é o teor da conversa hoje em dia – não sei onde estamos.”

Como a IA acelera as campanhas de influência

Embora a IA generativa possa conjurar novas realidades convincentes, o Brooking da DFRLab disse que, em conflito, um dos usos mais convincentes da IA ​​é criar facilmente um tipo de desenho político ou uma mensagem óbvia de propaganda.

Brooking disse que as pessoas não precisam acreditar que o conteúdo visual é autêntico para gostar de compartilhá -lo. O humor, por exemplo, atrai bastante envolvimento do usuário. Ele vê conteúdo gerado pela IA seguindo um padrão semelhante ao que os pesquisadores viram com a sátira política, como quando as manchetes de A cebolaum jornal satírico, se tornaram virais.

“(Os usuários da Internet) estavam sinalizando uma certa afinidade ou conjunto de visualizações compartilhando -as”, disse Brooking. “Estava expressando uma ideia que eles já tinham”.

As habilidades criativas da IA ​​generativa estão prontas para uso em propaganda de todos os tipos, de acordo com Darren Linvill, um professor da Clemson University que estuda como estados como China, Irã e Rússia usam ferramentas digitais para propaganda.

“Há uma campanha muito famosa em que os russos plantaram uma história em um jornal indiano nos anos 80”, disse Linvill. A KGB procurou espalhar a narrativa falsa de que o Pentágono era responsável por criar o vírus da AIDS, então “(a KGB) plantou essa história em um jornal que eles fundaram e, em seguida, usou essa história original para colocar a história por meio de uma campanha de lavagem narrativa propositada em outros pontos de venda ao longo do tempo. Mas levou anos para essa história para divulgar.”

À medida que a tecnologia melhorou, as campanhas de influência aceleraram. “Eles estão se envolvendo no mesmo processo em dias e até horas hoje”, disse Linvill.

A pesquisa de Linvill descobriu que um site de propaganda russo conseguiu manter sua persuasão, enquanto mais do que dobrar sua produção depois de começar a usar o ChatGPT para ajudar a escrever artigos.

Linvill disse que a IA pode ajudar com campanhas de influência estrangeira de várias maneiras, mas a maneira mais eficaz que essas mensagens realmente atingem um público disposto ainda é através de pessoas ou influenciadores proeminentes pelos quais os atores estaduais às vezes pagam.

“Eles espalharam muito pão na água, e alguma porcentagem disso pega e se torna uma parte proeminente da conversa”, disse ele.

Seja se trata de propaganda ou procurar informações em momentos incertos, Linvill e outros pesquisadores com quem conversamos disseram que as idéias mais potentes que a IA podem ajudar a se espalhar são as que confirmam o que as pessoas já querem acreditar.