Como se proteger de golpes de IA: NPR


Os golpistas estão usando ferramentas generativas de inteligência artificial para criar textos e vozes falsas mais convincentes para cometer fraudes, de acordo com um alerta recente do FBI ao público.

Não se deixe enganar por um golpe feito com ferramentas de inteligência artificial neste período de festas de fim de ano. O FBI emitiu um anúncio de serviço público no início deste mês, alertando que os criminosos estão explorando a IA para realizar fraudes maiores de maneiras mais confiáveis.

Embora as ferramentas de IA possam ser úteis em nossas vidas pessoais e profissionais, elas também podem ser usadas contra nós, disse Shaila Rana, professora da Purdue Global que ensina segurança cibernética. “(As ferramentas de IA estão) se tornando mais baratas (e) mais fáceis de usar. Isso está diminuindo a barreira de entrada para os invasores, para que os golpistas possam criar golpes realmente altamente convincentes.”

Existem algumas práticas recomendadas para se proteger contra golpes em geral, mas com o surgimento da IA ​​generativa, aqui estão cinco dicas específicas a serem consideradas.

Cuidado com ataques de phishing sofisticados

Os golpes mais comuns habilitados para IA são ataques de phishing, de acordo com Eman El-Sheikh, vice-presidente associado do Centro de Segurança Cibernética da Universidade de West Florida. Phishing ocorre quando malfeitores tentam obter informações confidenciais para cometer crimes ou fraudes. “(Os golpistas estão usando) IA generativa para criar conteúdo que parece ou parece autêntico, mas na verdade não é”, disse El-Sheikh.

“Antes diríamos às pessoas: ‘procurem erros gramaticais, procurem erros ortográficos, procurem algo que simplesmente não parece certo’. Mas agora, com o uso da IA… pode ser extremamente convincente”, disse Rana à NPR.

No entanto, você ainda deve verificar se há sinais sutis de que um e-mail ou mensagem de texto pode ser fraudulento. Verifique se há erros ortográficos nos nomes de domínio dos endereços de e-mail e procure variações no logotipo da empresa. “É muito importante prestar atenção a esses detalhes”, disse El-Sheikh.

Crie uma palavra-código com seus entes queridos

Os golpes de voz clonada por IA estão aumentando, disse Rana à NPR. “Os golpistas só precisam de alguns segundos da sua voz nas redes sociais para criar um clone”, disse ela. Combinados com dados pessoais encontrados online, os golpistas podem convencer os alvos de que são seus entes queridos.

Golpes de emergência familiar ou “golpes de avós” envolvem ligar para um alvo, criar um extremo senso de urgência ao fingir ser um ente querido em perigo e pedir dinheiro para tirá-lo de uma situação ruim. Um esquema comum é dizer ao alvo que seu ente querido está na prisão e precisa de dinheiro para fiança.

Rana recomenda criar uma palavra-código secreta para usar com sua família. “Portanto, se alguém ligar alegando estar com problemas ou que não é seguro, peça a palavra-código e depois (desligue e) ligue para o número real (de volta) para verificar”, disse ela.

Você também pode se proteger contra esses tipos de golpes, filtrando suas chamadas. “Se alguém estiver ligando para você de um número que você não reconhece e que não está em seus contatos, você pode enviar automaticamente para o correio de voz”, diz Michael Bruemmer, chefe do grupo global de resolução de violação de dados da empresa de relatórios de crédito. Experiano.

Bloqueie suas contas de mídia social

“Contas de mídia social podem ser copiadas ou copiadas”, alertou Bruemmer. Para evitar a falsificação de identidade, reduza sua pegada digital. “Defina as contas de mídia social como privadas, remova números de telefone de perfis públicos. E apenas tenha cuidado e limite as informações pessoais que você compartilha publicamente”, disse Sana. Deixar seus perfis de mídia social públicos “torna mais fácil para os golpistas obterem uma imagem melhor de quem você é, (e) eles podem usar (isso) contra você”, disse ela.


Golpistas sofisticados coletarão informações de contas de mídia social para criar mensagens mais personalizadas para suas vítimas.

Verifique cuidadosamente o endereço da web antes de inserir qualquer informação sensível

Os golpistas podem usar IA para criar sites falsos que pareçam legítimos. O FBI observa que a IA pode ser usada para gerar conteúdo para sites fraudulentos para fraudes de criptomoedas e outros tipos de esquemas de investimento. Também foi relatado que golpistas incorporaram chatbots com tecnologia de IA nesses sites, em um esforço para levar as pessoas a clicar em links maliciosos.

“Você deve sempre verificar a janela do seu navegador… e certificar-se de que (está em) um site criptografado. Ele (começará) com https://”, disse Bruemmer. Ele também disse para garantir que o domínio do site esteja escrito corretamente, “(sites fraudulentos) podem ter um URL com apenas uma letra ou caractere diferente”.

Se você ainda não sabe se o site que está usando é legítimo, tente pesquisar a idade de um site pesquisando nos bancos de dados de pesquisa de domínio WhoIs. Rana disse ser extremamente cautelosa com sites que foram criados recentemente. A Amazon, por exemplo, foi fundada em 1994. Se o banco de dados WhoIs disser que o site “Amazon” que você está procurando foi criado neste milênio, você sabe que está no lugar errado.

Tenha cuidado com fotos e vídeos que solicitam o envio de dinheiro

O FBI alerta que ferramentas generativas de IA têm sido usadas para criar imagens de desastres naturais e conflitos globais, numa tentativa de garantir doações para instituições de caridade fraudulentas. Eles também têm sido usados ​​para criar imagens ou vídeos falsos de pessoas famosas promovendo esquemas de investimento e produtos inexistentes ou falsificados.

Quando você encontrar uma foto ou vídeo solicitando que você gaste dinheiro, tenha cuidado antes de se envolver. Procure sinais reveladores comuns de que uma mídia pode ser falsa. Como Shannon Bond relatou para a NPR em 2023, quando se trata de criar fotos, os geradores de IA “podem ter dificuldade em criar mãos, dentes e acessórios realistas, como óculos e joias”. Os vídeos gerados por IA geralmente apresentam relatos próprios, “como pequenas incompatibilidades entre som e movimento e bocas distorcidas. Muitas vezes faltam expressões faciais ou movimentos corporais sutis que pessoas reais fazem”, escreveu Bond.

“É muito importante que todos nós sejamos responsáveis ​​num mundo digital habilitado para IA e façamos isso diariamente… especialmente agora, perto dos feriados, quando há um aumento em tais crimes e fraudes”, disse El-Sheikh.