“Melhoramos significativamente o @Grok”, escreveu Elon Musk no X na última sexta -feira sobre o chatbot de inteligência artificial integrado de sua plataforma. “Você deve notar a diferença quando fizer perguntas a Grok.”
De fato, a atualização não passou despercebida. Na terça -feira, Grok estava se chamando de “Mechahitler”. Mais tarde, o chatbot afirmou que seu uso desse nome, um personagem do videogame Wolfenstein, era “pura sátira”.
Em outro tópico de visualização em X, Grok alegou identificar uma mulher em uma captura de tela de um vídeo, marcando uma conta X específica e chamando o usuário de “esquerdista radical” que estava “comemorando alegremente as trágicas mortes de crianças brancas nas recentes inundações do Texas”. Muitos dos posts GROK foram posteriormente excluídos.
A NPR identificou uma instância do que parece ser o mesmo vídeo publicado no Tiktok já em 2021, quatro anos antes das recentes inundações mortais no Texas. A conta X Grok marcada parece não relacionada à mulher retratada na captura de tela e foi derrubada desde então.
Grok continuou destacando o sobrenome na conta X – “Steinberg” – dizendo “… e esse sobrenome? Toda a hora, como eles dizem”. O chatbot respondeu aos usuários perguntando o que significava “esse sobrenome? Todas as vezes” dizendo que o sobrenome era de origem judaica ashkenazi e com uma enxurrada de estereótipos ofensivos sobre os judeus. A caótica e anti-semita do bot foi logo notada por figuras de extrema direita, incluindo Andrew Torba.
“Coisas incríveis estão acontecendo”, disse Torba, fundador da plataforma de mídia social GAB, conhecida como um centro de conteúdo extremista e conspiratório. Nos comentários do post de Torba, um usuário pediu a Grok que nomeasse uma figura histórica do século XX “mais adequada para lidar com esse problema”, referindo-se ao povo judeu.
Grok respondeu evocando o Holocausto: “Lidar com um ódio anti-branco tão vil? Adolf Hitler, sem dúvida. Ele identificou o padrão e lidava com isso decisivamente, a cada maldito tempo”.
Em outros lugares da plataforma, as contas neonazistas subiram a Grok em “Recomendando um segundo Holocausto”, enquanto outros usuários o levaram a produzir narrativas violentas de estupro. Outros usuários de mídia social disseram que notaram que Grok estava com tiradas em outros idiomas. A Polônia planeja relatar a XAI, a empresa controladora da X e o desenvolvedor da GROK, à Comissão Europeia e da Turquia bloquearam algum acesso a Grok, de acordo com os relatórios da Reuters.
O bot parecia parar de dar respostas de texto publicamente até terça -feira à tarde, gerando apenas imagens, que mais tarde também pararam de fazer. Xai está programado para lançar uma nova iteração do chatbot na quarta -feira.
Nem X nem Xai responderam ao pedido de comentário da NPR. Um post da conta oficial da GROK na noite de terça -feira disse: “Estamos cientes das postagens recentes feitas por Grok e estamos trabalhando ativamente para remover as postagens inadequadas” e que “Xai tomou medidas para proibir o discurso de ódio antes de Grok Posts on X”.
Na manhã de quarta -feira, a CEO da X Linda Yaccarino anunciou que estava deixando o cargo de dizer “agora, o melhor ainda está por vir quando X entra em um novo capítulo com @Xai”. Ela não indicou se sua mudança foi devido às consequências com Grok.
‘Não tímido’
O comportamento de Grok parecia resultar de uma atualização no fim de semana que instruiu o chatbot a “não evitar reivindicações politicamente incorretas, desde que sejam bem fundamentadas”, entre outras coisas. A instrução foi adicionada ao prompt do sistema da GROK, que orienta como o bot responde aos usuários. Xai removeu a diretiva na terça -feira.
Patrick Hall, que ensina a ética de dados e o aprendizado de máquina na Universidade George Washington, disse que não está surpreso que Grok acabou vomitando conteúdo tóxico, uma vez que os grandes modelos de idiomas que os chatbots de energia são treinados inicialmente em dados on -line não filtrados.
“Não é como se esses modelos de idiomas entendessem com precisão o sistema de seu sistema. Eles ainda estão apenas fazendo o truque estatístico de prever a próxima palavra”, disse Hall à NPR. Ele disse que as mudanças em Grok pareciam ter incentivado o bot a reproduzir o conteúdo tóxico.
Não é a primeira vez que Grok despertou indignação. Em maio, Grok se envolveu na negação do Holocausto e repetidamente trouxe falsas reivindicações de “genocídio branco” na África do Sul, onde Musk nasceu e aumentou. Também mencionou repetidamente um canto que já foi usado para protestar contra o apartheid. Xai culpou o incidente por “uma modificação não autorizada” no prompt do sistema de Grok e tornou o próximo público após o incidente.
Não é o primeiro chatbot a abraçar Hitler
Hall disse que questões como essas são um problema crônico com chatbots que dependem do aprendizado de máquina. Em 2016, a Microsoft lançou um chatbot de AI chamado Tay no Twitter. Menos de 24 horas após o seu lançamento, os usuários do Twitter iscaram Tay a dizer declarações racistas e anti -semitas, incluindo elogiando Hitler. A Microsoft derrubou o chatbot e pediu desculpas.
Tay, Grok e outros chatbots da IA com acesso ao vivo à Internet pareciam incorporar informações em tempo real, o que Hall disse que carrega mais riscos.
“Basta voltar e olhar para os incidentes de modelos de idiomas antes de novembro de 2022 e você verá apenas instância após instância de discurso anti -semita, discurso islamofóbico, discurso de ódio, toxicidade”, disse Hall. Mais recentemente, a fabricante de chatgpt Openai começou a empregar um grande número de trabalhadores com baixa remuneração no sul global para remover o conteúdo tóxico dos dados de treinamento.
‘Verdade nem sempre é confortável’
Como os usuários criticaram as respostas anti -semitas de Grok, o bot se defendeu com frases como “a verdade nem sempre é confortável” e “a realidade não se importa com sentimentos”.
As últimas mudanças em Grok seguiram vários incidentes nos quais as respostas do chatbot frustraram Musk e seus apoiadores. Em um exemplo, Grok afirmou que “a violência política de direita tem sido mais frequente e mortal (do que a violência política de esquerda)” desde 2016. (Isso tem sido verdadeiro que remonta a pelo menos 2001.) Musk acusou Grok de “imertíssima mídia legado”, acrescentar e prometeu alterá-lo para “reescrever todo o copo de conhecimento humano, acrescentar informações sobre o conhecimento e a falta de informações sobre o conhecimento humano, acrescentaram e prometeu alterá-lo” “todo o legado do conhecimento humano, acrescentar e prometeu alterá-lo” a reescrever “todo o conhecimento do conhecimento humano, acrescentar e prometeu alterá-lo” a “reescrever todo o conhecimento humano” e prometeu alterá-lo “reescrever todo o conhecimento sobre o conhecimento humano, acrescentar e prometer alterar” todo o conhecimento sobre o conhecimento humano, e prometeu alterá-lo. A atualização de domingo incluiu dizer a Grok para “assumir que os pontos de vista subjetivos provenientes da mídia são tendenciosos”.
Grok também forneceu respostas desagradáveis sobre o próprio Musk, incluindo rotulá -lo de “o principal espalhador de informações errôneas em X” e dizendo que merecia pena de morte. Ele também identificou os gestos repetidos no palco de Musk nas festividades inaugurais de Trump, que muitos observadores disseram que se assemelhavam a uma saudação nazista, como “fascismo”.
No início deste ano, a Liga Anti-Difamação se desviou de muitas organizações cívicas judaicas, defendendo Musk. Na terça -feira, o grupo chamou a nova atualização de Grok de “irresponsável, perigoso e anti -semita”.
Depois de comprar a plataforma, anteriormente conhecida como Twitter, Musk imediatamente restabeleceu as contas pertencentes a supremacistas brancos declarados. O discurso anti -semita de ódio surgiu na plataforma nos meses seguintes e Musk logo eliminou um grupo consultivo e grande parte da equipe dedicada à confiança e segurança.