WormGPT: Ferramenta de IA projetada para auxiliar cibercriminosos permitirá que hackers desenvolvam ataques em larga escala
Ao contrário do ChatGPT, WormGPT não possui proteções incorporadas para impedir que as pessoas façam uso indevido da tecnologia
Uma ferramenta ao estilo ChatGPT, concebida para auxiliar cibercriminosos, permitirá que hackers desenvolvam ataques sofisticados em uma escala significativamente maior, alertaram pesquisadores. Os criadores do WormGPT o apresentam como um equivalente ao popular chatbot de IA desenvolvido pela OpenAI para produzir respostas semelhantes às humanas.
No entanto, ao contrário do ChatGPT, não possui proteções incorporadas para impedir que as pessoas façam uso indevido da tecnologia. O chatbot foi descoberto pela empresa de cibersegurança Slash Next e pelo hacker reformado Daniel Kelley, que encontrou anúncios do malware em fóruns de cibercrime.
Enquanto a IA oferece avanços significativos em áreas como saúde e ciência, a capacidade dos grandes modelos de IA de processar enormes quantidades de dados rapidamente significa que eles também podem auxiliar hackers a desenvolver ataques cada vez mais sofisticados.
O ChatGPT alcançou 100 milhões de usuários nos primeiros dois meses após seu lançamento em novembro passado. Seu sucesso levou outras gigantes da tecnologia a tornarem públicos seus próprios modelos de linguagem, como o Bard do Google ou o LLaMA 2 da Meta.
Como funciona o WormGPT
Os hackers utilizam o WormGPT ao adquirir uma assinatura via web obscura. Eles então têm acesso a uma página da web que lhes permite inserir comandos e receber respostas semelhantes às humanas. O malware é principalmente desenvolvido para e-mails de phishing e ataques de comprometimento de e-mail corporativo.
Trata-se de uma forma de ataque de phishing em que um hacker tenta enganar os funcionários para que transfiram dinheiro ou revelem informações sensíveis. Testes realizados por pesquisadores descobriram que o chatbot poderia escrever um e-mail persuasivo de um CEO de uma empresa solicitando a um funcionário que pagasse uma fatura fraudulenta.
Ele se baseia em uma ampla gama de textos existentes escritos por humanos, o que significa que o texto que cria é mais crível e pode ser usado para se passar por uma pessoa confiável em um sistema de e-mail corporativo.
O Sr. Kelley afirmou que não há risco direto aos dados pessoais, mas acrescentou: "[WormGPT] representa um risco indireto aos dados pessoais porque pode ser usado para facilitar ataques que os invasores possam querer lançar, que visariam dados pessoais, como phishing ou ataques de comprometimento de e-mail corporativo."
Os pesquisadores recomendaram que as empresas aprimorem seus sistemas de verificação de e-mail, escaneando palavras como "urgente" ou "transferência bancária", frequentemente usadas nesses ataques. Melhorar o treinamento dos funcionários para entender como a IA pode ser usada para auxiliar hackers poderia ajudar a identificar ataques, acrescentaram.