Logo TecMundo
Segurança

Google alerta: malwares estão usando IA generativa para se melhorar

Pela primeira vez, pesquisadores de segurança identificaram malwares com IA alterando seus códigos durante ataques.

Avatar do(a) autor(a): André Luiz Dias Gonçalves

schedule06/11/2025, às 20:00

updateAtualizado em 07/11/2025, às 09:51

A inteligência artificial generativa está sendo utilizada para o desenvolvimento de novas famílias de malwares com capacidade de alterar seu comportamento durante ataques cibernéticos. É o que revela um relatório do Google Threat Intelligence Group (GTIG) divulgado na última quarta-feira (05).

Trazendo novos dados para um estudo feito no início do ano, os pesquisadores de segurança da gigante de Mountain View alertam que esses “malwares habilitados para IA” usam grandes modelos de linguagem para se aprimorar. Deixando de ser estáticos, eles podem se adaptar a diferentes contextos, representando riscos ainda maiores.

smart_display

Nossos vídeos em destaque

ilustracao-de-ia-usada-em-ciberataques
Malwares com IA possuem capacidades ampliadas. (napong rattanaraktiya/Getty Images)

Malwares autônomos e adaptáveis

Segundo o GTIG, pela primeira vez foram identificados malwares que usam modelos de linguagem durante a execução de campanhas maliciosas. Isso fornece novas capacidades para os agentes de ameaça e pode se tornar uma tendência no universo do cibercrime.

  • O PromptFlux é um desses programas maliciosos, tendo sido flagrado usando o Gemini para reescrever seu código-fonte dinamicamente;
  • Assim como o PromptSteal, ele aproveita a tecnologia para aumentar a capacidade de ofuscação e criar funções maliciosas sob demanda;
  • Conforme os especialistas da big tech, tais características representam um “passo significativo rumo a um malware mais autônomo e adaptável”;
  • Também foram identificados o FruitShell, que escapa de detecções e análises por sistemas baseados em IA, e o PromptLock, variante experimental de ransomware que gera e executa scripts maliciosos repetidamente.

Já o QuietVault é um ladrão de credenciais que mira contas no GitHub e NPM e ganhou aprimoramentos com IA para fazer uma varredura mais ampla no dispositivo infectado, buscando outros tipos de dados valiosos. Ele foi observado em campanhas ativas junto com o PromptSteal e o FruitShell.

Esses agentes maliciosos seguem o conceito “just-in-time” de automodificação, como explicou o Google, se diferenciando das ameaças convencionais que são criadas com códigos estáticos e não conseguem se alterar sozinhos.

celular-com-simbolo-de-caveira
O Google prevê que o uso de IA pelo cibercrime será tendência nos próximos anos. (Imagem: Saulo Angelo/Getty Images)

Cibercriminosos em busca do Gemini

No relatório, a gigante das buscas também destaca que grupos do cibercrime associados a países como Coreia do Norte, Irã e China têm usado cada vez mais a IA Gemini indevidamente. Com a tecnologia, eles otimizam vários estágios de suas operações, da criação de iscas de phishing ao roubo de dados.

Para driblar as restrições que impedem usos indevidos dos recursos mais avançados do bot, esses hackers investem em engenharia social, como afirma a empresa. Eles se passam por pesquisadores de segurança cibernética ou estudantes participando de competições.

O GTIG identificou, ainda, a ampliação do comércio de recursos de IA para o cibercrime em fóruns online. Sistemas para apoiar ataques de phishing, busca por vulnerabilidades e desenvolvimento de malwares são algumas das ferramentas oferecidas para cibercriminosos menos experientes.

Curtiu o conteúdo? Leia mais notícias no TecMundo e interaja com a gente nas redes sociais.

Perguntas Frequentes

O que são malwares habilitados para IA?
São programas maliciosos que utilizam inteligência artificial generativa, especialmente grandes modelos de linguagem, para modificar seu próprio código durante ataques cibernéticos. Isso os torna mais autônomos, adaptáveis e difíceis de detectar, diferentemente dos malwares tradicionais com código estático.
Quais são os exemplos de malwares com IA identificados pelo Google?
O relatório do Google Threat Intelligence Group cita malwares como PromptFlux, PromptSteal, FruitShell, PromptLock e QuietVault. Cada um possui características específicas, como reescrita dinâmica de código, evasão de sistemas de detecção baseados em IA e roubo de credenciais em plataformas como GitHub e NPM.
Como esses malwares utilizam IA para se aprimorar?
Eles empregam modelos de linguagem para gerar código malicioso sob demanda, ofuscar suas funções e adaptar seu comportamento conforme o ambiente do ataque. Essa capacidade de automodificação “just-in-time” representa um avanço significativo em relação às ameaças convencionais.
O que é o conceito de automodificação “just-in-time”?
É a habilidade de um malware de alterar seu próprio código no momento da execução, conforme o contexto do ataque. Isso permite que ele se adapte dinamicamente, dificultando a detecção por sistemas de segurança e aumentando sua eficácia.
Qual o papel da IA Gemini nos ataques cibernéticos?
A IA Gemini tem sido usada indevidamente por grupos cibercriminosos para otimizar diversas etapas de suas operações, como criação de iscas de phishing e desenvolvimento de malwares. Hackers utilizam engenharia social para burlar restrições e acessar os recursos avançados da ferramenta.
O que é engenharia social e como ela é usada nesses ataques?
Engenharia social é uma técnica de manipulação psicológica usada para enganar pessoas e obter acesso a informações ou sistemas. No contexto dos ataques com IA, cibercriminosos se passam por pesquisadores ou estudantes para acessar ferramentas como o Gemini e usá-las em atividades maliciosas.
Existe um mercado de IA voltado para o cibercrime?
Sim. O Google identificou a expansão do comércio de ferramentas baseadas em IA em fóruns online, voltadas para cibercriminosos. Esses recursos incluem sistemas para ataques de phishing, identificação de vulnerabilidades e criação de malwares, facilitando a atuação de hackers menos experientes.
star

Continue por aqui