Logo TecMundo
Segurança

IA aprende a flagrar ataques quase invisíveis que enganam até antivírus

A ferramenta aprende a reconhecer sinais sutis de invasão em processos aparentemente seguros, ajudando a evitar ataques DLL hijacking, que antes passavam despercebidos.

Avatar do(a) autor(a): Cecilia Ferraz

schedule06/10/2025, às 21:00

updateAtualizado em 06/10/2025, às 22:29

Pesquisadores desenvolveram um modelo de inteligência artificial (IA) capaz de identificar ataques de DLL hijacking. Este é um tipo de ataque que permite que cibercriminosos se escondam dentro de programas legítimos sem levantar suspeitas. 

Desenvolvida pela Kaspersky, a IA foi treinada com milhões de arquivos e eventos reais para distinguir atividades legítimas de tentativas de invasão — e já começa a mostrar bons resultados na detecção de ataques antes invisíveis.

smart_display

Nossos vídeos em destaque

O que é DLL hijacking?

O nome pode parecer técnico, mas o conceito é simples. Os programas de computador costumam usar arquivos de apoio chamados DLLs (Dynamic Link Libraries). Esses arquivos funcionam como pequenas “bibliotecas” com funções prontas, por exemplo, para imprimir um documento, exibir uma imagem ou reproduzir um som.

O problema é que essas bibliotecas também podem ser exploradas por criminosos. No DLL hijacking, o invasor substitui a DLL original por uma versão falsa, com código malicioso. O programa, acreditando estar usando o arquivo certo, executa sem querer as instruções do atacante.

O golpe é difícil de flagrar porque o código malicioso roda dentro de um aplicativo legítimo. Para os sistemas de segurança, parece que está tudo normal. E monitorar constantemente todos os processos confiáveis deixaria o computador lento e sobrecarregado.

Como funciona a identificação por Machine Learning

É aí que entra o aprendizado de máquina — uma vertente da IA capaz de encontrar padrões em grandes volumes de dados. Em vez de depender apenas de regras fixas ou listas de vírus conhecidos, os modelos conseguem “aprender” a diferença entre comportamentos normais e suspeitos.

O modelo apresentado pelos pesquisadores foi treinado com milhões de exemplos de programas e bibliotecas, alguns legítimos, outros maliciosos, para reconhecer sinais sutis de manipulação. Entre os indícios analisados estão DLLs salvas em pastas incomuns, executáveis com nomes alterados, ausência de assinaturas digitais (um tipo de selo que confirma a origem do arquivo), e mudanças no tamanho ou na estrutura do arquivo.

De acordo com a empresa, a cada geração de treinamento, a IA foi ficando mais precisa. As versões mais recentes atingiram uma taxa de acerto de cerca de 80%, com uma queda significativa na quantidade de falsos alarmes.

Segundo os autores do estudo, o sistema já analisa milhões de eventos diários, cruzando dados de diferentes arquivos e processos para calcular a probabilidade de uma tentativa de DLL hijacking. Os casos com maior risco são priorizados por analistas humanos, que fazem a verificação e alimentam novamente o modelo com novas informações, um ciclo contínuo de aprendizado.

A tecnologia também vem sendo testada em ferramentas corporativas de monitoramento de segurança. Em projetos-piloto, ajudou a identificar e bloquear incidentes reais que antes poderiam passar despercebidos.

Para ler mais notícias como essa, acompanhe o TecMundo nas redes sociais. Inscreva-se em nossa newsletter e em nosso canal do YouTube.
 

Perguntas Frequentes

O que é um ataque de DLL hijacking?
DLL hijacking é um tipo de ataque cibernético em que criminosos substituem uma biblioteca legítima (DLL) por uma versão maliciosa. Como os programas confiam nessas bibliotecas para executar funções, acabam rodando o código do invasor sem perceber. Isso torna o ataque difícil de detectar, pois ocorre dentro de um aplicativo aparentemente seguro.
Por que ataques de DLL hijacking são difíceis de detectar?
Esses ataques são difíceis de identificar porque o código malicioso é executado dentro de programas legítimos, sem alterar seu comportamento visível. Além disso, monitorar constantemente todos os processos confiáveis exigiria muitos recursos do sistema, o que poderia deixá-lo lento e sobrecarregado.
Como a inteligência artificial ajuda a detectar esses ataques?
A IA desenvolvida pela Kaspersky utiliza aprendizado de máquina para identificar padrões sutis que indicam possíveis ataques. Em vez de depender apenas de listas de vírus conhecidos, o sistema aprende a diferenciar comportamentos normais de suspeitos com base em milhões de exemplos reais de arquivos e eventos.
Quais sinais a IA analisa para identificar uma tentativa de invasão?
O modelo de IA observa indícios como DLLs salvas em locais incomuns, executáveis com nomes alterados, ausência de assinaturas digitais (que confirmam a origem do arquivo) e mudanças no tamanho ou estrutura dos arquivos. Esses sinais ajudam a identificar manipulações que poderiam passar despercebidas por antivírus tradicionais.
Qual é a taxa de acerto da IA na detecção de ataques?
Segundo a Kaspersky, as versões mais recentes do modelo atingiram uma taxa de acerto de cerca de 80%, com uma redução significativa na quantidade de falsos positivos, ou seja, alertas incorretos sobre ameaças inexistentes.
Como funciona o ciclo de aprendizado contínuo da IA?
O sistema analisa milhões de eventos diariamente e calcula a probabilidade de cada um ser um caso de DLL hijacking. Os casos mais suspeitos são revisados por analistas humanos, que confirmam ou descartam a ameaça. Essas informações são então usadas para treinar novamente o modelo, tornando-o cada vez mais preciso.
Essa tecnologia já está sendo usada na prática?
Sim. A IA está sendo testada em ferramentas corporativas de monitoramento de segurança. Em projetos-piloto, ela já ajudou a identificar e bloquear incidentes reais que poderiam passar despercebidos por sistemas tradicionais.
star

Continue por aqui