Logo TecMundo
Segurança

Pesquisa descobre brechas críticas em plataforma de IA da Nvidia

Ambiente para testagem de inteligência artificial poderia ser explorado por vulnerabilidades de alta periculosidade e expor dados

Avatar do(a) autor(a): Felipe Vitor Vidal Neri

schedule05/08/2025, às 18:45

updateAtualizado em 11/03/2026, às 08:35

A Nvidia confirmou na última segunda-feira (04), uma lista de vulnerabilidades que colocam em risco o Nvidia Triton Inference Server. Três vulnerabilidades específicas foram divulgadas pela companhia, que quando exploradas em conjunto, apresentam um risco significativo para o ecossistema.

Essas falhas foram inicialmente descobertas pelos pesquisadores de segurança da Wiz Research. Uma possível investida por atores maliciosos pode permitir que um invasor remoto e não identificado obtenha controle total do servidor, conseguindo até mesmo executar códigos arbitrários.

smart_display

Nossos vídeos em destaque

O Nvidia Triton Inference Server é uma plataforma de código aberto da gigante, utilizado primordialmente para testar e executar modelos de inteligência artificial. O grande destaque dessa plataforma é a escala grandiosa dos modelos testados, geralmente usados por empresas e desenvolvedores para gerenciar essas tecnologias.

pesquisa-encontra-brechas-em-plataforma-de-ia-da-nvidia
A plataforma Triton pode ser usada para executar modelos em CPUs  executar modelos em CPUs x86 e Arm, GPUs NVIDIA e AWS Inferentia (Imagem: Nvidia)

Quais são e como funcionam as brechas no Nvidia Triton?

Tanto os pesquisadores da Wiz quanto a própria Nvidia confirmaram a existência de três grandes falhas que representam uma ameaça para a plataforma. Essas vulnerabilidades não são isoladas e podem começar sutilmente, mas quando unidas podem ter consequências devastadoras. Confira as brechas:

  • CVE-2025-23319 (Pontuação 8.1 no CVSS: Alta severidade): invasores podem causar uma falha de escrita fora dos limites, que pode ser usada para assumir o controle do servidor;
  • CVE-2025-23320 (Pontuação 7.5 no CVSS: Alta severidade): o invasor pode enviar requisições grandes demais e exceder o limite de memória do servidor. Isso leva a condições de negação de serviço;
  • CVE-2025-23334 (Pontuação 5.9 no CVSS: Média severidade): o invasor pode enviar uma requisição específica e utilizá-la para vazar informações confidenciais da memória do sistema.

É válido notar que todas essas falhas se iniciam no Python backend, ou seja, no motor do Nvidia Triton, por assim dizer. Isso significa que o ataque não se inicia no servidor como um todo, mas sim em uma de suas partes mais críticas e diretamente ligadas à execução dos modelos de IA.

Como mencionado acima, as brechas têm perigo quando exploradas em conjunto. Nos testes da Wiz Research, tudo começou ao explorar a falha CVE-2025-23320 para criar o erro de falha de escrita fora dos limites. Esse erro é responsável por vazar o nome completo e exclusivo do IPC (Inter-Process Communication), que deveria ser totalmente privado.

pesquisa-encontra-brechas-em-plataforma-de-ia-da-nvidia
Backend de Python também lida com infraestrutura de modelos como o PyTorch e TensorFlow (Imagem: Wiz Research/Reprodução)

O problema é que esse nome funciona como um tipo de chave para dar prosseguimento ao ataque pelas duas vulnerabilidades restantes. Ao executar esses passos, é possível ganhar controle total do servidor e executar códigos arbitrários internamente.

“Isso representa um risco crítico para organizações que usam Triton para IA/ML, pois um ataque bem-sucedido pode levar ao roubo de modelos valiosos de IA, à exposição de dados confidenciais, à manipulação das respostas do modelo de IA e um ponto de apoio para os invasores se aprofundarem na rede”, explicam os especialistas da Wiz.

Como se proteger das brechas?

Felizmente, a Nvidia já corrigiu essas falhas no Triton Inference Server com a atualização 25.07. É extremamente recomendado que todos os usuários da plataforma atualizem a aplicação o quanto antes, já que versões anteriores são suscetíveis a ataques.

Também é interessante notar que, apesar do alto risco envolvido, os pesquisadores não encontraram indícios de que essas brechas foram exploradas por invasores.

Para mais informações sobre segurança e como se proteger de vulnerabilidades em softwares e na internet, fique de olho no site do TecMundo
 

Perguntas Frequentes

Quais são as vulnerabilidades encontradas no Nvidia Triton Inference Server?
Foram identificadas três vulnerabilidades críticas no Nvidia Triton Inference Server. Essas falhas, quando exploradas em conjunto, podem permitir que um invasor remoto obtenha controle total do servidor e execute códigos arbitrários.
Quem descobriu essas vulnerabilidades?
As vulnerabilidades foram inicialmente descobertas pelos pesquisadores de segurança da Wiz Research.
O que é o Nvidia Triton Inference Server?
O Nvidia Triton Inference Server é uma plataforma de código aberto utilizada para testar e executar modelos de inteligência artificial. É amplamente usada por empresas e desenvolvedores para gerenciar tecnologias de IA em grande escala.
Quais são os riscos associados a essas vulnerabilidades?
Os riscos incluem a possibilidade de um invasor remoto e não identificado obter controle total do servidor, o que pode comprometer a segurança dos dados e a integridade dos modelos de IA executados na plataforma.
Quais tipos de hardware são suportados pelo Nvidia Triton Inference Server?
A plataforma suporta a execução de modelos em CPUs x86 e Arm, GPUs NVIDIA e AWS Inferentia.
star

Continue por aqui