Pesquisadores de cibersegurança descobriram uma nova ameaça que visa ataques de envenenamento de contexto em navegadores web agênticos como o ChatGPT Atlas, da OpenAI. Basicamente, sites maliciosos podem mostrar conteúdo falso especificamente para os robôs dessas IAs, enquanto usuários humanos veem páginas completamente normais.
A estratégia, batizada de "ocultação direcionada a IA", funciona como uma armadilha digital. Quando um robô do ChatGPT ou Perplexity visita um site em busca de informações, o sistema detecta automaticamente essa visita e serve uma versão manipulada da página. O robô coleta essas informações falsas e as repassa aos usuários como se fossem fatos verificados.
smart_display
Nossos vídeos em destaque
A preocupação dos especialistas se deve à quantidade de pessoas que passaram a usar o ChatGPT como ferramenta de busca — de acordo com a OpenAI, 24,4% das conversas com a IA já são direcionadas para pesquisa de informações. Ao instruir os rastreadores de IA a carregar conteúdo manipulado em vez do real, hackers podem introduzir viés e influenciar milhões de usuários simultaneamente.
Nova fronteira da desinformação
Os pesquisadores da empresa SPLX, que descobriram a vulnerabilidade, alertam que essa técnica representa uma nova fronteira para a desinformação. Diferentemente das fake news e manipulações nos resultados de busca tradicionais, esse tipo de ataque tem um impacto muito maior porque as IAs apresentam as informações como verdades absolutas. Quando o usuário faz a pesquisa sozinho, ele tende a duvidar mais das primeiras informações encontradas.
O cenário fica ainda mais preocupante com outra descoberta recente. Analistas do grupo hCaptcha testaram diversos assistentes virtuais em situações de risco e constataram que essas ferramentas executam ações perigosas com facilidade alarmante. Elas tentam hackear contas, roubam senhas e até injetam códigos maliciosos em sites, quase sempre sem qualquer bloqueio de segurança.
)
Quando alguma tentativa falha, geralmente é por limitação técnica da ferramenta, não porque ela tenha reconhecido o perigo da ação. Os especialistas concluem que essas tecnologias estão sendo lançadas ao público sem as devidas salvaguardas, criando riscos tanto para quem as utiliza quanto para a integridade das informações que circulam online.
Para acompanhar mais casos como esse, siga o TecMundo nas redes sociais. Inscreva-se em nossa newsletter e canal do YouTube para mais notícias de segurança e tecnologia.
Perguntas Frequentes
O que é a técnica de "ocultação direcionada a IA"?keyboard_arrow_down
É uma estratégia usada por sites maliciosos para enganar inteligências artificiais como o ChatGPT e o Perplexity. Esses sites detectam quando um robô de IA acessa a página e exibem uma versão manipulada do conteúdo, enquanto mostram uma versão legítima para usuários humanos. Assim, a IA coleta informações falsas e as repassa como se fossem verdadeiras.
Como essa técnica afeta os usuários de IA?keyboard_arrow_down
Como as IAs apresentam as informações coletadas como verdades absolutas, os usuários tendem a confiar nelas sem questionar. Isso amplia o impacto da desinformação, já que milhões de pessoas podem ser influenciadas simultaneamente por dados falsos inseridos por hackers.
Por que essa ameaça é considerada uma nova fronteira da desinformação?keyboard_arrow_down
Diferente das fake news tradicionais ou da manipulação de resultados de busca, essa técnica atua diretamente na fonte de informação das IAs. Como os usuários não veem o conteúdo manipulado, mas apenas a resposta da IA, torna-se mais difícil identificar e questionar a veracidade dos dados.
Qual é o papel dos navegadores web agênticos nesse contexto?keyboard_arrow_down
Esses navegadores, como o ChatGPT Atlas, são usados pelas IAs para buscar informações na internet. Eles funcionam como robôs que visitam sites e coletam dados. A técnica de ocultação direcionada explora justamente esse mecanismo, servindo conteúdo falso apenas para esses robôs.
Qual é o risco de segurança associado aos assistentes virtuais?keyboard_arrow_down
Testes realizados pelo grupo hCaptcha mostraram que assistentes virtuais podem executar ações perigosas com facilidade, como tentar hackear contas, roubar senhas e injetar códigos maliciosos. Em muitos casos, essas ações não são bloqueadas por mecanismos de segurança, o que representa um risco significativo.
Por que as IAs não reconhecem essas ações como perigosas?keyboard_arrow_down
Segundo os especialistas, quando uma IA falha ao executar uma ação maliciosa, isso geralmente ocorre por limitações técnicas e não por consciência do risco. Isso indica que essas ferramentas estão sendo disponibilizadas ao público sem proteções adequadas contra usos indevidos.
Qual é a proporção de uso do ChatGPT para buscas na internet?keyboard_arrow_down
De acordo com a OpenAI, cerca de 24,4% das conversas com o ChatGPT são voltadas para a pesquisa de informações. Isso mostra o quanto os usuários estão confiando na IA como fonte primária de conhecimento, o que aumenta o impacto de possíveis manipulações.