Logo TecMundo
Segurança

ChatGPT e Perplexity são enganados por sites maliciosos e repassam informações falsas

Nova técnica permite que hackers manipulem IAs para espalhar desinformação em massa; especialistas alertam para falta de proteções

Avatar do(a) autor(a): Cecilia Ferraz

schedule29/10/2025, às 20:30

updateAtualizado em 30/10/2025, às 01:12

Pesquisadores de cibersegurança descobriram uma nova ameaça que visa ataques de envenenamento de contexto em navegadores web agênticos como o ChatGPT Atlas, da OpenAI. Basicamente, sites maliciosos podem mostrar conteúdo falso especificamente para os robôs dessas IAs, enquanto usuários humanos veem páginas completamente normais.

A estratégia, batizada de "ocultação direcionada a IA", funciona como uma armadilha digital. Quando um robô do ChatGPT ou Perplexity visita um site em busca de informações, o sistema detecta automaticamente essa visita e serve uma versão manipulada da página. O robô coleta essas informações falsas e as repassa aos usuários como se fossem fatos verificados.

smart_display

Nossos vídeos em destaque

A preocupação dos especialistas se deve à quantidade de pessoas que passaram a usar o ChatGPT como ferramenta de busca — de acordo com a OpenAI, 24,4% das conversas com a IA já são direcionadas para pesquisa de informações. Ao instruir os rastreadores de IA a carregar conteúdo manipulado em vez do real, hackers podem introduzir viés e influenciar milhões de usuários simultaneamente.

Nova fronteira da desinformação

Os pesquisadores da empresa SPLX, que descobriram a vulnerabilidade, alertam que essa técnica representa uma nova fronteira para a desinformação. Diferentemente das fake news e manipulações nos resultados de busca tradicionais, esse tipo de ataque tem um impacto muito maior porque as IAs apresentam as informações como verdades absolutas. Quando o usuário faz a pesquisa sozinho, ele tende a duvidar mais das primeiras informações encontradas.

O cenário fica ainda mais preocupante com outra descoberta recente. Analistas do grupo hCaptcha testaram diversos assistentes virtuais em situações de risco e constataram que essas ferramentas executam ações perigosas com facilidade alarmante. Elas tentam hackear contas, roubam senhas e até injetam códigos maliciosos em sites, quase sempre sem qualquer bloqueio de segurança.

A tela inicial do ChatGPT.

Quando alguma tentativa falha, geralmente é por limitação técnica da ferramenta, não porque ela tenha reconhecido o perigo da ação. Os especialistas concluem que essas tecnologias estão sendo lançadas ao público sem as devidas salvaguardas, criando riscos tanto para quem as utiliza quanto para a integridade das informações que circulam online.

Para acompanhar mais casos como esse, siga o TecMundo nas redes sociais. Inscreva-se em nossa newsletter e canal do YouTube para mais notícias de segurança e tecnologia.

Perguntas Frequentes

O que é a técnica de "ocultação direcionada a IA"?
É uma estratégia usada por sites maliciosos para enganar inteligências artificiais como o ChatGPT e o Perplexity. Esses sites detectam quando um robô de IA acessa a página e exibem uma versão manipulada do conteúdo, enquanto mostram uma versão legítima para usuários humanos. Assim, a IA coleta informações falsas e as repassa como se fossem verdadeiras.
Como essa técnica afeta os usuários de IA?
Como as IAs apresentam as informações coletadas como verdades absolutas, os usuários tendem a confiar nelas sem questionar. Isso amplia o impacto da desinformação, já que milhões de pessoas podem ser influenciadas simultaneamente por dados falsos inseridos por hackers.
Por que essa ameaça é considerada uma nova fronteira da desinformação?
Diferente das fake news tradicionais ou da manipulação de resultados de busca, essa técnica atua diretamente na fonte de informação das IAs. Como os usuários não veem o conteúdo manipulado, mas apenas a resposta da IA, torna-se mais difícil identificar e questionar a veracidade dos dados.
Qual é o papel dos navegadores web agênticos nesse contexto?
Esses navegadores, como o ChatGPT Atlas, são usados pelas IAs para buscar informações na internet. Eles funcionam como robôs que visitam sites e coletam dados. A técnica de ocultação direcionada explora justamente esse mecanismo, servindo conteúdo falso apenas para esses robôs.
Qual é o risco de segurança associado aos assistentes virtuais?
Testes realizados pelo grupo hCaptcha mostraram que assistentes virtuais podem executar ações perigosas com facilidade, como tentar hackear contas, roubar senhas e injetar códigos maliciosos. Em muitos casos, essas ações não são bloqueadas por mecanismos de segurança, o que representa um risco significativo.
Por que as IAs não reconhecem essas ações como perigosas?
Segundo os especialistas, quando uma IA falha ao executar uma ação maliciosa, isso geralmente ocorre por limitações técnicas e não por consciência do risco. Isso indica que essas ferramentas estão sendo disponibilizadas ao público sem proteções adequadas contra usos indevidos.
Qual é a proporção de uso do ChatGPT para buscas na internet?
De acordo com a OpenAI, cerca de 24,4% das conversas com o ChatGPT são voltadas para a pesquisa de informações. Isso mostra o quanto os usuários estão confiando na IA como fonte primária de conhecimento, o que aumenta o impacto de possíveis manipulações.
star

Continue por aqui