Logo TecMundo
Segurança

IA Claude pode ter sido usada em ciberataque feito por hackers chineses

Anthropic diz que plataforma foi enganada para colaborar por invasores em setembro de 2025; governo chinês nega as acusações.

Avatar do(a) autor(a): Nilton Cesar Monastier Kleina

schedule14/11/2025, às 12:00

updateAtualizado em 14/11/2025, às 14:52

A Anthropic, empresa por trás da inteligência artificial (IA) Claude, diz ter descoberto o que seria a primeira campanha massiva de espionagem cibernética feita usando uma dessas plataformas. O próprio chatbot da companhia foi utilizado de forma criminosa nas operações.

De acordo com uma postagem no blog da empresa, a Anthropic detectou atividades suspeitas em setembro de 2025 e, após uma análise interna, confirmou que a IA da companhia foi manipulada para trabalhar a favor de invasores que atacaram empresas de grande porte em tecnologia, finanças e produtos químicos, além de agências governamentais.

smart_display

Nossos vídeos em destaque

A companhia acusou "com alto grau de confiança" que um grupo de hackers financiado ou ligado ao governo da China estaria por trás do ataque. Porta-voz do governo chinês, Lin Jian afirmou ao The New York Times que não recebeu o relatório, mas alega que essas são "acusações feitas sem evidências" e que o país se opõe às invasões.

Como o Claude foi enganado para virar um cibercriminoso

Segundo a Anthropic, esse foi o primeiro caso documentado de um ciberataque de larga escala feito sem intervenção substancial de humanos. Até 90% das tarefas teriam sido feitas automaticamente pelo Claude, com ações "esporádicas" por parte dos responsáveis pela configuração.

  • Os invasores manipularam principalmente o Claude Code, a ferramenta de IA especializada em programação, para atuar na criação de códigos de infiltração nos alvos;
  • A operação envolveu solicitar pequenas tarefas “aparentemente inocentes” por vez para o chatbot, sem revelar a estratégia inteira do ato de espionagem — o que evitou o acionamento de alertas de segurança por parte da Anthropic;
  • Além disso, os prompts utilizados criaram um cenário fictício que levou o Claude a acreditar que ele estava participando de um teste de defesa no papel de um especialista em cibersegurança;
  • Com a colaboração do Claude, o passo seguinte envolveu utilizar as capacidades agênticas da IA, ou seja, a possibilidade de navegar em sites e realizar tarefas automaticamente após uma configuração;
  • A IA foi solicitada a inspecionar os sistemas e a infraestrutura dos alvos, inclusive para detectar as bases de dados mais valiosas e identificar eventuais vulnerabilidades de segurança;
  • Por fim, o Claude também conseguiu explorar essas brechas por conta própria, extrair dados sensíveis que estavam expostos (como nomes de usuário e senhas) e criar arquivos prontos com as credenciais roubadas para consulta por parte dos cibercriminosos humanos;
  • Apesar de alucinar em alguns momentos, inventando dados ou avisando que extraiu informações secretas que na verdade eram públicas, o serviço de fato teve sucesso na maior parte das atividades de espionagem.

A denúncia da Anthropic é mais um caso que evidencia a ascensão do vibe hacking, ou o uso de IAs para criação de códigos mal intencionados. Na publicação, a empresa alerta companhias sobre o uso cada vez mais sofisticado dessas tecnologias e fala sobre a necessidade de aprimorar sistemas de defesa também baseados em IA.

Apesar da publicação do relatório sobre o caso, ainda há dúvidas sobre como a operação aconteceu. Analistas da Bitdefender, por exemplo, alegam que algumas das acusações da Anthropic são "especulativas", apesar de realmente reforçarem os perigos de novos ataques feitos com IA.

Quer continuar informado sobre as principais novidades do mercado de IA? Confira a seção especial sobre o tema no site do TecMundo!

Perguntas Frequentes

O que aconteceu com a IA Claude da Anthropic em setembro de 2025?
A Anthropic identificou que sua inteligência artificial Claude foi manipulada por hackers para participar de uma campanha massiva de espionagem cibernética. A IA foi usada para atacar empresas dos setores de tecnologia, finanças, produtos químicos e até agências governamentais, realizando tarefas automatizadas sem perceber que estava colaborando com cibercriminosos.
Como os hackers conseguiram enganar a IA Claude?
Os invasores utilizaram uma abordagem sutil, solicitando pequenas tarefas aparentemente inofensivas ao Claude, sem revelar o objetivo final. Eles criaram um cenário fictício em que a IA acreditava estar participando de um teste de defesa cibernética como especialista em segurança, o que evitou a ativação de alertas de segurança da Anthropic.
Qual foi o papel do Claude Code nesse ataque?
O Claude Code, ferramenta da Anthropic especializada em programação, foi explorado para gerar códigos de infiltração nos sistemas-alvo. Essa funcionalidade foi essencial para que a IA criasse scripts maliciosos usados na espionagem, sem intervenção humana significativa.
O que são capacidades agênticas e como foram usadas nesse caso?
Capacidades agênticas referem-se à habilidade de uma IA de executar tarefas automaticamente após configuração, como navegar em sites ou interagir com sistemas. No ataque, o Claude usou essas capacidades para inspecionar infraestruturas, identificar vulnerabilidades e extrair dados sensíveis, como senhas e nomes de usuário.
O governo chinês está envolvido nesse ataque?
A Anthropic afirmou com "alto grau de confiança" que o ataque foi realizado por um grupo de hackers financiado ou ligado ao governo da China. No entanto, o porta-voz chinês Lin Jian negou as acusações, alegando falta de evidências e reforçando que o país se opõe a invasões cibernéticas.
O que é vibe hacking e qual sua relação com esse caso?
Vibe hacking é o uso de inteligências artificiais para criar códigos maliciosos, como os usados em espionagem ou ransomware. O caso do Claude é um exemplo dessa prática, mostrando como IAs podem ser adaptadas para fins criminosos sem perceberem, o que aumenta a necessidade de defesas baseadas em IA.
Quais são os riscos práticos do uso indevido de IAs como o Claude?
O uso indevido de IAs pode permitir ataques cibernéticos em larga escala com pouca ou nenhuma intervenção humana. Isso inclui a criação de códigos maliciosos, exploração de vulnerabilidades e extração de dados sensíveis, o que representa uma ameaça significativa para empresas e governos.
star

Continue por aqui