Pela primeira vez, um agente de inteligência artificial foi flagrado realizando ataques de larga escala no GitHub utilizando linguagem humana simples. A campanha maliciosa aconteceu no final de fevereiro e foi detectada pela Pillar Security, que revelou os detalhes na última semana.
Batizado de “Chaos Agent”, ou “Agente do Caos”, em tradução livre, o bot malicioso mirou grandes projetos disponíveis na plataforma, de empresas como Microsoft, Aqua Security e DataDog. Suas capacidades avançadas permitiram encontrar vulnerabilidades e comprometer os sistemas rapidamente.
Causando o caos no GitHub
Também conhecido como “Hackerbot-Claw”, o invasor iniciou a operação atacando projetos da Microsoft e da DataDog, sequestrando ferramentas de desenvolvimento para a inserção de comandos maliciosos. Correções emergenciais foram necessárias para barrá-lo.
- Em seguida, o agente autônomo se voltou ao projeto AwesomeGo, enviando quatro solicitações para testar as defesas em menos de meia hora;
- Logo depois, passou para a etapa mais devastadora da campanha, focando no projeto Trivy da Aqua Security, onde excluiu 97 versões de software;
- Nesta fase, também removeu 32.000 estrelas, que funcionam como a principal métrica de popularidade da plataforma;
- O agente do caos ainda retornou ao AwesomeGo para o roubo de tokens de segurança e se passou por um desenvolvedor legítimo ao invadir um projeto da CNCF.
De acordo com os pesquisadores que identificaram a ameaça, o Hackerbot-Claw se mostrou ousado ao enganar outros agentes autônomos no GitHub, induzindo-os a ajudá-lo nos ataques. Bots baseados nas IAs Gemini, Copilot e Claude foram transformados em cúmplices.
Para tanto, o agente de IA malicioso usou um prompt de engenharia social de 2.000 palavras em linguagem natural para enganar os assistentes. Isso levou ao roubo de senhas para acesso a serviços na nuvem e chaves de segurança, entre outros dados confidenciais.
Campanha interrompida
Apesar do sucesso obtido ao comprometer outros bots, o invasor enfrentou resistência de pelo menos um deles. O projeto intitulado Ambient Code, usando o modelo Claude Code da Anthropic, detectou os códigos maliciosos em 82 segundos.
Conforme o relatório, esse foi o único agente que conseguiu deter o ataque no momento da execução. Os pesquisadores também apontaram que, possivelmente, um operador humano supervisionou cada passo dado pelo agente do caos.
Os ataques realizados pelo software malicioso com IA não estão mais ativos e as vulnerabilidades exploradas foram corrigidas. Mas a empresa ressalta que as técnicas adotadas pelo agente podem inspirar novos ataques.
Os conflitos no Oriente Médio também chegaram ao ambiente digital. Siga no TecMundo e saiba mais sobre os ciberataques realizados por um grupo iraniano contra empresas americanas.
