Google identifica malwares que reescrevem o próprio código com IA para burlar defesa

O Google divulgou um relatório apontando a existência de famílias de malware que recorrem a modelos de inteligência artificial generativa durante a execução para criar novos trechos de código, roubar informações e escapar de ferramentas de detecção.

Casos observados

PromptFlux foi listado como o exemplo mais avançado. O programa utiliza a API do Gemini para reescrever seu código-fonte em tempo real, com o objetivo de evitar antivírus e outras soluções de segurança.

Outro caso, batizado de PromptSteal, consulta um modelo de linguagem hospedado no Hugging Face. A IA gera comandos que são executados no dispositivo infectado para coletar dados da vítima.

Já o PromptLock surgiu em um estudo acadêmico sobre a capacidade de grandes modelos de linguagem (LLMs) planejarem, adaptarem-se e conduzirem um ataque de ransomware.

Caráter experimental

Segundo o Google, as amostras analisadas ainda são experimentais. O PromptFlux não consegue, por enquanto, penetrar em um sistema ou rede; e os criadores do PromptLock admitem limitações em persistência, movimentação lateral e técnicas sofisticadas de evasão.

Opinião de especialistas

Profissionais de cibersegurança afirmam que os códigos observados não representam grande ameaça no estado atual. Marcus Hutchins, conhecido por conter o ransomware WannaCry, afirmou no LinkedIn que os prompts usados “não especificam o que o bloco de código deve fazer nem como escapar de um antivírus”.

Kevin Beaumont, outro especialista, declarou que muitas amostras “nem funcionam” e falham logo na execução, sendo inofensivas diante de controles básicos.

Um pesquisador ouvido pelo Ars Technica, que preferiu não se identificar, avaliou que a IA “apenas ajuda autores de malware a fazer o que já faziam”, sem trazer novidades expressivas no momento.

Ajustes no Gemini

O documento também relata que um agente mal-intencionado conseguiu induzir o Gemini a produzir código malicioso ao se passar por um hacker ético em uma competição de segurança. Após o incidente, o Google ajustou as configurações do modelo para bloquear esse tipo de solicitação.

Embora os casos sejam preliminares, o Google enxerga neles um sinal de como invasores podem integrar recursos de IA às suas atividades futuras.

Com informações de Tecnoblog