O Google divulgou um relatório apontando a existência de famílias de malware que recorrem a modelos de inteligência artificial generativa durante a execução para criar novos trechos de código, roubar informações e escapar de ferramentas de detecção.
Casos observados
PromptFlux foi listado como o exemplo mais avançado. O programa utiliza a API do Gemini para reescrever seu código-fonte em tempo real, com o objetivo de evitar antivírus e outras soluções de segurança.
Outro caso, batizado de PromptSteal, consulta um modelo de linguagem hospedado no Hugging Face. A IA gera comandos que são executados no dispositivo infectado para coletar dados da vítima.
Já o PromptLock surgiu em um estudo acadêmico sobre a capacidade de grandes modelos de linguagem (LLMs) planejarem, adaptarem-se e conduzirem um ataque de ransomware.
Caráter experimental
Segundo o Google, as amostras analisadas ainda são experimentais. O PromptFlux não consegue, por enquanto, penetrar em um sistema ou rede; e os criadores do PromptLock admitem limitações em persistência, movimentação lateral e técnicas sofisticadas de evasão.
Opinião de especialistas
Profissionais de cibersegurança afirmam que os códigos observados não representam grande ameaça no estado atual. Marcus Hutchins, conhecido por conter o ransomware WannaCry, afirmou no LinkedIn que os prompts usados “não especificam o que o bloco de código deve fazer nem como escapar de um antivírus”.
Kevin Beaumont, outro especialista, declarou que muitas amostras “nem funcionam” e falham logo na execução, sendo inofensivas diante de controles básicos.
Imagem: Internet
Um pesquisador ouvido pelo Ars Technica, que preferiu não se identificar, avaliou que a IA “apenas ajuda autores de malware a fazer o que já faziam”, sem trazer novidades expressivas no momento.
Ajustes no Gemini
O documento também relata que um agente mal-intencionado conseguiu induzir o Gemini a produzir código malicioso ao se passar por um hacker ético em uma competição de segurança. Após o incidente, o Google ajustou as configurações do modelo para bloquear esse tipo de solicitação.
Embora os casos sejam preliminares, o Google enxerga neles um sinal de como invasores podem integrar recursos de IA às suas atividades futuras.
Com informações de Tecnoblog
