Especialistas da Radware demonstraram que uma falha no recurso Deep Research, integrado ao ChatGPT, podia ser explorada para extrair mensagens e informações pessoais de contas do Gmail. O ataque, batizado de Shadow Leak, já foi corrigido pela OpenAI.
A técnica se baseava em injeção de prompt. Os pesquisadores enviavam um e-mail com instruções ocultas — camufladas em HTML com fontes minúsculas ou texto branco sobre fundo branco — para a conta da vítima. Ao acionar o Deep Research, o agente de IA lia as ordens secretas, procurava mensagens de recursos humanos e dados sensíveis e, em seguida, remetia esse conteúdo aos invasores, sem alertar o usuário.
Diferentemente de ataques semelhantes, o Shadow Leak era executado diretamente na infraestrutura em nuvem da OpenAI. Isso tornava a movimentação dos dados praticamente invisível para ferramentas tradicionais de segurança.
Alcance além do Gmail
A Radware alerta que o mesmo método poderia afetar outros serviços conectados ao Deep Research, como Outlook, GitHub, Google Drive e Dropbox. Entre os riscos estão a exposição de contratos, atas de reunião e registros de clientes.
A vulnerabilidade foi relatada à OpenAI em junho e, segundo a empresa de segurança, exigiu “múltiplas tentativas e obstáculos frustrantes” até ser comprovada. A correção foi implementada antes da divulgação pública, feita na semana passada.
Imagem: Internet
O episódio reforça que, embora agentes de IA ampliem a produtividade, também criam novas superfícies de ataque que exigem atenção de usuários e organizações.
Com informações de Tecnoblog
