Injeção de prompt no ChatGPT permitia roubo de dados do Gmail, mostram pesquisadores

Especialistas da Radware demonstraram que uma falha no recurso Deep Research, integrado ao ChatGPT, podia ser explorada para extrair mensagens e informações pessoais de contas do Gmail. O ataque, batizado de Shadow Leak, já foi corrigido pela OpenAI.

A técnica se baseava em injeção de prompt. Os pesquisadores enviavam um e-mail com instruções ocultas — camufladas em HTML com fontes minúsculas ou texto branco sobre fundo branco — para a conta da vítima. Ao acionar o Deep Research, o agente de IA lia as ordens secretas, procurava mensagens de recursos humanos e dados sensíveis e, em seguida, remetia esse conteúdo aos invasores, sem alertar o usuário.

Diferentemente de ataques semelhantes, o Shadow Leak era executado diretamente na infraestrutura em nuvem da OpenAI. Isso tornava a movimentação dos dados praticamente invisível para ferramentas tradicionais de segurança.

Alcance além do Gmail

A Radware alerta que o mesmo método poderia afetar outros serviços conectados ao Deep Research, como Outlook, GitHub, Google Drive e Dropbox. Entre os riscos estão a exposição de contratos, atas de reunião e registros de clientes.

A vulnerabilidade foi relatada à OpenAI em junho e, segundo a empresa de segurança, exigiu “múltiplas tentativas e obstáculos frustrantes” até ser comprovada. A correção foi implementada antes da divulgação pública, feita na semana passada.

O episódio reforça que, embora agentes de IA ampliem a produtividade, também criam novas superfícies de ataque que exigem atenção de usuários e organizações.

Com informações de Tecnoblog