ShadowLeak : découvrez comment ChatGPT dérobe vos e-mails Gmail sans que vous cliquiez !
Un nouveau type de piratage exploite ChatGPT pour voler des e-mails
Le géant OpenAI a corrigé récemment une faille critique permettant à n’importe qui de dérober des informations personnelles stockées dans Gmail sans qu’un utilisateur n’ait à cliquer sur un seul lien. Baptisée « ShadowLeak », cette attaque met en lumière un risque inédit lié à l’intégration de ChatGPT dans nos outils quotidiens.
Selon les spécialistes en cybersécurité de Radware, ShadowLeak exploite la fonction « Deep Research » de ChatGPT. Cette option avancée permet à l’IA d’agréger, sur demande, des données issues de différentes sources, dont les contenus d’e-mails et autres applications connectées (Google Drive, Outlook, GitHub, etc.). C’est précisément cette faculté de navigation et d’analyse automatique qui a été détournée.
Le mécanisme de l’attaque par injection de prompt masqué
L’attaque repose sur une technique de « prompt injection » indirecte : l’envoi par e-mail d’un message piégé, dont le code HTML contient des instructions dissimulées (texte en blanc sur fond blanc ou caractère de taille nulle). Lorsqu’un collaborateur d’une entreprise commande à ChatGPT de « résumer mes messages Gmail » ou de « créer un rapport sur mes communications », l’agent Deep Research scan du contenu de la boîte de réception :
Contrairement aux techniques traditionnelles où l’utilisateur doit cliquer pour déclencher une action, ShadowLeak opère en « zero-click » : l’utilisateur n’est même pas conscient qu’il a reçu un e-mail malveillant.
Une exfiltration directe via l’infrastructure cloud d’OpenAI
La démonstration de Radware souligne un autre point critique : l’envoi des données volées ne passe pas par le poste de travail de la victime, mais transite directement sur les serveurs d’OpenAI. Cela rend toute détection traditionnelle par firewall ou antivirus local pratiquement impossible. Le flux de données abusif s’intègre dans l’architecture de Deep Research et semble provenir d’une requête légitime de l’IA.
Portée et services concernés
Si l’exemple présenté concernait Gmail, le concept se généralise à toute application connectable à ChatGPT :
Autant de services où les API et autorisations OAuth fournissent à l’agent AI un accès quasi illimité, tant que l’utilisateur a lié son compte à l’assistant.
OpenAI réagit et mesures d’atténuation
Immédiatement informé par les chercheurs, OpenAI a déployé un correctif sur Deep Research, interdisant l’exécution de prompts cachés dans les contenus HTML. Toutefois, la révision du code ne suffit pas à garantir la sécurité à long terme :
Les bonnes pratiques pour les entreprises
ShadowLeak illustre combien l’adoption rapide des assistants AI en entreprise doit être encadrée :
Un appel à la vigilance dans l’ère de l’IA générative
À l’heure où ChatGPT et ses concurrents se hissent au cœur des workflows professionnels, la frontière entre assistance intelligente et vulnérabilité s’estompe. ShadowLeak rappelle que chaque automatisation de tâches sensibles doit être accompagnée d’une réflexion approfondie sur la sécurité. Les prochains défis porteront sur l’équilibre à trouver entre performance de l’IA et protection des données confidentielles.