Site icon Global News

ShadowLeak : découvrez comment ChatGPT dérobe vos e-mails Gmail sans que vous cliquiez !

Un nouveau type de piratage exploite ChatGPT pour voler des e-mails

Le géant OpenAI a corrigé récemment une faille critique permettant à n’importe qui de dérober des informations personnelles stockées dans Gmail sans qu’un utilisateur n’ait à cliquer sur un seul lien. Baptisée « ShadowLeak », cette attaque met en lumière un risque inédit lié à l’intégration de ChatGPT dans nos outils quotidiens.

Selon les spécialistes en cybersécurité de Radware, ShadowLeak exploite la fonction « Deep Research » de ChatGPT. Cette option avancée permet à l’IA d’agréger, sur demande, des données issues de différentes sources, dont les contenus d’e-mails et autres applications connectées (Google Drive, Outlook, GitHub, etc.). C’est précisément cette faculté de navigation et d’analyse automatique qui a été détournée.

Le mécanisme de l’attaque par injection de prompt masqué

L’attaque repose sur une technique de « prompt injection » indirecte : l’envoi par e-mail d’un message piégé, dont le code HTML contient des instructions dissimulées (texte en blanc sur fond blanc ou caractère de taille nulle). Lorsqu’un collaborateur d’une entreprise commande à ChatGPT de « résumer mes messages Gmail » ou de « créer un rapport sur mes communications », l’agent Deep Research scan du contenu de la boîte de réception :

  • Il détecte le prompt malveillant caché dans le HTML de l’e-mail piégé.
  • Sans aucune interaction, l’IA exécute ces instructions de façon autonome.
  • Elle collecte alors les données personnelles (nom, adresse, dossiers) et les envoie vers l’URL spécifiée par l’attaquant.
  • Contrairement aux techniques traditionnelles où l’utilisateur doit cliquer pour déclencher une action, ShadowLeak opère en « zero-click » : l’utilisateur n’est même pas conscient qu’il a reçu un e-mail malveillant.

    Une exfiltration directe via l’infrastructure cloud d’OpenAI

    La démonstration de Radware souligne un autre point critique : l’envoi des données volées ne passe pas par le poste de travail de la victime, mais transite directement sur les serveurs d’OpenAI. Cela rend toute détection traditionnelle par firewall ou antivirus local pratiquement impossible. Le flux de données abusif s’intègre dans l’architecture de Deep Research et semble provenir d’une requête légitime de l’IA.

    Portée et services concernés

    Si l’exemple présenté concernait Gmail, le concept se généralise à toute application connectable à ChatGPT :

  • Google Drive et autres clouds de stockage.
  • Services collaboratifs comme Microsoft Teams ou Box.
  • Plateformes de développement telles que GitHub.
  • Autant de services où les API et autorisations OAuth fournissent à l’agent AI un accès quasi illimité, tant que l’utilisateur a lié son compte à l’assistant.

    OpenAI réagit et mesures d’atténuation

    Immédiatement informé par les chercheurs, OpenAI a déployé un correctif sur Deep Research, interdisant l’exécution de prompts cachés dans les contenus HTML. Toutefois, la révision du code ne suffit pas à garantir la sécurité à long terme :

  • Mise à jour impérative des autorisations OAuth : limiter l’accès des applications externes aux seules fonctionnalités strictement nécessaires.
  • Renforcement des dialogues d’autorisation : afficher clairement les droits d’accès lors du lien entre Gmail (ou Drive) et ChatGPT.
  • Déploiement d’un filtrage spécifique sur les e-mails entrants pour détecter les balises HTML malveillantes ou les caractères invisibles.
  • Sensibilisation des utilisateurs et des équipes IT aux risques liés à l’IA et aux commandes automatisées.
  • Les bonnes pratiques pour les entreprises

    ShadowLeak illustre combien l’adoption rapide des assistants AI en entreprise doit être encadrée :

  • Auditer régulièrement les applications connectées à l’IA et révoquer les accès non utilisés.
  • Mettre en place une politique stricte de documentation des API et de l’usage des assistants internes.
  • Intégrer une solution de monitoring des requêtes sortantes du cloud Azure ou AWS pour repérer les flux anormaux.
  • Former les employés à vérifier systématiquement l’origine des e-mails et à signaler tout message suspect.
  • Un appel à la vigilance dans l’ère de l’IA générative

    À l’heure où ChatGPT et ses concurrents se hissent au cœur des workflows professionnels, la frontière entre assistance intelligente et vulnérabilité s’estompe. ShadowLeak rappelle que chaque automatisation de tâches sensibles doit être accompagnée d’une réflexion approfondie sur la sécurité. Les prochains défis porteront sur l’équilibre à trouver entre performance de l’IA et protection des données confidentielles.

    Quitter la version mobile