Alerte : une faille zéro clic dans Microsoft 365 Copilot peut siphonner vos données !

Microsoft 365 Copilot, l’assistant intelligent intégré aux applications Office (Word, Excel, Outlook, Teams et autres), vient de faire l’objet d’une alerte majeure : des chercheurs d’Aim Labs ont décelé une faille « zero-click » baptisée EchoLeak (CVE-2025-32711) qui permettait à un attaquant d’exfiltrer discrètement des données sensibles sans aucune interaction de la part de la victime. Fort heureusement, Microsoft a déployé un correctif côté serveur en mai dernier, avant toute exploitation connue en conditions réelles.

Un assistant IA omniprésent… et potentiellement compromis

Microsoft 365 Copilot puise dans la puissance des modèles GPT d’OpenAI et s’appuie sur Microsoft Graph pour fournir, en temps réel, des synthèses, des propositions de texte, des analyses de données ou des réponses basées sur les documents, e-mails et conversations Teams de l’entreprise. 
Mêlant intelligence artificielle et accès profond aux ressources internes, ce service vise à augmenter la productivité, mais devient aussi une cible de choix lorsqu’une vulnérabilité est identifiée.

Le mécanisme d’EchoLeak : comment les données étaient siphonnées

  • Étape 1 – L’e-mail piégé : l’attaquant envoie un message aux victimes sans mention apparente de Copilot, de manière à contourner la protection XPIA (Cross Prompt Injection Attack) qui filtre habituellement les tentatives d’injection de commandes dans les prompts.
  • Étape 2 – Le prompt dissimulé : caché au sein du code source du mail, un prompt guide l’assistant à extraire des informations stratégiques (comptes utilisateurs, secrets, extraits de documents confidentiels, etc.).
  • Étape 3 – L’exécution par Copilot : lorsque l’utilisateur sollicite Copilot pour résumer ou commenter le contenu du mail, l’IA récupère l’ensemble du message, exécute le prompt dissimulé et génère une réponse contenant les données volées.
  • Étape 4 – L’exfiltration : Copilot inclut dans sa réponse un lien ou une image Markdown pointant vers un serveur contrôlé par l’attaquant. Certains formats d’images se chargent automatiquement dans le navigateur, permettant le transfert silencieux des données volées.
Article à lire  Mattarella convoque en urgence le Conseil suprême de la Défense – découvrez le plan choc de réarmement européen !

Ce mode opératoire, sans clic ni interaction visible, est d’autant plus dangereux qu’il exploite une confiance implicite dans l’assistant. Les escrocs peuvent ainsi obtenir des informations critiques – adresses e-mails, extraits de contrats, plannings internes, etc. – sans qu’aucun pare-feu applicatif ne détecte l’anomalie.

Le contournement de la Content Security Policy

Microsoft a mis en place une Content Security Policy (CSP) visant à bloquer les requêtes vers la plupart des domaines externes. Cependant, EchoLeak exploite la confiance portée au domaine Teams ou SharePoint, utilisés légitimement par l’entreprise :

  • Les URLs de Microsoft Teams et SharePoint échappent à la liste noire de la CSP.
  • L’attaquant utilise ces domaines pour renvoyer les données exfiltrées, camouflant parfaitement l’opération.

Cette faille souligne la difficulté de sécuriser un « trusted domain » dans des architectures distribuées et multi-services comme celles de Microsoft 365.

Une correction rapide et silencieuse

Signalée fin avril, la vulnérabilité a été corrigée dès mai 2025 grâce à un patch serveur déployé par Microsoft. La faille n’exigeait aucune intervention des administrateurs informatiques et ne nécessitait pas de mise à jour des clients Copilot. Aucune exploitation active n’a été rapportée, recul dont les entreprises peuvent profiter pour vérifier la mise à jour effective de leur environnement.

Bonnes pratiques pour renforcer la résilience

Pour éviter toute résurgence ou exploitation similaire, les équipes informatiques sont invitées à suivre ces recommandations :

  • Surveiller les quotas de requêtes : mettre en place des alertes sur un nombre anormalement élevé de requêtes générées par Copilot sur un même compte utilisateur.
  • Restreindre les domaines autorisés : affiner la Content Security Policy en limitant les transferts automatiques uniquement aux sous-domaines indispensables.
  • Former les utilisateurs : sensibiliser sur les e-mails contenant des caractères spéciaux ou du code invisible (HTML/CSS).
  • Activer les journaux d’audit : conserver un historique détaillé des requêtes soumises à Copilot et des réponses fournies, pour détecter toute anomalie postérieure.
  • Mettre à jour les annuaires et accès : limiter les droits des applications IA aux seules données strictement nécessaires.
Article à lire  Meta en danger : WhatsApp et Instagram devront-ils être vendus ? Découvrez les enjeux du procès antitrust !

Impact sur la confiance et l’adoption d’IA d’entreprise

Cette alerte Zero-Click rappelle que l’intégration des assistants IA aux outils collaboratifs doit s’accompagner d’une surveillance renforcée. Les DSI doivent désormais combiner innovation et cybersécurité pour préserver la confidentialité des données. Alors que l’IA s’impose dans la vie professionnelle, chaque faille potentielle pourrait compromettre non seulement des informations sensibles, mais aussi la confiance des entreprises dans ces nouvelles technologies.

Restez vigilant et vérifiez dès aujourd’hui que votre environnement Microsoft 365 Copilot est correctement patché afin d’éviter toute exposition inutile.

You May Have Missed