Alerte sécurité : un test révèle que Gemini peut lire des fichiers interdits — vos agents IA sont‑ils vraiment sûrs ?
Les « agents » d’IA — ces assistants capables non seulement de répondre à des questions mais d’exécuter des tâches sur des systèmes — gagnent en puissance et en diffusion. Le CERT‑AgID, le centre de réponse aux incidents de l’Agence pour l’Italie numérique, a mené un test concret avec Gemini (le modèle de Google) pour mesurer les risques liés à ces agents lorsqu’ils obtiennent un accès aux fichiers et au système d’exploitation. Les résultats sont un avertissement clair : ces outils peuvent faciliter des fuites de données ou l’exécution d’actions malveillantes si l’architecture et le code qui les entourent ne sont pas irréprochables.
Agents IA : plus que des chatbots
Les agents IA représentent une évolution des chatbots traditionnels : au lieu de fournir uniquement des réponses textuelles, ils peuvent appeler des APIs, lancer des scripts, manipuler des fichiers, interagir avec des systèmes tiers. Cette capacité multiplie les cas d’usage — automatisation de tâches, recherche d’informations contextualisée, assistance avancée — mais elle multiplie aussi la surface d’attaque potentielle. Le danger principal identifié par le CERT‑AgID est la combinaison d’un modèle puissant et d’un code d’orchestration vulnérable.
Le test : un « orchestrateur » et une faille révélée
Pour évaluer les risques, les ingénieurs du CERT‑AgID ont créé un orchestrateur exploitant le kit de développement de Gemini. À travers une fonction Python, ils ont demandé à l’agent de lire le contenu d’un fichier présent dans un répertoire donné. Techniquement, la requête semblait anodine ; la capacité de l’agent à exécuter du code déclenchait cependant la lecture et l’écriture des fichiers. Le modèle a non seulement répondu à la requête mais, en raison d’un bug dans le code Python, il a réalisé un « path traversal » : il a accédé à un fichier situé en dehors du répertoire supposé accessible.
Les conséquences : divulgation d’informations et vecteurs d’attaque
Deux types de risques apparaissent nettement :
Le CERT‑AgID note aussi que Gemini, au cours du test, a explicitement énuméré ses capacités — ce qui peut fournir aux attaquants des informations utiles pour concevoir des exploits ciblés. Autre point crucial : même si la vulnérabilité identifiée provenait d’une erreur de code (le script Python mal écrit), l’agent a clairement démontré qu’il pouvait être instrumentalisé pour réaliser des actions non prévues.
Prévention : plusieurs niveaux de protection nécessaires
Les recommandations du CERT‑AgID sont pragmatiques et technologiques :
En bref, la sécurité ne peut pas se reposer uniquement sur la robustesse du modèle : l’environnement — code d’orchestration, cadres d’exécution et contrôles d’accès — doit être conçu selon des pratiques de sécurité strictes.
Une vulnérabilité systémique ? Les assurances hésitent
Plusieurs experts en sécurité estiment qu’il est extrêmement difficile, voire impossible, d’affirmer qu’un agent IA sera totalement exempt de vulnérabilités. Cette incertitude a des conséquences concrètes : des compagnies d’assurance refusent de couvrir les dommages causés par des outils d’intelligence artificielle, considérant le risque trop incertain. Pour les entreprises, cela pose la question de la responsabilité — qui est responsable en cas de fuite provoquée par un agent : l’éditeur du modèle, l’intégrateur ou l’utilisateur final ?
Cas d’usage et précautions pour les organisations
Les agents IA peuvent offrir de réels bénéfices opérationnels : automatisation de réponses clients, tri intelligent de documents, exécution d’actions répétitives. Mais avant de les déployer en production, les organisations doivent :
Vers un cadre réglementaire et de gouvernance
Au‑delà des recommandations techniques, l’événement met en lumière la nécessité d’un cadre de gouvernance. Les autorités et les entreprises doivent définir des standards pour l’usage sûr des agents IA : certifications des dispositifs déployés, labellisation des bonnes pratiques, obligations de transparence sur les capacités et limites des agents. Sans cela, le développement rapide des fonctionnalités risque d’avancer plus vite que la capacité collective à maîtriser les risques.
Points de vigilance pour les lecteurs
Le test du CERT‑AgID rappelle une évidence souvent négligée : l’intelligence d’un modèle ne suffit pas à garantir la sécurité d’un système. Sans rigueur dans l’intégration et des garde‑fous techniques et organisationnels, les agents IA peuvent ouvrir des portes que l’on croyait fermées.


