Google Big Sleep débusque une faille SQLite 0-day – vos données sont en danger !

Big Sleep : l’agent IA de Google qui traque les failles avant les pirates

Google vient de dévoiler les premières retombées du projet Big Sleep, une initiative conjointe de Google DeepMind et de Google Project Zero. Cet agent d’intelligence artificielle exploite des modèles de langage avancés (LLM) pour analyser automatiquement le code des logiciels et détecter des vulnérabilités potentielles. Sa dernière « prise » ? Un bug critique dans SQLite, l’un des moteurs de base de données relationnelles les plus répandus au monde, utilisé dans d’innombrables applications, systèmes embarqués et navigateurs web.

Genèse et objectifs de Big Sleep

Annoncé le 1er novembre 2024, Big Sleep s’inscrit dans la volonté de Google de renforcer la cybersécurité des projets open source. Au lieu de se contenter d’outils de fuzzing traditionnels, l’agent IA parcourt le code de manière sémantique, comprend les chaînes d’appels et repère les scénarios à risque. Plusieurs étapes clés composent son processus :

  • Extraction du code source et détection des motifs suspects (manipulation de pointeurs, opérations arithmétiques sur index, conversions non sécurisées).
  • Génération de requêtes ciblées, inspirées par des chaînes de vulnérabilités connues, pour tenter de reproduire un overflow ou une injection.
  • Validation automatique des résultats et proposition d’un rapport détaillé, incluant la nature du bug, son emplacement précis et le niveau de gravité.
  • En combinant la puissance d’un LLM avec des algorithmes de validation formelle, Big Sleep ambitionne d’anticiper les attaques avant même que des exploits ne se répandent sur le Dark Web.

    Première découverte : un stack buffer overflow en octobre 2024

    La toute première vulnérabilité détectée par Big Sleep remonte à début octobre 2024. L’agent a identifié un cas de dépassement de tampon dans SQLite, lié à la gestion d’une fonction de formatage de chaînes. Plus précisément :

    Article à lire  Frères d'Italie Déchaînés : Attaques Cinglantes sur Prodi et Bertinotti en Ligne !
  • Une structure temporaire mal dimensionnée pour un champ texte,
  • Une absence de vérification de la longueur réelle des données passées en paramètre,
  • Un risque d’exécution de code arbitraire si une chaîne suffisamment longue est fournie à la requête SQL incriminée.
  • Le bug a été rapidement corrigé par l’équipe SQLite, qui a publié la version 3.47 quelques jours seulement après la remontée du problème. Cette réactivité souligne l’intérêt majeur d’un système automatique : il réduit le “time-to-patch” en signalant précisément la faille avec un contexte exploit direct.

    Le CVE-2025-6965 : injection et integer overflow

    Fin juin 2025, Big Sleep a mis au jour une seconde vulnérabilité, référencée CVE-2025-6965, cette fois plus complexe :

  • Une injection d’instructions SQL arbitraires grâce à une concaténation non sécurisée de paramètres dans une requête préparée,
  • Un integer overflow lors du calcul d’un offset de lecture, permettant une lecture hors bornes sur la mémoire interne.
  • Concrètement, un attaquant pouvait envoyer une requête apparemment légitime, mais dont la structure manipulée forçait SQLite à lire au-delà de la zone allouée. Le pirate obtenait alors un accès à des données sensibles ou déstabilisait complètement l’exécution du moteur de base de données.

    Google souligne que cette vulnérabilité était déjà exploitée « en sauvage » : des outils malveillants l’intégraient dans des chaînes d’attaque ciblées. Grâce à Big Sleep, l’équipe de sécurité a pu verrouiller la faille dans la version 6.50.2 de SQLite avant qu’un patch officiel ne soit mis sous pression par un exploit public.

    Avantages et limites d’un agent IA en sécurité

    Big Sleep démontre le potentiel de l’IA pour renforcer la sécurité des logiciels, mais cette approche n’est pas sans défis :

    Article à lire  Pourquoi l'Arrestation d'Ekrem Imamoglu Pourrait Changer l'Avenir Politique de la Turquie ?
  • Précision : un LLM peut générer des faux positifs, nécessitant une validation humaine avant publication d’un correctif.
  • Responsabilité : Google insiste sur la nécessité d’un déploiement « sûr et responsable », afin d’éviter que l’IA ne soit détournée pour identifier des failles à des fins malveillantes.
  • Confidentialité : Big Sleep doit traiter des millions de lignes de code, souvent sous licence open source, sans exploiter de données personnelles.
  • Supervision humaine : chaque rapport de bug est revu par un expert en sécurité pour garantir la pertinence et la sensibilité du patch.
  • Ces garde-fous permettent de tirer le meilleur de l’automatisation, tout en limitant les risques d’abus ou d’erreurs impactant la stabilité des systèmes.

    Perspectives : Timesketch et FACADE à Black Hat et DEF CON

    Pour illustrer le potentiel de l’IA dans la sécurité, Google annoncera lors des conférences Black Hat USA et DEF CON 33 deux nouveaux outils :

  • Timesketch : une plateforme d’enquête forensique numérique reposant sur le modèle Sec-Gemini, capable d’analyser de grands volumes de logs et de corréler automatiquement les événements.
  • FACADE : un outil de détection proactive des menaces, qui scrute le trafic réseau et les journaux système à la recherche de comportements anormaux, via un LLM adapté.
  • Ces démonstrations permettront de comprendre comment l’intelligence artificielle peut accompagner les analystes et accélérer les cycles de détection et de remédiation, dans un contexte de cybermenaces croissantes et de complexité grandissante des infrastructures.

    Enjeux pour les projets open source

    La communauté open source, souvent dépendante de petites équipes de maintenance, peut bénéficier directement de ces avancées :

    Article à lire  Profitez d'une offre incroyable ! Découvrez le ASUS ROG RYUO 240 : le refroidissement liquide ultime pour votre PC !
  • Diminution des délais d’analyse et de correction des bugs critiques,
  • Renforcement de la sécurité des projets à forte diffusion (navigateurs, bibliothèques mobiles, systèmes embarqués),
  • Transfert de compétences : les remontées de Big Sleep peuvent servir de pédagogie pour les développeurs, en expliquant les causes profondes des vulnérabilités.
  • En multipliant ces interventions, Google encourage un « cercle vertueux » de la sécurité logicielle, où l’IA complète l’expertise humaine pour rendre Internet et les applications plus fiables pour tous les utilisateurs.