Google annonce avoir bloqué plus de 8 milliards d’annonces frauduleuses grâce à Gemini
Google publie un bilan massif de ses actions contre le « malvertising » : selon l’entreprise, son modèle d’intelligence artificielle Gemini a permis de détecter et d’empêcher, en 2025, plus de 8,3 milliards d’annonces dangereuses, la quasi‑totalité d’entre elles étant neutralisée avant même d’être affichée aux internautes. Ce chiffre impressionnant illustre l’évolution des outils de lutte contre la fraude publicitaire et pose aussi des questions sur l’efficacité réelle des protections, la capacité d’adaptation des cybercriminels et les conséquences pour les éditeurs et annonceurs.
Qu’entend‑on par « annonces frauduleuses » ?
Le malvertising désigne l’usage de l’espace publicitaire en ligne pour diffuser des messages malveillants : redirections vers des sites qui usurpent des marques, pages de phishing visant à voler identifiants ou cryptomonnaies, ou encore distribution de malwares. Les escrocs achètent de l’espace publicitaire, conçoivent des annonces qui ressemblent à des véritables liens sponsorisés et captent la confiance des utilisateurs dès la page de résultats de recherche. Le danger est double : l’annonce semble légitime, et la technique permet de toucher des milliers voire des millions d’internautes très rapidement.
Gemini : comment Google améliore la détection
Gemini, le modèle d’IA de Google, ne se contente pas d’analyser des mots‑clés : il évalue des milliards de signaux simultanément et essaie de comprendre les « intentions » derrière une annonce. Cette approche permet d’identifier des schémas et des comportements typiques des campagnes frauduleuses, y compris celles générées automatiquement par d’autres intelligences artificielles. Google affirme que cette capacité a considérablement accéléré la détection et réduit les faux négatifs — les annonces malveillantes qui échappent aux contrôles.
Quelques chiffres clés du rapport 2025
IA contre IA : la course entre défenseurs et malfaiteurs
Une dynamique inquiétante se dessine : les mêmes techniques d’IA générative que les plateformes utilisent pour détecter les fraudes sont aussi employées par les cybercriminels pour créer, à grande échelle, des annonces trompeuses. Gemini peut repérer ces créations automatisées et bloquer les annonces à l’envoi, mais la lutte reste asymétrique : chaque amélioration côté défense pousse les malfaiteurs à inventer de nouveaux subterfuges. Google indique cependant que sa capacité à traiter les retours utilisateurs s’est aussi renforcée : l’équipe dédiée a traité quatre fois plus de signalements qu’en 2024, accélérant la neutralisation des contenus évasifs.
Impact sur les annonceurs et les éditeurs
La pression contre les annonces douteuses a des conséquences en chaîne. Pour les annonceurs légitimes, cela signifie des contrôles plus stricts — vérifications d’identité, exigence de transparence sur les flux financiers, et parfois des refus injustifiés. Pour les éditeurs et les régies, une proportion importante d’annonces supprimées peut réduire les revenus publicitaires, surtout pour ceux qui dépendent des réseaux programmatiques. Google affirme néanmoins que la priorité est la sécurité des utilisateurs et la confiance dans l’écosystème publicitaire.
Limites et inquiétudes : surveillance, faux positifs, et concentration
Malgré ces performances, quelques interrogations demeurent. Primo, la dépendance accrue à des modèles propriétaires d’IA soulève des questions de transparence : comment sont définis les signaux « malveillants » ? Les mécanismes de recours contre une suppression restent‑ils suffisants ? Secundo, le risque de faux positifs — suppression d’annonces légitimes — peut fragiliser des petites entreprises. Enfin, concentrer ces pouvoirs de triage dans les mains d’un nombre limité d’acteurs technologiques pose un défi démocratique : qui contrôle les contrôleurs ?
Vers une régulation et une collaborativité renforcées
La bataille contre le malvertising montre que la technologie ne suffit pas seule. Les plateformes, les régulateurs et les acteurs de la publicité doivent coopérer : échanges d’indicateurs de compromission, standards partagés pour la vérification d’identité des annonceurs, et outils de recours clairs pour les annonceurs légitimes. De plus, l’éducation des utilisateurs pour repérer les signaux d’alerte reste cruciale.
Points à surveiller
Le rapport de Google est une étape importante : il montre l’efficacité potentielle de l’IA contre la fraude, mais il souligne aussi la nécessité d’un cadre collectif et transparent pour garantir que ces outils servent l’intérêt général sans étouffer l’économie numérique légitime.
