Roblox a déployé, depuis le 7 janvier, une vérification d’âge mondiale fondée sur la reconnaissance faciale afin de limiter les interactions entre adultes et mineurs sur sa plateforme. L’intention est légitime : protéger les jeunes utilisateurs d’un réseau qui accueille plus de 150 millions d’utilisateurs actifs par jour. Dans les faits, la nouvelle procédure — opérée via un partenaire externe et basée sur un « selfie vidéo » — montre rapidement ses limites techniques, pratiques et éthiques. Décryptage des failles, des risques concrets et des enjeux pour les familles et les régulateurs.
Comment fonctionne la vérification d’âge sur Roblox ?
La solution mise en œuvre repose sur un processus de vérification par reconnaissance faciale fourni par le partenaire technologique. Concrètement :
Le but affiché : empêcher les mineurs de communiquer librement avec des adultes non vérifiés et ainsi réduire les risques d’exploitation ou de prédation en ligne.
Des résultats erratiques et facilement contournables
Très vite, la communauté et plusieurs enquêtes techniques ont mis en lumière la réalité : le mécanisme d’estimation de l’âge est peu fiable et aisément manipulable. Les problèmes recensés sont variés :
La démonstration est claire : la reconnaissance faciale seule, encore immature dans ce contexte, n’offre pas une barrière robuste face aux stratagèmes les plus simples.
Risques concrets : sécurité des données et exploitation
Au‑delà de la faiblesse algorithmique, l’introduction d’un tel dispositif soulève des questions sensibles :
Ces dimensions légales et éthiques sont au cœur des critiques portées tant par des associations de protection de l’enfance que par des experts en cybersécurité.
Pourquoi Roblox a‑t‑il mis en place ce système ?
Le lancement fait suite à des pressions importantes : des plaintes et enquêtes de procureurs généraux d’États américains (Louisiane, Texas, Kentucky) pointant l’insuffisance des protections offertes aux mineurs sur Roblox. La plateforme a donc choisi une mesure « technologique » pour répondre rapidement aux exigences réglementaires et médiatiques, en promouvant un moyen automatisé d’atténuer les risques d’interactions inappropriées.
Les limites d’une solution technologique face à un problème humain
La mise en place d’un outil biométrique ne résout pas les causes sous‑jacentes des dangers : comportements prédateurs, manque d’éducation numérique des familles, circuits de transaction de comptes. Plus encore, la dépendance à une solution externe (fournisseur de reconnaissance faciale) introduit des risques liés à la fiabilité de l’algorithme, à la gouvernance des données et à la transparence du processus.
Que peuvent faire les parents et les tuteurs ?
Face à ces défaillances, quelques recommandations pratiques s’imposent :
La responsabilité de Roblox et la nécessité d’un cadre réglementaire
Roblox reconnaît que le déploiement massif d’une mesure nouvelle prend du temps et que les ajustements seront nécessaires. Toutefois, la plateforme porte une responsabilité majeure : elle doit garantir la sécurité des mineurs, assurer la transparence sur le traitement des données biométriques et travailler en concertation avec les autorités, les experts indépendants et les associations de protection de l’enfance. L’intervention des régulateurs est aussi indispensable pour fixer des normes minimales de sécurité et de conservation des données.
Vers quelles alternatives technologiques et organisationnelles ?
Plutôt que de s’en remettre uniquement à la reconnaissance faciale, une stratégie plus robuste combinerait :
L’épisode rappelle une vérité simple : protéger les mineurs en ligne n’est pas qu’un défi technique, c’est un défi social et réglementaire. L’efficacité d’une mesure se juge à sa capacité à réduire les risques sans créer de nouveaux dangers — notamment en matière de vie privée. Roblox a pris un premier pas visible, mais la route pour une protection fiable et respectueuse des droits des utilisateurs reste longue.
