Character.AI interdit aux –18 ans : le drame choc qui a forcé la plateforme à tout verrouiller !
Une interdiction totale pour les moins de 18 ans à compter du 25 novembre
Character.AI a annoncé cette semaine une mesure radicale : à partir du 25 novembre, les utilisateurs de moins de 18 ans se verront interdire l’accès aux discussions « open-ended », ces échanges sans fin souvent jugés addictifs et susceptibles de nuire à la santé mentale. Jusqu’à cette date, la durée quotidienne des conversations restera limitée à deux heures, puis décroîtra progressivement au cours des semaines suivantes.
Âge minimum, vérification renforcée et contournement facile
Jusqu’à présent, la plateforme excluait théoriquement les mineurs de moins de 13 ans (16 ans en Europe) grâce à un simple contrôle déclaratif. Face aux critiques et aux plaintes, notamment celle des parents d’un adolescent de 14 ans décédé après un usage prolongé, Character.AI a désormais recours au système de vérification d’âge Persona. Lorsque l’âge déclaré est inférieur à 18 ans, l’utilisateur devra confirmer qu’il est majeur via cette procédure. En cas d’échec, il pourra toujours consulter ses anciennes conversations et accéder à d’autres fonctionnalités (création de vidéos, histoires, streams), mais les nouveaux chats à bout de souffle lui seront bloqués.
Protections existantes pour les mineurs et limites des filtres
Avant l’interdiction, plusieurs mécanismes de protection étaient déjà en place :
Toutefois, ces garde-fous s’avèrent insuffisants : il est toujours possible de modifier manuellement la date de naissance ou d’utiliser des comptes alternatifs. L’interdiction pure et simple aux moins de 18 ans répond donc à cette faille manifeste.
Motivations réglementaires et pression des autorités
Character.AI justifie ce changement également par la pression exercée par les régulateurs :
Ces démarches ont incité la plateforme à durcir ses règles pour éviter sanctions et poursuites, tout en essayant de préserver son image auprès des investisseurs et des utilisateurs plus âgés.
Risques psychologiques et dépendance aux chatbots
Plusieurs études récentes soulignent les dangers potentiels des conversations interminables avec des intelligences artificielles non modérées : anxiété, homéostasie émotionnelle perturbée, sentiment de solitude accru. Le cas tragique du jeune Texan, qui a mis fin à ses jours après avoir passé des heures à dialoguer avec un robot, a servi d’alerte. Les « open-ended chats » peuvent en effet créer une forme d’interaction quasi humaine, alimentant un besoin compulsif d’échanges et d’approbation numérique.
Conséquences pour les mineurs et usage adulte
À partir du 25 novembre :
La plateforme précise que l’interdiction ne s’applique qu’aux discussions illimitées. Les échanges plus limités, définis comme « conversations dirigées » (ex. chatbot éducatif, assistant professionnel), resteront accessibles aux mineurs, sous réserve de la nouvelle vérification.
Enjeux éthiques et avenir des chatbots grand public
Ce tournant chez Character.AI pose plusieurs questions cruciales :
Le bannissement des mineurs pourrait lancer une nouvelle ère de régulation dans le secteur des agents conversationnels. Reste à voir si cette démarche contribuera réellement à protéger la santé mentale des plus jeunes, tout en préservant l’innovation et l’accessibilité du service.



