ChatGPT Santé : ces erreurs médicales qui pourraient vous coûter la vie !
Les limites alarmantes des chatbots pour diagnostiquer et conseiller
À l’heure où l’intelligence artificielle suscite un engouement massif dans tous les domaines, y compris la santé, un nouvel avertissement résonne depuis l’Université d’Oxford : les chatbots IA ne sont pas encore fiables pour fournir des conseils médicaux. Selon cette étude, réaliser une auto-évaluation de symptômes via un chatbot expose les utilisateurs à de graves erreurs de diagnostic et de prise en charge.
Méthodologie : trois modèles testés auprès de 1 300 volontaires
Pour évaluer la capacité des chatbots à interpréter des symptômes et recommander une action appropriée, les chercheurs ont recruté 1 300 participants. Ces derniers devaient interagir avec trois intelligences artificielles majeures :
- GPT-4o (OpenAI)
- Command R+ (Cohere)
- Llama 3 (Meta)
L’objectif était double : faire identifier une condition médicale et obtenir un avis sur la conduite à tenir (consultation générale, passage aux urgences, etc.). Les échanges simulaient de véritables interactions patients–professionnels de santé, avec descriptions de symptômes usuels (fièvre, maux de tête, douleurs thoraciques…) et questions relatives aux antécédents.
Résultats : sous-diagnostic et recommandations inappropriées
Les conclusions sont sans appel : face aux mêmes cas cliniques, les chatbots ont non seulement échoué à faire reconnaître des conditions pertinentes, mais ils ont également conduit les participants à :
- Minimiser la gravité des symptômes détectés
- Reporter une consultation nécessaire, perdant un temps précieux
- Recevoir des recommandations contradictoires ou trop vagues
Les chercheurs ont constaté une corrélation entre l’omission de détails cruciaux par les utilisateurs et l’imprécision des réponses. De nombreuses personnes déclaraient avoir reçu un « mélange » de bonnes et de mauvaises suggestions, rendant l’interprétation difficile et risquant de masquer un danger réel.
Des conseils potentiellement dangereux
Les dérives peuvent être sévères. Dans d’autres études, notamment aux États-Unis, il apparaît que certains chatbots fournissent des diagnostics erronés dans plus de 80 % des cas pour des maladies infantiles. Microsoft Copilot, par exemple, a été jugé responsable de conseils médicaux dangereux dans 22 % des situations testées.
Adam Mahdi, co-auteur de l’étude d’Oxford, souligne : « Les méthodes actuelles d’évaluation ne reflètent pas la complexité des interactions authentiques entre patients et praticiens. » Selon lui, l’IA pourrait induire une confiance excessive de la part d’utilisateurs non formés.
Avertissements des géants de la tech
Face aux dérives constatées, les principaux fournisseurs de chatbots eux-mêmes ont pris leurs distances :
- OpenAI recommande de ne pas se fier uniquement à ChatGPT pour des décisions médicales.
- Apple met en garde ses utilisateurs contre l’utilisation de Siri pour diagnostiquer un problème de santé.
- Microsoft admet que Copilot n’est pas certifié pour fournir des conseils médicaux.
Ces entreprises soulignent que les IA sont des outils complémentaires et qu’aucune ne remplace le jugement d’un professionnel de santé qualifié.
Pourquoi l’IA peine encore en santé
Plusieurs obstacles freinent aujourd’hui l’usage des chatbots en médecine :
- Données hétérogènes : la base de connaissances des IA combine sources validées et informations contradictoires, ce qui peut biaiser les réponses.
- Manque de contexte : sans examen clinique ni antécédents complets, l’IA ne dispose pas de paramètres essentiels pour un diagnostic fiable.
- Risques juridiques et éthiques : un conseil erroné peut entraîner des conséquences dramatiques, exposant à des litiges.
Recommandations pour les utilisateurs de chatbots
Même si les assistants IA peuvent orienter vers des informations générales, il est important de :
- Consulter un médecin dès que les symptômes deviennent persistants ou inquiétants.
- Ne jamais négliger les sensations de douleur inhabituelle, d’essoufflement ou de confusion.
- Utiliser les chatbots uniquement pour obtenir des ressources et non pour établir un diagnostic.
- Vérifier systématiquement les informations recueillies via les sites officiels de santé publique.
En somme, l’intelligence artificielle progresse à pas de géant, mais le domaine médical exige encore un partenariat étroit entre patients, professionnels et technologie pour garantir la sécurité et l’efficacité des conseils prodigués.