Site icon Global News

ChatGPT Santé : ces erreurs médicales qui pourraient vous coûter la vie !

Les limites alarmantes des chatbots pour diagnostiquer et conseiller

À l’heure où l’intelligence artificielle suscite un engouement massif dans tous les domaines, y compris la santé, un nouvel avertissement résonne depuis l’Université d’Oxford : les chatbots IA ne sont pas encore fiables pour fournir des conseils médicaux. Selon cette étude, réaliser une auto-évaluation de symptômes via un chatbot expose les utilisateurs à de graves erreurs de diagnostic et de prise en charge.

Méthodologie : trois modèles testés auprès de 1 300 volontaires

Pour évaluer la capacité des chatbots à interpréter des symptômes et recommander une action appropriée, les chercheurs ont recruté 1 300 participants. Ces derniers devaient interagir avec trois intelligences artificielles majeures :

L’objectif était double : faire identifier une condition médicale et obtenir un avis sur la conduite à tenir (consultation générale, passage aux urgences, etc.). Les échanges simulaient de véritables interactions patients–professionnels de santé, avec descriptions de symptômes usuels (fièvre, maux de tête, douleurs thoraciques…) et questions relatives aux antécédents.

Résultats : sous-diagnostic et recommandations inappropriées

Les conclusions sont sans appel : face aux mêmes cas cliniques, les chatbots ont non seulement échoué à faire reconnaître des conditions pertinentes, mais ils ont également conduit les participants à :

Les chercheurs ont constaté une corrélation entre l’omission de détails cruciaux par les utilisateurs et l’imprécision des réponses. De nombreuses personnes déclaraient avoir reçu un « mélange » de bonnes et de mauvaises suggestions, rendant l’interprétation difficile et risquant de masquer un danger réel.

Des conseils potentiellement dangereux

Les dérives peuvent être sévères. Dans d’autres études, notamment aux États-Unis, il apparaît que certains chatbots fournissent des diagnostics erronés dans plus de 80 % des cas pour des maladies infantiles. Microsoft Copilot, par exemple, a été jugé responsable de conseils médicaux dangereux dans 22 % des situations testées.

Adam Mahdi, co-auteur de l’étude d’Oxford, souligne : « Les méthodes actuelles d’évaluation ne reflètent pas la complexité des interactions authentiques entre patients et praticiens. » Selon lui, l’IA pourrait induire une confiance excessive de la part d’utilisateurs non formés.

Avertissements des géants de la tech

Face aux dérives constatées, les principaux fournisseurs de chatbots eux-mêmes ont pris leurs distances :

Ces entreprises soulignent que les IA sont des outils complémentaires et qu’aucune ne remplace le jugement d’un professionnel de santé qualifié.

Pourquoi l’IA peine encore en santé

Plusieurs obstacles freinent aujourd’hui l’usage des chatbots en médecine :

Recommandations pour les utilisateurs de chatbots

Même si les assistants IA peuvent orienter vers des informations générales, il est important de :

En somme, l’intelligence artificielle progresse à pas de géant, mais le domaine médical exige encore un partenariat étroit entre patients, professionnels et technologie pour garantir la sécurité et l’efficacité des conseils prodigués.

Quitter la version mobile