Santé : Les agents conversationnels et les diagnostics erronés selon une étude
Les agents conversationnels basés sur l’intelligence artificielle ont gagné en popularité pour obtenir des conseils médicaux. Noms comme ChatGPT ou Le Chat sont devenus courants. Cependant, une étude menée au Royaume-Uni a révélé des erreurs dans les diagnostics fournis.
Étude révélant des erreurs de diagnostic par les agents conversationnels
L’étude menée auprès de 1 300 personnes a simulé des consultations médicales avec de faux patients présentant de faux symptômes. Les agents conversationnels ont été confrontés à ces faux patients et seulement un tiers ont pu fournir un diagnostic fiable. Ces résultats ont été publiés dans la revue Nature Medicine.
Les difficultés des interactions entre humains et IA
Les chercheurs de l’université d’Oxford soulignent que les erreurs proviennent principalement de l’interaction entre l’humain et l’intelligence artificielle. Les patients peuvent avoir du mal à décrire leurs symptômes ou influencer les réponses des agents dans la mauvaise direction. Ainsi, il est souligné qu’une consultation avec un médecin reste essentielle pour un diagnostic précis.
Importance de la relation patient-médecin pour un diagnostic fiable
En 2025, la Haute Autorité de Santé recommandait déjà aux professionnels de rester vigilants lors de l’utilisation de l’IA générative. Le lien entre un patient et son médecin reste crucial pour garantir un diagnostic crédible. Selon les experts, malgré les progrès de l’IA, rien ne peut remplacer l’écoute et l’expertise d’un professionnel de la santé.