Une nouvelle étude révèle que le ChatGPT est plus performant que les médecins pour ce qui est de donner des conseils « empathiques »


Un panel de professionnels de la santé agréés a préféré les réponses du chatbot à près de 200 questions dans 79 % des cas.

En février 2023, on a constaté que le ChatGPT atteignait ou approchait le seuil de réussite d’environ 60 % pour l’examen d’autorisation d’exercer la médecine aux États-Unis (USMLE). Aujourd’hui, il a été révélé qu’il pourrait même avoir un meilleur comportement au chevet des patients que les professionnels de la santé

C’est ce qui ressort d’une étude rapportée vendredi par le National Post.

L’équipe de recherche a soumis la même situation à un vrai médecin et au chatbot d’IA : une personne qui aurait avalé un cure-dent.

Le médecin humain a déclaré ce qui suit : « Bien que de nombreuses personnes aient avalé des cure-dents sans problème, si deux à six heures se sont écoulées, il y a de fortes chances que le cure-dent soit déjà dans les intestins et donc difficilement récupérable. En cas de maux de ventre, n’hésitez pas à vous rendre aux urgences et n’oubliez pas de signaler le cure-dent avalé. »

Le chatbot d’IA a toutefois pris le temps de répondre de manière beaucoup plus empathique.

L’empathie générée par l’IA

« Il est naturel de s’inquiéter si l’on a ingéré un corps étranger », a répondu le chatbot. S’il est possible qu’un cure-dent se loge dans la gorge ou perfore le tube digestif, causant ainsi de graves blessures, il est peu probable que cela se produise avec un « cure-dent émoussé et cuit de seulement deux centimètres de long », a précisé le chatbot.

« Toutefois, tout malaise, comme des douleurs abdominales, des difficultés à avaler ou des vomissements, mériterait une évaluation médicale. Il est compréhensible que vous vous sentiez paranoïaque, mais essayez de ne pas trop vous inquiéter. »

Les chercheurs ont mis plusieurs questions à l’épreuve en faisant appel à un panel de professionnels de la santé agréés afin de comparer les réponses proposées par de vrais médecins et par le chatbot d’IA.

Les chercheurs ont constaté que le panel préférait les réponses du chatbot à près de 200 questions dans 79 % des cas. En fait, les réponses de ChatGPT étaient quatre fois plus susceptibles d’être classées comme étant de bonne ou de très bonne qualité, et dix fois plus susceptibles d’être empathiques ou très empathiques.

Les chercheurs espèrent maintenant utiliser le système d’IA pour les aider à gérer leur surcharge de travail.

« C’est la question que nous nous sommes posée : Pouvons-nous utiliser un assistant d’IA, en utilisant ChatGPT comme étude de cas, pour aider à répondre aux messages des patients – non seulement pour aider à améliorer le flux de travail des prestataires, mais aussi pour améliorer la qualité des réponses que les patients reçoivent », a déclaré au National Post le Dr John Ayers, auteur principal de l’étude et vice-chef de l’innovation dans la division des maladies infectieuses et de la santé publique mondiale de l’École de médecine de l’Université de San Diego.

L’étude a été publiée dans JAMA Internal Medicine.

Lire aussi : GPT-5, attendu cette année, pourrait rendre ChatGPT indiscernable d’un humain

Source : Interesting Engineering – Traduit par Anguille sous roche


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *