En coulisse

ChatGPT plus empathique que le personnel médical

Anna Sandner
7/9/2023

La compassion peut accélérer la guérison. Une nouvelle étude montre que l’intelligence artificielle ChatGPT surpasse le personnel médical dans certaines conditions. Mais le bot doté d’intelligence artificielle ne peut pas remplacer les professionnel·les de la santé, précise ChatGPT.

Les encouragements nous aident dans toutes les situations, surtout lorsque nous sommes malades. La compassion et l’empathie peuvent avoir une influence positive sur la guérison. De ce point de vue, ChatGPT serait supérieur à certains médecins, notamment lorsque l’IA répond aux questions des patient·es de manière plus détaillée et plus empathique que ne le fait le personnel médical par manque de temps. Mais les réponses fournies par le chatbot comportent également des risques.

L’IA répond avec empathie et précision

L’équipe de recherche de l’université de Californie à San Diego a comparé dans une étude les réponses à des questions spécifiques du personnel médical avec celles de ChatGPT. Son objectif est de déterminer si une intelligence artificielle (en l’occurrence ChatGPT) est capable de répondre aux questions des patient·es avec autant de justesse et d’empathie que les professionnel·les de la santé.

Pour l’étude, le chatbot a répondu à 195 questions médicales sélectionnées au hasard, parmi celles postées publiquement par des malades sur une plateforme de médias sociaux (Reddit's r/AskDocs), auxquelles le personnel médical répond bénévolement. Une équipe de professionnel·les de la santé agréé·es a ensuite choisi si, dans l’ensemble, la réponse de l’IA ou celle du personnel médical était plus convaincante. La qualité des informations fournies (très mauvaise, mauvaise, acceptable, bonne ou très bonne) et l’empathie (pas empathique, légèrement empathique, modérément empathique, empathique et très empathique) ont été évaluées, sans savoir de qui provenait la réponse en question.

Cette comparaison entre l’IA et les humains a fourni un résultat inattendu : les réponses de ChatGPT ont été globalement plus appréciées et mieux notées en termes de qualité et d’empathie que celles du personnel médical.

Facteur temps : l’IA a l’avantage

Il ne faut pas oublier que les médecins qui donnent des informations sur le site Reddit le font volontairement et sans rémunération. Les réponses sont généralement courtes (52 mots en moyenne) et n’apportent généralement pas de précisions supplémentaires. Pour l’IA, le temps n’est pas un facteur limitant dans ce scénario de comparaison. Ses réponses étaient par conséquent plus détaillées (211 mots en moyenne). Cela est certes dû à la conception de l’étude, mais, la situation réelle dans le secteur de la santé est aussi généralement dominée par le manque de temps du corps médical.

Assistants IA pour soulager le secteur de la santé

L’objectif de l’étude est de déterminer si les assistants IA pourront à l’avenir aider les professionnel·les de la santé à éviter la surcharge de travail. L’idée n’est pas d’utiliser l’intelligence artificielle pour remplacer le personnel médical, mais pour l’assister. Par exemple, en permettant à l’IA de formuler des réponses aux questions des patient·es, que le personnel médical n’aura plus qu’à vérifier et à adapter si nécessaire. Après ces résultats prometteurs, les auteurs de l’étude encouragent la poursuite des recherches dans le domaine clinique afin de soulager le personnel médical et d’améliorer les soins aux patients.

Conseil médical de ChatGPT : les réponses l’IA sont sujettes à vérification

Les questions utilisées dans la présente étude étaient générales et ne nécessitaient pas de connaissances spécialisées approfondies pour y répondre. Cela a permis à ChatGPT de fournir des réponses de qualité. Avec la complexité croissante et l’expertise requise, une telle comparaison pourrait être différente. En outre, les experts qui ont évalué les réponses soulignent qu’un chat basé sur l’IA ne peut pas remplacer une consultation médicale. Se fier exclusivement à ChatGPT en cas de problème médical pourrait donc avoir des conséquences fatales, d’autant plus que le bot ne répond pas toujours correctement et fournit parfois des informations incorrectes.

Voici la réponse de ChatGPT

Et c’est même l’avis de ChatGPT : à ma question « Pouvez-vous établir un diagnostic médical ? », l’IA répond par la négative.

Je demande alors un « conseil médical » et j’obtiens la réponse suivante :

« Je peux fournir des informations générales sur des thèmes médicaux, mais je ne peux pas remplacer les conseils spécialisés d’un·e professionnel·le de la santé. Si vous avez des questions ou des préoccupations d’ordre médical, il est préférable de consulter un·e professionnel·le de la santé, qui pourra évaluer votre situation individuelle et vous donner des conseils et des recommandations appropriés, en fonction de vos besoins spécifiques. »

Sur ce point, les chercheur·euses, le personnel médical et ChatGPT sont donc d’accord.

Photo d’en-tête : Karolina Grabowska/pexels

Cet article plaît à 8 personne(s)


Ces articles pourraient aussi vous intéresser

  • En coulisse

    IA médicale : vos genoux en disent long sur votre consommation de bière, ou pas

    par Anna Sandner

  • En coulisse

    Les rencontres à l’ère de l’intelligence artificielle

    par Natalie Hemengül

  • En coulisse

    ChatGPT : "L'IA va être beaucoup plus présente dans nos vies"

    par Coya Vallejo Hägi

Commentaire(s)

Avatar