Peu de confiance dans le Dr. ChatGPT
Il reste encore beaucoup de chemin à parcourir avant que les gens ne fassent confiance aux conseils médicaux d'une IA
Autrefois, les gens demandaient au docteur Google s'ils voulaient savoir si leurs symptômes indiquaient un léger malaise gastrique ou un cancer en phase terminale ; aujourd'hui, ils se tournent de plus en plus vers ChatGPT. En conséquence, les médecins se plaignent des patients qui arrivent dans leur cabinet de consultation avec des diagnostics tout faits tirés d'Internet et qu'il est difficile de convaincre qu'ils ne sont pas gravement malades.
En fait, la confiance dans les compétences médicales de l'intelligence artificielle (IA) est loin d'être aussi forte qu'il n'y paraît. C'est du moins ce qui ressort d'une nouvelle étude publiée dans la revue Nature Medicine.
Une méfiance prononcée à l'égard de l'IA
L'étude montre que les gens jugent les conseils médicaux moins fiables et moins empathiques lorsque l'on pense qu'une IA est impliquée. C'était le cas même lorsque les participants à l'étude pouvaient supposer qu'un médecin avait fait ces recommandations avec l'aide d'une IA. Par conséquent, les personnes interrogées étaient également moins disposées à suivre les recommandations appuyées par l'IA que les conseils fondés uniquement sur l'expertise médicale des médecins humains.
Moritz Reis et le professeur Wilfried Kunde de la chaire de psychologie III de l'université Julius-Maximilians (JMU) sont responsables de cette étude, qui a été menée en collaboration avec Florian Reis de Pfizer Pharma GmbH.
"Le cadre de notre étude est basé sur une plateforme de santé numérique où l'on peut obtenir des informations sur des questions médicales - en d'autres termes, un cadre qui deviendra de plus en plus pertinent avec la numérisation croissante", décrivent les auteurs dans leur approche.
Pas de différences en matière de compréhension
Dans le cadre de l'étude, plus de 2 000 participants ont reçu des conseils médicaux identiques et ont été invités à en évaluer la fiabilité, la compréhensibilité et l'empathie. Seule différence : alors qu'un groupe a été informé que ces conseils provenaient d'un médecin, le deuxième groupe a été informé qu'un chatbot soutenu par l'IA en était responsable. Le troisième groupe a été amené à croire qu'un médecin avait fait la recommandation avec l'aide d'une IA.
Les résultats sont clairs : les gens font moins confiance aux recommandations médicales s'ils soupçonnent l'implication de l'IA. Il en va de même s'ils pensent que le personnel médical a contribué à la création des conseils. Les conseils étiquetés comme étant générés par des humains ont également obtenu de meilleurs résultats que les deux variantes d'IA dans la catégorie "empathie". Ce n'est qu'en termes de compréhensibilité qu'il n'y a guère de différences entre les trois groupes. Apparemment, les gens n'ont aucune réserve à l'égard de la technologie de ce point de vue.
La confiance est importante pour la réussite du traitement
"Il s'agit d'un résultat important, car on sait que la confiance dans les diagnostics médicaux et les recommandations thérapeutiques est un facteur très important pour la réussite du traitement", affirment les auteurs de l'étude. Ces résultats sont particulièrement importants dans le contexte d'une possible réduction de la bureaucratie et d'un allègement du travail quotidien des médecins grâce à la coopération avec l'IA. Selon eux, l'étude constitue donc le point de départ d'une recherche approfondie sur les conditions dans lesquelles l'IA peut être utilisée à des fins diagnostiques et thérapeutiques sans mettre en péril la confiance et la coopération des patients.
Note: Cet article a été traduit à l'aide d'un système informatique sans intervention humaine. LUMITOS propose ces traductions automatiques pour présenter un plus large éventail d'actualités. Comme cet article a été traduit avec traduction automatique, il est possible qu'il contienne des erreurs de vocabulaire, de syntaxe ou de grammaire. L'article original dans Anglais peut être trouvé ici.