Poca confianza en el Dr. ChatGPT
Aún queda mucho para que la gente confíe en los consejos médicos de una IA
La gente solía preguntar al Dr. Google si quería saber si sus síntomas indican un leve malestar estomacal o un cáncer terminal; hoy, recurren cada vez más a ChatGPT. Como consecuencia, los médicos se quejan de los pacientes que llegan a sus consultas con diagnósticos ya hechos en internet y a los que es difícil convencer de que no están gravemente enfermos.
De hecho, la confianza en la competencia médica de la inteligencia artificial (IA) no es ni mucho menos tan pronunciada como parece. Al menos ese es el resultado de un nuevo estudio que acaba de publicarse en la revista Nature Medicine.
Una pronunciada desconfianza hacia la IA
El estudio muestra que la gente valora el asesoramiento médico como menos fiable y empático siempre que se cree que está implicada una IA. Esto ocurría incluso cuando los participantes en el estudio podían suponer que un médico había hecho esas recomendaciones con la ayuda de una IA. En consecuencia, los encuestados también se mostraron menos dispuestos a seguir recomendaciones respaldadas por IA en comparación con los consejos basados únicamente en la experiencia médica de médicos humanos.
Moritz Reis y el profesor Wilfried Kunde, de la Cátedra de Psicología III de la Julius-Maximilians-Universität (JMU), son los responsables de este estudio, realizado en colaboración con Florian Reis, de Pfizer Pharma GmbH.
"El escenario de nuestro estudio se basa en una plataforma digital de salud en la que se puede obtener información sobre cuestiones médicas, es decir, un escenario que será cada vez más relevante con la creciente digitalización", describen los autores su planteamiento.
No hay diferencias en la comprensibilidad
Como parte del estudio, más de 2.000 participantes recibieron consejos médicos idénticos y se les pidió que los evaluaran en cuanto a fiabilidad, comprensibilidad y empatía. La única diferencia: mientras que a un grupo se le dijo que este consejo procedía de un médico, al segundo grupo se le dijo que el responsable era un chatbot asistido por IA. Al tercer grupo se le hizo creer que un médico había hecho la recomendación con la ayuda de una IA.
Los resultados son claros: la gente confía menos en las recomendaciones médicas si sospecha que está implicada la IA. Lo mismo ocurre si creen que el personal médico ha contribuido a generar el consejo. Los consejos etiquetados como generados por humanos también obtuvieron mejores resultados que las dos variantes de IA en la categoría de "empatía". Sólo en términos de comprensibilidad apenas hubo diferencias entre los tres grupos. Aparentemente, la gente no tiene reservas sobre la tecnología desde este punto de vista.
La confianza es importante para el éxito del tratamiento
"Se trata de un hallazgo importante, ya que se sabe que la confianza en los diagnósticos médicos y las recomendaciones terapéuticas es un factor muy importante para el éxito del tratamiento", afirman los autores del estudio. Estos hallazgos son especialmente importantes en el contexto de una posible reducción de la burocracia y un alivio para el trabajo diario de los médicos gracias a la cooperación con la IA. En su opinión, el estudio representa, por tanto, un punto de partida para la investigación detallada de las condiciones en las que la IA puede utilizarse en el diagnóstico y la terapia sin poner en peligro la confianza y la cooperación de los pacientes.
Nota: Este artículo ha sido traducido utilizando un sistema informático sin intervención humana. LUMITOS ofrece estas traducciones automáticas para presentar una gama más amplia de noticias de actualidad. Como este artículo ha sido traducido con traducción automática, es posible que contenga errores de vocabulario, sintaxis o gramática. El artículo original en Inglés se puede encontrar aquí.