Uso seguro de grandes modelos lingüísticos en medicina

Crear y cumplir requisitos legales claros

23.08.2024
Computer-generated image

Imagen del símbolo

En "The Lancet Digital Health", investigadores dirigidos por los profesores Stephen Gilbert y Jakob N. Kather, del Centro Else Kröner Fresenius de Salud Digital de la Universidad Técnica de Dresde, ofrecen una visión general de los puntos fuertes y débiles, así como de los retos normativos, de las actuales aplicaciones sanitarias basadas en grandes modelos lingüísticos (LLM). Reclaman unas condiciones marco que hagan justicia a las capacidades y limitaciones de estas aplicaciones de IA y subrayan que es urgente aplicar la normativa existente. Una actitud vacilante por parte de las autoridades no sólo pone en peligro a los usuarios, sino también el potencial de las futuras aplicaciones de los LLM en medicina.

Oportunidades y riesgos de las aplicaciones sanitarias basadas en LLM

Las aplicaciones basadas en inteligencia artificial (IA) son ya una parte indispensable de la medicina. Los grandes modelos lingüísticos como el GPT-4 ofrecen una amplia gama de opciones de apoyo en el diagnóstico, cuidado y soporte de los pacientes. Al mismo tiempo, existen dudas sobre su seguridad y regulación. Los resultados suelen variar, son difíciles de entender y entrañan el riesgo de que se fabriquen afirmaciones (alucinaciones). Por ello, la autorización de aplicaciones basadas en LLM con fines médicos como productos sanitarios según la legislación de EE.UU. y la UE plantea retos a las autoridades competentes. A pesar de los riesgos de diagnósticos erróneos o consejos médicos no verificados, este tipo de aplicaciones ya están disponibles en el mercado. Desde la introducción de los grandes modelos lingüísticos, desarrolladores como Google, Meta, OpenAI y Microsoft los han mejorado continuamente y han introducido nuevos modelos. Su rendimiento también está mejorando para las aplicaciones médicas.

"Los LLM tienen el potencial de transformar la asistencia sanitaria y son cada vez más importantes en las áreas de diagnóstico y tratamiento del cáncer, así como en el cribado, la teleasistencia, la documentación y el apoyo a la toma de decisiones médicas. Ofrecen un gran potencial, pero también entrañan riesgos", afirma el Prof. Dr. Jakob N. Kather, catedrático de Inteligencia Artificial Clínica en el EKFZ de Salud Digital de la TU Dresde y oncólogo del Hospital Universitario Carl Gustav Carus de Dresde. En la actualidad se sigue investigando intensamente para determinar si las ventajas o desventajas superan a los inconvenientes en las aplicaciones médicas. Aparte de las muchas posibilidades y oportunidades, los investigadores señalan claramente en su publicación que aún quedan cuestiones legales y éticas, sobre todo en relación con la protección de datos, la protección de la propiedad intelectual y el problema de los prejuicios raciales y de género.

Es necesaria la autorización como productos sanitarios

Desde el momento en que las aplicaciones ofrecen asesoramiento médico a legos en materia de diagnóstico o tratamiento de enfermedades, son dispositivos médicos según la legislación de la UE y EE.UU. y, como tales, requieren la correspondiente licencia. Mientras que el cumplimiento de esta normativa estaba relativamente claro en el caso de las aplicaciones anteriores, definidas de forma estricta, la versatilidad de los LLM plantea retos normativos a las autoridades. Sin embargo, a pesar de las ambigüedades legales, estas aplicaciones no están reguladas y se comercializan sin autorización de las autoridades competentes. Los investigadores dejan claro que las autoridades tienen el deber de hacer cumplir las normas aplicables. Al mismo tiempo, deben garantizar el desarrollo de marcos adecuados para la comprobación y regulación de las aplicaciones sanitarias basadas en modelos lingüísticos a gran escala.

"Estas tecnologías ya existen en el mercado y debemos tener en cuenta dos aspectos fundamentales para garantizar el desarrollo seguro de tales aplicaciones. En primer lugar, se necesitan métodos adecuados para evaluar estas nuevas tecnologías. En segundo lugar, hay que hacer cumplir los requisitos legales aplicables contra las aplicaciones LLM inseguras en el mercado. Esto es esencial si queremos utilizar estas aplicaciones médicas de IA de forma segura en el futuro", afirma el profesor Dr. Stephen Gilbert, catedrático de Ciencia Reguladora de Dispositivos Médicos en el EKFZ de Salud Digital de la TU Dresden.

Nota: Este artículo ha sido traducido utilizando un sistema informático sin intervención humana. LUMITOS ofrece estas traducciones automáticas para presentar una gama más amplia de noticias de actualidad. Como este artículo ha sido traducido con traducción automática, es posible que contenga errores de vocabulario, sintaxis o gramática. El artículo original en Alemán se puede encontrar aquí.

Publicación original

Oscar Freyer, Isabella Catharina Wiest, Jakob Nikolas Kather, Stephen Gilbert: "A future role for health applications of large language models depends on regulators enforcing safety standards"; The Lancet Digital Health, 2024.

Más noticias del departamento ciencias

Noticias más leídas

Más noticias de nuestros otros portales

Tan cerca que
incluso las moléculas
se vuelven rojas...