Uso seguro de grandes modelos lingüísticos en medicina
Crear y cumplir requisitos legales claros
Oportunidades y riesgos de las aplicaciones sanitarias basadas en LLM
Las aplicaciones basadas en inteligencia artificial (IA) son ya una parte indispensable de la medicina. Los grandes modelos lingüísticos como el GPT-4 ofrecen una amplia gama de opciones de apoyo en el diagnóstico, cuidado y soporte de los pacientes. Al mismo tiempo, existen dudas sobre su seguridad y regulación. Los resultados suelen variar, son difíciles de entender y entrañan el riesgo de que se fabriquen afirmaciones (alucinaciones). Por ello, la autorización de aplicaciones basadas en LLM con fines médicos como productos sanitarios según la legislación de EE.UU. y la UE plantea retos a las autoridades competentes. A pesar de los riesgos de diagnósticos erróneos o consejos médicos no verificados, este tipo de aplicaciones ya están disponibles en el mercado. Desde la introducción de los grandes modelos lingüísticos, desarrolladores como Google, Meta, OpenAI y Microsoft los han mejorado continuamente y han introducido nuevos modelos. Su rendimiento también está mejorando para las aplicaciones médicas.
"Los LLM tienen el potencial de transformar la asistencia sanitaria y son cada vez más importantes en las áreas de diagnóstico y tratamiento del cáncer, así como en el cribado, la teleasistencia, la documentación y el apoyo a la toma de decisiones médicas. Ofrecen un gran potencial, pero también entrañan riesgos", afirma el Prof. Dr. Jakob N. Kather, catedrático de Inteligencia Artificial Clínica en el EKFZ de Salud Digital de la TU Dresde y oncólogo del Hospital Universitario Carl Gustav Carus de Dresde. En la actualidad se sigue investigando intensamente para determinar si las ventajas o desventajas superan a los inconvenientes en las aplicaciones médicas. Aparte de las muchas posibilidades y oportunidades, los investigadores señalan claramente en su publicación que aún quedan cuestiones legales y éticas, sobre todo en relación con la protección de datos, la protección de la propiedad intelectual y el problema de los prejuicios raciales y de género.
Es necesaria la autorización como productos sanitarios
Desde el momento en que las aplicaciones ofrecen asesoramiento médico a legos en materia de diagnóstico o tratamiento de enfermedades, son dispositivos médicos según la legislación de la UE y EE.UU. y, como tales, requieren la correspondiente licencia. Mientras que el cumplimiento de esta normativa estaba relativamente claro en el caso de las aplicaciones anteriores, definidas de forma estricta, la versatilidad de los LLM plantea retos normativos a las autoridades. Sin embargo, a pesar de las ambigüedades legales, estas aplicaciones no están reguladas y se comercializan sin autorización de las autoridades competentes. Los investigadores dejan claro que las autoridades tienen el deber de hacer cumplir las normas aplicables. Al mismo tiempo, deben garantizar el desarrollo de marcos adecuados para la comprobación y regulación de las aplicaciones sanitarias basadas en modelos lingüísticos a gran escala.
"Estas tecnologías ya existen en el mercado y debemos tener en cuenta dos aspectos fundamentales para garantizar el desarrollo seguro de tales aplicaciones. En primer lugar, se necesitan métodos adecuados para evaluar estas nuevas tecnologías. En segundo lugar, hay que hacer cumplir los requisitos legales aplicables contra las aplicaciones LLM inseguras en el mercado. Esto es esencial si queremos utilizar estas aplicaciones médicas de IA de forma segura en el futuro", afirma el profesor Dr. Stephen Gilbert, catedrático de Ciencia Reguladora de Dispositivos Médicos en el EKFZ de Salud Digital de la TU Dresden.
Nota: Este artículo ha sido traducido utilizando un sistema informático sin intervención humana. LUMITOS ofrece estas traducciones automáticas para presentar una gama más amplia de noticias de actualidad. Como este artículo ha sido traducido con traducción automática, es posible que contenga errores de vocabulario, sintaxis o gramática. El artículo original en Alemán se puede encontrar aquí.
Publicación original
Oscar Freyer, Isabella Catharina Wiest, Jakob Nikolas Kather, Stephen Gilbert: "A future role for health applications of large language models depends on regulators enforcing safety standards"; The Lancet Digital Health, 2024.