Utilisation sûre de grands modèles de langage en médecine
Créer et respecter des directives juridiques claires
Opportunités et risques des applications de santé basées sur le LLM
Les applications basées sur l'intelligence artificielle (IA) sont devenues un élément indispensable de la médecine. Les grands modèles de langage- comme GPT-4 offrent de multiples possibilités d'assistance dans le diagnostic, les soins et le suivi des patients. En même temps, leur sécurité et leur réglementation suscitent des inquiétudes. Les résultats varient souvent, sont difficilement compréhensibles et comportent le risque de déclarations inventées (hallucinations). L'autorisation d'applications basées sur le LLM à des fins médicales en tant que dispositifs médicaux selon le droit américain et européen pose donc des défis aux autorités compétentes. Malgré les risques, par exemple ceux liés à des diagnostics erronés ou à des conseils médicaux non vérifiés, de telles applications sont déjà disponibles sur le marché. Depuis l'introduction de grands modèles de langage, des développeurs comme Google, Meta, OpenAI et Microsoft les ont constamment améliorés et ont présenté de nouveaux modèles. Leurs performances ne cessent également de s'améliorer pour les applications médicales.
"Les LLM ont le potentiel de transformer les soins de santé et prennent de plus en plus d'importance dans les domaines du diagnostic et du traitement du cancer, ainsi que dans la prévention, le suivi à distance, la documentation et l'aide à la décision médicale. Ils offrent un grand potentiel, mais comportent aussi des risques", explique le professeur Jakob N. Kather, professeur d'intelligence artificielle clinique à l'EKFZ für Digitale Gesundheit de l'université technique de Dresde et oncologue à la clinique universitaire Carl Gustav Carus de Dresde. Actuellement, des recherches intensives sont encore en cours pour déterminer si les avantages ou les inconvénients l'emportent dans les applications médicales. Outre les nombreuses possibilités et opportunités, les chercheurs soulignent clairement dans leur publication les questions juridiques et éthiques en suspens, notamment en ce qui concerne la protection des données, la préservation de la propriété intellectuelle ainsi que la problématique des préjugés sexistes et racistes.
Autorisation nécessaire en tant que produits médicaux
Dès que des applications offrent des conseils médicaux à des profanes concernant leur diagnostic ou le traitement de maladies, il s'agit, selon le droit européen et américain, de dispositifs médicaux qui, en tant que tels, nécessitent une autorisation correspondante. Alors que le respect de ces réglementations était relativement clair pour les applications étroitement définies jusqu'à présent, la diversité des LLM pose des défis réglementaires aux autorités. Cependant, malgré le flou juridique, de telles applications ne sont pas réglementées et sont disponibles sur le marché sans autorisation des autorités compétentes. Les chercheurs soulignent que les autorités ont l'obligation de faire respecter les règles en vigueur. Parallèlement, ils devraient veiller à ce que des cadres adaptés soient développés pour tester et réglementer les applications de santé basées sur des modèles linguistiques à grande échelle.
"Ces technologies existent déjà sur le marché et nous devons tenir compte de deux éléments fondamentaux pour garantir un développement sûr de ces applications. Premièrement, il faut des méthodes adaptées pour pouvoir évaluer ces nouvelles technologies. Deuxièmement, il faut faire respecter les dispositions légales en vigueur face aux applications LLM peu sûres sur le marché. C'est indispensable si nous voulons utiliser ces applications médicales d'IA en toute sécurité à l'avenir", explique le professeur Stephen Gilbert, professeur de Medical Device Regulatory Science à l'EKFZ für Digitale Gesundheit de l'université technique de Dresde.
Note: Cet article a été traduit à l'aide d'un système informatique sans intervention humaine. LUMITOS propose ces traductions automatiques pour présenter un plus large éventail d'actualités. Comme cet article a été traduit avec traduction automatique, il est possible qu'il contienne des erreurs de vocabulaire, de syntaxe ou de grammaire. L'article original dans Allemand peut être trouvé ici.
Publication originale
Oscar Freyer, Isabella Catharina Wiest, Jakob Nikolas Kather, Stephen Gilbert: "A future role for health applications of large language models depends on regulators enforcing safety standards"; The Lancet Digital Health, 2024.