Große Sprachmodelle in der Medizin

Forschende veröffentlichen Lösungen für mehr Reproduzierbarkeit und Genauigkeit

Der digitale Wandel in der Medizin hängt von der zuverlässigen Verarbeitung und Verknüpfung medizinischer Arbeitsabläufe ab. Große Sprachmodelle (Large Language Models – LLMs) tragen wesentlich zur besseren Strukturierung, Kategorisierung und Interpretation von medizinischen Informationen bei. Diese Modelle weisen jedoch Schwächen auf, wie beispielsweise die Erzeugung plausibler, aber falscher Informationen – sogenannte Halluzinationen – und die Erzeugung unterschiedlicher Antworten auf dieselbe Eingabe – sogenannter Nichtdeterminismus. In einem im Nature Portfolio Journal „npj Digital Medicine“ veröffentlichten Beitrag diskutieren Forscher des EKFZ für Digitale Gesundheit der TU Dresden und der Universität Chile mögliche Lösungen. Die Kombination von LLMs und Wissensgraphen (Knowledge Graphs – KGs) – eine Form von sogenannter Retrieval Augmented Generation – könnte die Modelle zuverlässiger, robuster und reproduzierbarer machen.

Die zuverlässige Aufzeichnung medizinischer Informationen und der Austausch zwischen verschiedenen Systemen (Interoperabilität) stellt nach wie vor eine große Herausforderung im Gesundheitswesen dar und wird auch als „Kommunikationsproblem“ der Medizin bezeichnet. Ansätze zur Lösung dieses Problems sind medizinische Ontologien und Wissensgraphen, sogenannte Knowledge Graphs (KGs). Medizinische Ontologien funktionieren ähnlich wie Wörterbücher für medizinische Begriffe und helfen, medizinische Konzepte zu kategorisieren und zu definieren. Diese Ontologien sind jedoch oft mehrdeutig, da in der menschlichen Sprache Begriffe je nach Kontext unterschiedliche Bedeutungen haben können. Beispielsweise kann sich das englische Wort „cold“ auf die Körpertemperatur, auf Umweltbedingungen oder auf das klinische Syndrom der akuten Rhinitis (Schnupfen) beziehen. Wissensgraphen sind organisierte Netzwerke, die verschiedene medizinische Konzepte und ihre Beziehungen miteinander verbinden. Zum Beispiel kann der Begriff „COVID-19“ in einem KG mit „Fieber“ durch eine Verknüpfung mit der Bezeichnung „hat Symptom“ verbunden sein. KGs erleichtern es, medizinische Informationen zu verstehen und zu verarbeiten, stehen aber vor ähnlichen Herausforderungen wie medizinische Ontologien.

Um diesen Schwierigkeiten zu begegnen, schlagen die Forscher aus Dresden und Santiago de Chile vor, große Sprachmodelle mit Wissensgraphen zu kombinieren und ihre jeweiligen Stärken zu nutzen. Diese Kombination ist eine Form von „Retrieval Augmented Generation“. Sie ermöglicht eine strukturierte Argumentation und könnte dazu beitragen, die Voreingenommenheit der Sprachmodelle zu verringern und zuverlässigere, genauere und reproduzierbare Ergebnisse zu liefern. Diese Ansätze wären mit den behördlichen Genehmigungsverfahren besser vereinbar als LLMs allein.

„Die Kombination von großen Sprachmodellen und Wissensgraphen ist eine Möglichkeit, um existierendes medizinisches Wissen mit den kognitiven Fähigkeiten von großen Sprachmodellen zu verknüpfen. Wir stehen hier erst am Anfang einer sehr spannenden Entwicklung,“ sagt Prof. Jakob N. Kather, Professor für Klinische Künstliche Intelligenz an der TU Dresden und Onkologe am Dresdner Universitätsklinikum Carl Gustav Carus.

Die Autoren diskutieren verschiedene Ansätze zur Kombination von LLMs und KGs. So könnte diese auch die Entwicklung von robusten digitalen Zwillingen der Patientinnen und Patienten erleichtern. In Form von individuellen, strukturierten Aufzeichnungen über den Gesundheitszustand, ermöglicht das eine personalisierte Diagnose.

„Trotz der bestehenden regulatorischen Herausforderungen, können Fachkräfte im Gesundheitswesen, die heute ihren Abschluss machen, davon ausgehen, dass sie in Zukunft Zugang zu miteinander kompatiblen und fortschrittlichen Werkzeugen für die Zusammenfassung klinischer Informationen haben werden – etwas das noch vor fünf Jahren unvorstellbar war. Zudem haben Ansätze, die große Sprachmodelle mit Wissensgraphen kombinieren, eine höhere Wahrscheinlichkeit, eine frühe Zulassung in konservativen Regulierungsverfahren zu erhalten“, sagt Prof. Stephen Gilbert, Professor für Medical Device Regulatory Science an der TU Dresden.

Publikation

Stephen Gilbert, Jakob N. Kather, Aidan Hogan: Augmented non-hallucinating large language models as medical information curators; npj Digital Medicine, 2024. https://www.nature.com/articles/s41746-024-01081-0

Else Kröner Fresenius Zentrum (EKFZ) für Digitale Gesundheit

Das EKFZ für Digitale Gesundheit an der TU Dresden und dem Universitätsklinikum Carl Gustav Carus Dresden wurde im September 2019 gegründet. Es wird mit einer Fördersumme von 40 Millionen Euro für eine Laufzeit von zehn Jahren von der Else Kröner-Fresenius-Stiftung gefördert. Das Zentrum konzentriert seine Forschungsaktivitäten auf innovative, medizinische und digitale Technologien an der direkten Schnittstelle zu den Patientinnen und Patienten. Das Ziel ist dabei, das Potenzial der Digitalisierung in der Medizin voll auszuschöpfen, um die Gesundheitsversorgung, die medizinische Forschung und die klinische Praxis deutlich und nachhaltig zu verbessern.


Weitere Beiträge im Themenbereich:
Weiterführende Informationen zu
Große Sprachmodelle in der Medizin
erhalten Sie beim Anbieter
2024-04-24
Technische Universität Dresden
Nöthnitzer Straße 43
01062 Dresden

Zurück