Forscher der ETH Lausanne (EPFL) haben ein Large-Language-Modell (LLM) für medizinische Anwendungen entwickelt und freigegeben.
«Meditron», wie es genannt wird, soll Medizinerinnen und Medizinern in aller Welt dabei helfen, korrekte klinische Entscheidungen zu treffen.
Das Besondere an Meditron ist sein Open-Source-Konzept. Das heisst: alle können es weitergestalten. Es gibt bereits LLMs für die Medizin, die meisten seien aber proprietär: Sie stehen also unter Kontrolle eines Unternehmens oder einer Institution; Anwender könnten dabei nicht genau wissen, mit welchen Materialien sie trainiert wurden und können auch bei der Weiterentwicklung nicht eingreifen.
Large Language Modelle verarbeiten massenhaft Daten aus der allgemeinen Sprache in Ergebnisse, die wiederum selber in normaler Sprache dargestellt werden. Es sind also lernende Künstliche-Intelligenz-Systeme, die mit Sprachbefehlen («Prompts») gesteuert werden. Das bekannteste LLM ist Chat-GPT.
Im Gegensatz dazu legt man bei «Meditron» offen, welche Daten für das Training verwendet wurden. Das System sei mit sorgfältig ausgewählten medizinische Datenquellen von hoher Qualität trainiert worden – insbesondere wissenschaftlich geprüfter medizinischer Fachliteratur aus öffentlich zugänglichen Quellen wie Pubmed; ferner mit Guidelines für medizinische Praktiken aus verschiedenen Spitälern, Ländern und Regionen. Auch Guidelines von internationalen Organisationen seien verwendet worden, darunter das Internationalen Rote Kreuz.
Humanitärer Aspekt
Es komme nicht oft vor, dass bei der Entwicklung von medizinischen Tools auch humanitäre Aspekte berücksichtigt würden, kommentiert Javier Elkin vom IKRK. Deshalb freue man sich sehr über diese Zusammenarbeit mit der EPFL.
Nun hoffe man auf internationale Mitarbeit bei der Weiterentwicklung von «Meditron», sagt Martin Jaggi, der das Laboratorium für Machine Learning und Optimierung der EPFL leitet: «Wir wollen, dass Forscher mit unserem Modell Stress-Tests durchführen. Mit ihren Verbesserungen können sie es verlässlicher und robuster und sicherer machen. Es geht um den langen, aber notwendigen Prozess der Validierung in der realen Welt. Genau dies ist aber mit proprietären Modellen gar nicht möglich.»
Es gibt zwei Versionen von «Meditron» mit 7 oder 70 Milliarden Parametern. Obwohl die proprietären Modelle hunderte von Milliarden Parametern verwenden, könne das eigene Open-Source-LLM bei der Qualität seiner Antworten mithalten, so die EPFL. Die sorgfältige Auswahl von weniger, aber für den Einsatzzweck massgeschneiderten und hochqualitativen Trainingsdaten mache dies möglich.
Nach der Entwicklung von «Meditron» habe man vier bekannte medizinische Benchmark-Tests durchgeführt, um das System zu evaluieren. Dabei habe sich gezeigt, dass «Meditron» nicht nur besser sei als alle anderen gegenwärtig erhältlichen Open-Source-Modelle, sondern auch besser als die proprietären Modelle GPT-3.5 und Med-PaLM. Die Meditron-Version mit 70 Milliarden Parametern erreiche zudem beinahe die Performance von GPT-4 und Med-PaLM-2, den beiden gegenwärtig besten LLMs für medizinische Zwecke.