Der selbstlernende Chirurgie-Roboter ++ Diabetes per Video erkennen ++ Modell schliesst von häufigen auf seltene Krankheiten ++ KI schreibt gute Arztbriefe ++ KI kann Qualitäts-Reporting ++
Der KI-Ticker, 15. November 2024 um 23:00Ein Chirurgie-Roboter bei einer Video-Lektion | Bild: Johns Hopkins University
Video-Scan soll Bluthochdruck und Diabetes früh erkennen
Eine Technikidee aus Tokio wurde jüngst am AHA-Kardiologen-Kongress in Chicago präsentiert. Danach ist eine KI in der Lage, mit einer Videoanalyse der Durchblutung von Gesicht und Händen sowohl Bluthochddruck als auch Diabetes zu erkennen. Dabei wurden Blutflussveränderungen analysiert, die eine Hochgeschwindigkeits-Kamera jeweils aufgenommen hat.
Laut den japanischen Forschern erreichte das Modell in den Tests eine Genauigkeit von 94 Prozent beim Bluthochdruck, und von 75 Prozent bei Diabetes. Allerdings wird sich noch zeigen müssen, ob diese Methode am Ende auch effizienter ist als die herkömmlichen Methoden.
Wie bringt man einem Roboter bei, so gut zu operieren wie ein erfahrener Chirurg? Die Antwort lautet womöglich: Lasst ihn Lern-Videos gucken. Bislang musste jeder Schritt (respektive Handgriff) eines Roboters mühsam programmiert werden. Ein Team der Johns Hopkins University entwickelte nun ein Modell, das Bewegungen und Techniken direkt aus Videos von Chirurgen heraus «lernen» kann. Am Ende schafften es die Roboter im Test, komplizierte Eingriffe exakt durchzuführen. Das Team hatte bereits 2022 weltweit erstmals einen Roboter eine vollautomatische laparoskopische Operation durchführen lassen (allerdings nicht an einem Menschen, sondern an einem Schwein).
Der lernende Chirurgie-Roboter: Demo-Film der Johns Hopkins University
Pathologie: KI-Tool schliesst von häufigen auf seltene Krankheiten
Forscher der Universität München, der TU Berlin und der Charité haben ein KI-Tool entwickelt, das anhand von Bildgebungsdaten auch wenig häufige Krankheiten im Magen-Darm-Trakt erkennen kann. Das Problem bei seltenen Krankheiten besteht ja darin, dass es oft an Daten fehlt, um die KI's zu trainieren. Die deutschen Forscher haben nun ein neues Modell entwickelt, das mit Trainingsdaten von häufigen Befunden auch weniger häufige Krankheiten erkennen kann.
Der Ansatz setzt auf Anomalie-Detektion: Aus der genauen Charakterisierung von normalem Gewebe und Befunden häufiger Erkrankungen lernt das Modell, Abweichungen zu erkennen – ohne dass es extra für diese selteneren Fälle trainiert werden muss. Die Entwicklung wurde mit Bildern von Gewebeschnitten aus gastrointestinalen Biopsien mit den zugehörigen Diagnosen gemacht. «Wir haben verschiedene technische Ansätze verglichen und unser bestes Modell hat ein breites Spektrum an selteneren Pathologien von Magen und Darm, einschliesslich seltener primärer oder metastasierender Krebsarten, mit hoher Zuverlässigkeit erkannt», sagt Klaus-Robert Müller von der TU Berlin.
Indem es normale Befunde und häufige Krankheiten identifiziert und dann auf Anomalien hinweist, könnte das neue KI-Modell die Ärzte entscheidend unterstützen – auch wenn alle Befunde durch Pathologen bestätigt werden müssen.
Ein weiteres Forscherteam aus den USA und Israel ging der Frage nach, ob Mediziner mit KI bessere Diagnosen stellen. Das Sample bestand aus 50 amerikanischen Ärzten für Allgemeine oder Innere Medizin sowie Notfallmedizin.
Heraus kam, dass der Einsatz von ChatGPT-4 als Diagnosehilfe die Resultate nicht signifikant verbesserte. Oder anders: Bei Ärzten, die das KI-System verwendeten, waren die Diagnosen nicht signifikant besser als bei Ärzten, die herkömmliche Diagnoseressourcen verwendeten.
Allerdings zeigte die KI alleine deutlich bessere Ergebnisse, und es übertraf die Leistung von Ärzten, die herkömmliche diagnostische Online-Ressourcen nutzten wie auch von Ärzten, die von GPT-4 unterstützt wurden.
Dies wohl der verblüffendste Aspekt an der Studie – die allerdings sehr klein war.
Was ist besser in der Medizin: Gemini oder ChatGPT?
Einen kleinen Qualitäts-Vergleich hat das Fachorgan LabNews erarbeitet: Was taugt Google Gemini (das sich im Medizinbereich profilieren will) im Vergleich zum allseits beliebten ChatGPT? LabNews wertete dazu entsprechenden Literatur respektive Studien aus. Bei der diagnostischen Genauigkeit scheint ChatGPT Vorteile zu haben, und bei den Vorschlägen zur Glaukom-Chirurgie war die Qualität offenbar deutlich höher. Eher ausgeglichen dann das Ergebnis bei ophthalmologischen Fragestellungen, – während beide Systeme bei der Labormedizin enttäuschten.
Ein Team des Universitätsklinikums Freiburg i. Br. hat vier grosse Sprachmodelle getestet: Wie gut kann man damit ärztliche Dokumentation erarbeiten? Antwort: sehr gut. Für das Training der Modelle verwendeten die Forscher insgesamt 90'000 reale Dokumente aus der Klinik für Augenheilkunde des Uni-Spitals. Auf dieser Basis wurden dann Arztbriefe generiert – welche wiederum von Fachleuten beurteilt wurden.
Resultat: Beim besten System waren 93,1 Prozent der erstellten Dokumente nach geringfügigen Korrekturen für die klinische Anwendung geeignet.
Die grösste Herausforderung bestand darin, sicherzustellen, dass die durch das Sprachmodell generierten Dokumente den Standards der medizinischen Dokumentation in deutscher Sprache entsprechen. «Besonders die Anpassung an spezifische medizinische Fachbegriffe und die Struktur klinischer Berichte stellte eine anspruchsvolle Aufgabe dar, da das Modell sowohl präzise als auch verständliche Texte liefern musste», sagt Daniel Böhringer, Oberarzt an der Freiburger Klinik für Augenheilkunde.
Künstliche Intelligenz kann beim Qualitäts-Reporting von Spitälern massiv helfen: So das Ergebnis einer Pilotstudie der University of California San Diego. Danach kann ein AI-System die Qualitätsindikatoren eines Spitals akkurat verarbeiten; beim Test in Kalifornien erreichte das eingesetzte System 90 Prozent Übereinstimmung mit Einträgen per Hand.
Die Idee: Statt komplexer Qualitätsangaben liest das System gewisse Parameter direkt aus den üblichen Patientendaten heraus. Ein Beispiel wäre etwa der Anteil der Wiederaufnahmen nach kurzer Zeit – dies wäre ein logischer Kontext, den eine KI aus der Patientendokumentation direkt herauslesen kann.
Am LUKS Sursee wird KI heute systematisch für die automatische Beurteilung digitaler Mammografie-Aufnahmen eingesetzt. Die interne Forschungsgruppe Mammadiagnostik hat einen KI-Algorithmus trainiert: Dieser hilft, auffällige Befunde zu erkennen und deren Dignität zu bestimmen. Zusätzlich klassifiziert KI objektiv die Brustdichte einer Frau.
«Die bisherigen Ergebnisse der KI-Anwendung am LUKS legen nahe, dass KI die korrekte Diagnose weniger genau erstellen kann als spezialisierte Radiologinnen und Radiologen. Weniger spezialisierten Fachärztinnen und Fachärzten einer allgemeinen radiologischen Abteilung hilft die Technologie jedoch, die Beurteilung von Mammografien zu verbessern», kommentiert das LUKS den aktuellen Stand: «Zudem könnte KI dazu beitragen, personelle Engpässe abzumildern. Da die qualitätsgesicherte Mammografie verlangt, dass sämtliche Mammografien von zwei Radiologinnen oder Radiologen bewertet werden, evaluiert das LUKS Sursee, ob die zweite Befundung konsequent durch KI erfolgen kann. Erste Ergebnisse stimmen sehr positiv.»
KI & GoPro: Ein System, das Medikationsfehler sieht.
Die University of Washington meldet das erste Kamerasystem, welches Fehler bei der Medikamentenabgabe erkennt. Der Test lief im Rahmen eines normalen – und normal hektischen – klinischen Umfelds. Die Aufgabe bestand darin, ein Deep-Learning-System zu entwickeln, das den Inhalt von Ampullen und Fläschchen erkennt und im Notfall warnt.
Die KI wurde geschult mit 4'000 Videoaufnahmen von Medikations-Vorbereitungen durch ein Dutzend verschiedene Fachleute; und zwar auf verschiedenen Unterlagen und mit wechselnden Lichtverhältnissen.
«Es war eine grosse Herausforderung: Wenn die Person im OP eine Spritze und ein Fläschchen in der Hand hält, sieht man keines dieser Objekte vollständig», sagt Shyam Gollakota, Mitautor der Studie und Professor an der University of Washington: «Einige Buchstaben (auf der Spritze und dem Fläschchen) werden von den Händen verdeckt. Und die Hände bewegen sich schnell. Sie machen den Job. Sie posieren nicht für die Kamera.»
Bild: Paul G. Allen School of Computer Science & Engineering
Obendrein musste das Modell so trainiert werden, dass es sich auf bestimmte Medikamente konzentriert und nebenbei herumliegende Fläschchen und Spritzen im Hintergrund ignoriert. Der Clou: Das Video-AI-System liest nicht nur den Wortlaut auf den Ampullen, sondern sucht nach anderen visuellen Hinweisen – Grösse und Form des Fläschchens und der Spritze, Farbe des Fläschchendeckels, Art des Etikettendrucks…
Im nun publizierten Test erkannte das System die Medikamentierungsfehler mit einer Sensitivität von 99,6 Prozent und einer Spezifizität von 98,8 Prozent.
Ein Team der Uniklinik Köln hat eine digitale pathologische Plattform erstellt: Diese ermöglicht mit neuen Algorithmen eine voll automatisierte Analyse von Gewebsschnitten von Patienten mit Lungenkrebs.
Laut der Mitteilung aus Köln können Gewebeproben so schneller und präziser als bislang auf Lungentumore analysiert werden. Der Fall zeigt, wie durch den Einsatz künstlicher Intelligenz zusätzliche Informationen aus pathologischen Gewebsschnitten gewonnen werden können. Das Forschungsteam will nun mit fünf pathologischen Instituten aus Deutschland, Österreich und Japan eine Validierungsstudie durchführen.
Wie KI in der pathologischen Krebs-Analyse und -Diagnose hilft
Eine Studie der Universitäten Lausanne und Bern stellte jüngst ein Modell der künstlichen Intelligenz vor, das in der Lage ist, virtuelle Färbungen von Krebsgewebe zu erzeugen – den «Virtual Multiplexer». Bislang erfolgt die Färbung im Labor mit Farbstoffen, die für bestimmte zelluläre Marker spezifisch sind. Der Virtual Multiplexer schafft nun präzise und detaillierte Bilder von Krebsgewebe, welche die Färbung dieser zellulären Marker nachahmen. Daraus ergeben sich Informationen über den Status der Krebserkrankung.
«Die Idee basiert auf der Annahme, dass eine einzige tatsächliche Gewebefärbung, die im Rahmen der Routinepathologie im Labor durchgeführt wird, ausreicht, um zu simulieren, welche Zellen in diesem Gewebe für mehrere andere, spezifischere Marker positiv färben würden», sagt Marianna Rapsomaniki, Computerwissenschaftlerin an der Uni Lausanne.
Die Methode funktioniert ähnlich wie eine Handy-App, die ausmalt, wie ein junger Mensch im Alter aussehen wird: Sie verarbeitet Informationen aus Tausenden von Bildern anderer Personen. Da der Algorithmus lernt, wie eine alte Person aussieht, kann er diese Transformation auf jedes beliebige Foto anwenden. Ähnlich verwandelt der Virtual Multiplexer ein Foto mit Färbungen, die verschiedene Regionen innerhalb eines Krebsgewebes grob unterscheiden: Nachdem das System die Logik erlernt hat, die ein real gefärbtes Bild definiert, ist es in der Lage, denselben «Stil» auf ein bestimmtes Gewebebild anwenden.
Mit einem Validierungsverfahrens wurde nun in einem weiteren Schritt sichergestellt, dass die Bilder klinisch aussagekräftig sind – und nicht bloss KI-generierte Ergebnisse, die nur plausibel erscheinen, aber in der Realität jedoch falsche Erfindungen sind.