Dass lernende Algorithmen immer besser dazu taugen, Bilder nach Krankheitssignalen zu durchforsten: Dies ist schon weitherum bekannt. Es gab in jüngster Zeit ja vielbeachtete Fälle.
So meldete die Stanford University, dass ein «Deep Learning»-System jetzt Hautkrebs mit ebenso hoher Präzision erkennen kann wie erfahrene Dermatologen. Im Februar bewilligte die US-Aufsichtsbehörde FDA eine Software, welche dreidimensionale Ansichten des Herzens erarbeitet und dann, in einem zweiten Schritt, auch Diagnose-Vorschläge präsentiert. Und im
März gab Google bekannt, dass es sein Künstliche-Intelligenz-System in der Brustkrebs-Diagnose mit dem Menschen aufnehmen könne.
Jetzt melden sich Mediziner des Universitätsspitals Zürich mit ähnlichen Erfolgsmeldungen. Konkreter: Am USZ-Institut für Diagnostische und Interventionelle Radiologie wurde eine Deep-Learning-basierte Software genutzt, um Brustkrebs in Mammographien zu entdecken. Das Resultat: Die Software zeigte ähnlich gute Resultate wie erfahrene Radiologen.
Das Programm wurde in einem ersten Schritt mit einer Durchschnittsauswahl von Mammographien aus dem USZ-Bestand trainiert. Dann testete das Team um Anton Becker und Andreas Boss die Qualität der Aussagen durch Vergleich mit diversen weiteren Mammographie-Sammlungen; so zum Beispiel mit Kohorten mit hoher Brustkrebshäufigkeit oder mit einem Bestand aus Portugal, also mit einer völlig anderen Population.
Auf der Gegenseite suchten dann drei erfahrene Radiologen nach Brustkrebs-Signalen in den Bildern. Das Ergebnis: Das trainierte AI-Programm erreichte ungefähr die Leistung der Radiologen. Auch in einer Kohorte mit tiefer Brustkrebs-Neigung schaffte das System ähnliche Werte wie die Ärzte aus Fleisch und Blut.
Oder genauer: Die Radiologen waren durchgehend weniger sensitiv – das heisst, sie entdeckten Abweichungen weniger zuverlässig. Doch andererseits schnitten sie besser bei der Spezifität ab: Sie konnten die erfassten Läsionen besser einschätzen.
Zum Vergleich: In jüngst veröffentlichten Versuchen bei Google lokalisierte und erkannte das AI-System in 89 Prozent der Fälle einen Tumor in der Brust korrekt. In einer Vergleichsgruppe aus erfahrenen Pathologen – ohne Zeitdruck – lag die Quote bei 73 Prozent.
Hilfsmittel für den Arzt, nicht Ersatz
«Im Ergebnis zeigte sich, dass das trainierte Programm schon sehr nahe an die menschliche Leistung heranreicht», kommentiert
Andreas Boss jetzt im USZ-Blog die Ergebnisse. Der Leitende Arzt am USZ erwartet, dass sich mit solchen Techniken insbesondere die Arbeit der Radiologen in den nächsten Jahren nachhaltig verändern wird – die maschinellen Befunde würden mehr und mehr als Hilfsmittel zur Bestätigung und Interpretation eingesetzt.
Boss ist beteiligt an einem
Spin-off des USZ namens B-Rayz, welches Algorithmen zur Deutung von Röntgen- oder MRI-Bildern entwickelt. Beispielsweise kann man auf der B-Rayz-Seite seine Mammographie hochladen – und erhält eine Risikoanalyse durch Bestimmung der Brustdichte. Dies könnte auch die Ärzte in der Beurteilung des Brustkrebsrisikos einer Patientin unterstützen.
«Additional ultrasound examination recommended»: Kommentar des B-Rayz-Systems zu einer Mammographie.