Wie vertrauenswürdig sind KI-Diagnosen? Glaubt man einer Umfrage in Deutschland, so kann sich etwas mehr als die Hälfte der Bevölkerung vorstellen, eine medizinische Zweitmeinung von ChatGPT und Kollegen einzuholen.
Konkret haben 6 Prozent genau dies schon einmal getan – etwa indem sie sich bei Symptomchecker-Apps oder auch bei Chatbots wie ChatGPT nach ihren Symptomen erkundigten. Und 51 Prozent können sich künftig vorstellen, eine KI um eine Zweitmeinung zu bitten.
Die besagt eine
repräsentative Befragung unter 1’140 Personen in Deutschland, welche der Digitalindustrie-Verband Bitkom beauftragt hatte.
Demnach finden 71 Prozent der Deutschen, dass Ärztinnen und Ärzte wenn immer möglich Unterstützung von einer KI erhalten sollten. Fast die Hälfte (47 Prozent) glaubt, eine KI werde in bestimmten Fällen bessere Diagnosen stellen als ein Mensch.
Keine Angst – aber bitte Kontrolle
Die Bevölkerung steht Dr. KI also relativ angstfrei gegenüber. So sagten 85 Prozent aus, dass sie KI als grosse Chance für die Medizin erachten. Zwei Drittel (69 Prozent) sprechen sich dafür aus, den Einsatz von KI in der Medizin besonders zu fördern. 40 Prozent wären damit einverstanden, wenn ihre Gesundheitsdaten zum Training von KI genutzt werden.
Auf der anderen Seite macht der Einsatz von KI in der Medizin jeder dritten Person Angst.
Und eine gewisse Skepsis zeigt sich in einer anderen Zahl: 79 Prozent der Deutschen sprechen sich dafür aus, den Einsatz von KI in der Medizin streng zu regulieren.
Bemerkenswert sind diese Ergebnisse, weil sie einer anderen Studie der Universität Würzburg widersprechen: Laut jener Arbeit hält sich das Vertrauen in die medizinische Kompetenz von KI-Systemen noch in engen Grenzen. Denn sie besagt, dass die meisten Menschen misstrauisch werden, wenn sie erfahren, dass eine KI hinter einer medizinischen Empfehlung steht – selbst wenn ein Arzt aus Fleisch und Blut die Verantwortung übernimmt.
Die Studie wurde von zwei Psychologen der Universität Würzburg und einem Mediziner von Pfizer erarbeitet. Dabei erhielten in 2’280 Studienteilnehmer identische medizinische Ratschläge – zu Platzangst, Reflux, Rauchstopp und zur Frage, ob eine Kolonoskopie angebracht sei. Die Probanden sollten dann die Empfehlungen nach ihrer Verlässlichkeit, ihrer Verständlichkeit und der Empathie bewerten.
Der Unterschied: Während die erste Gruppe hörte, dass die Ratschläge von einem Arzt oder einer Ärztin stammte, meinte die zweite Gruppe, ein KI-gestützter Chatbot sei dafür verantwortlich. Die dritte Gruppe wurde im Glauben gelassen, ein menschlicher Arzt habe die Empfehlung unter Zuhilfenahme einer KI erstellt.
Dass die Teilnehmer mehrheitlich dem ärztlichen Rat vertrauten und dem Chatbot-Tipp misstrauten – dies war gewiss zu erwarten. Doch selbst das Setting, bei dem ein Arzt oder eine Ärztin den Rat gab, aber dabei die Unterstützung von einer KI einholte, stiess auf mehr Widerstand als die rein menschliche Empfehlung.
Folglich waren die Personen bei KI-unterstützten Entscheidungen auch weniger bereit, dem Rat zu folgen – verglichen mit Empfehlungen, die ausschliesslich auf menschlich-ärztlicher Expertise basierten.
Auch in der Kategorie «Empathie» schnitt der ärztliche Rat besser ab als die beiden KI-Varianten. Einzig unter dem Aspekt «Verständlichkeit» zeigten sich kaum Unterschiede zwischen den drei Gruppen.
«Vernachlässigung der Einzigartigkeit»
Das Ergebnis mag überraschen – zumal wenn man bedenkt, wie leichtfertig die Menschheit bereit ist, sich Diagnosen via Google zu beschaffen und darauf zu bauen.
Möglicherweise werde der Einsatz von KI «als ‚entmenschlichend‘ empfunden», schreiben die Autoren. Dahin deute, dass dem ärztlichen Rat mit KI-Unterstützung sogar tiefere Empathie-Werte zugesprochen wurden. «Eine weitere Erklärung für den beobachteten Widerstand gegen KI-generierte medizinische Ratschläge könnte das Phänomen der ‚Vernachlässigung der Einzigartigkeit‘ sein, bei dem Benutzer glauben, dass KI ihre individuellen Merkmale womöglich nicht angemessen berücksichtigt.»
Oder anders: Wenn der Arzt auf KI zurückgreift, dann zeigt er damit auch, dass er die speziellen Besonderheiten des Patienten weniger berücksichtigt – dies könnte hierbei ein wichtiges Gefühl sein.
Der Unterschied der beiden Studien lässt wieder mal ahnen: Es besteht doch ein deutlicher Widerspruch zwischen den allgemeinen Aussagen der Menschen (zum Beispiel hier über eine technologische Entwicklung) und der Bereitschaft, diese Aussagen auch im eigenen Alltagsleben gelten zu lassen.