Das Vertrauen in die medizinische Kompetenz von KI-Systemen hält sich noch in engen Grenzen. Dies deutet eine Studie an, die zwei Psychologen der Universität Würzburg und ein Mediziner von Pfizer erarbeitet haben. Ihr Test ergab, dass die meisten Menschen misstrauisch werden, wenn sie erfahren, dass eine KI hinter einer medizinischen Empfehlung steht – selbst wenn ein Arzt aus Fleisch und Blut die Verantwortung übernimmt.
Folglich waren die Testpersonen bei KI-unterstützten Entscheidungen auch weniger bereit, dem Rat zu folgen – verglichen mit Empfehlungen, die ausschliesslich auf menschlich-ärztlicher Expertise basierten.
Konkret erhielten in 2’280 Studienteilnehmer identische medizinische Ratschläge. Dabei ging es um Platzangst, Reflux, Rauchstopp und die Frage, ob eine Kolonoskopie angebracht sei. Die Probanden sollten dann die Empfehlungen nach ihrer Verlässlichkeit, ihrer Verständlichkeit und der Empathie bewerten.
Der Unterschied: Während die erste Gruppe hörte, dass die Ratschläge von einem Arzt oder einer Ärztin stammte, meinte die zweite Gruppe, ein KI-gestützter Chatbot sei dafür verantwortlich. Die dritte Gruppe wurde im Glauben gelassen, ein menschlicher Arzt habe die Empfehlung unter Zuhilfenahme einer KI erstellt.
«Das Setting unserer Studie ist angelehnt an eine Digital Health-Plattform, auf der Informationen zu medizinischen Fragestellungen eingeholt werden können – also ein Setting, welches mit der zunehmenden Digitalisierung an Relevanz dazugewinnen wird»,
beschreiben die Autoren ihr Vorgehen.
Dass die Teilnehmer mehrheitlich dem ärztlichen Rat vertrauten und dem Chatbot-Tipp misstrauten – dies war gewiss zu erwarten. Doch selbst das Setting, bei dem ein Arzt oder eine Ärztin den Rat gab, aber dabei die Unterstützung von einer KI einholte, stiess auf mehr Widerstand als die rein menschliche Empfehlung.
Auch in der Kategorie «Empathie» schnitt der ärztliche Rat besser ab als die beiden KI-Varianten. Einzig unter dem Aspekt «Verständlichkeit» zeigten sich kaum Unterschiede zwischen den drei Gruppen.
«Vernachlässigung der Einzigartigkeit»
Das Ergebnis mag überraschen – zumal wenn man bedenkt, wie leichtfertig die Menschheit bereit ist, sich Diagnosen via Google zu beschaffen und darauf zu bauen.
Möglicherweise werde der Einsatz von KI «als ‚entmenschlichend‘ empfunden», schreiben die Autoren. Dahin deute, dass dem ärztlichen Rat mit KI-Unterstützung sogar tiefere Empathie-Werte zugesprochen wurden. «Eine weitere Erklärung für den beobachteten Widerstand gegen KI-generierte medizinische Ratschläge könnte das Phänomen der ‚Vernachlässigung der Einzigartigkeit‘ sein, bei dem Benutzer glauben, dass KI ihre individuellen Merkmale womöglich nicht angemessen berücksichtigt.»
Oder anders: Wenn der Arzt auf KI zurückgreift, dann zeigt er damit auch, dass er die speziellen Besonderheiten des Patienten weniger berücksichtigt – dies könnte hierbei ein wichtiges Gefühl sein.