02. 10. 2025
Verfasst von: Ursula Hertha Hübner
KI in Medizin und Pflege – wenn, dann richtig
Irren ist menschlich. In der Medizin und Pflege soll künstliche Intelligenz die Beschäftigten bei ihrer Arbeit unterstützen, Fehleinschätzungen verringern sowie Diagnosen und Medikamentengaben verbessern. Doch was passiert, wenn die KI sich irrt? Wenn Menschen eher einer Maschine als ihren eigenen Fähigkeiten vertrauen? Das hat ein Forschungsteam der Hochschule Osnabrück anhand medizinischer Bilddiagnosen untersucht. Es fordert kritisches Denken und eine fundierte Aus- und Weiterbildung.
Wem wird mehr vertraut – Mensch oder Maschine?
Künstliche Intelligenz oder Artificial Intelligence (AI) im Gesundheitswesen gibt es seit rund 50 Jahren. 1975 entwickelte die Stanford University in den USA ein regelbasiertes System zur Gabe von Antibiotika. Dabei wird AI auch gerne als Augmented Intelligence übersetzt: Sie soll die Fähigkeiten von Ärzten, Ärztinnen und Pflegekräften erweitern, nicht diese ersetzen. Augmentiert, also erweitert, werden die Fähigkeiten beispielsweise durch gezielte Suchen in großen Datenmengen oder durch Klassifizierung in „unauffällige“ und „auffällige“ medizinische Bilder. Prädiktionsmodelle, die aus einer Vielzahl von vorangegangenen Patientendaten trainiert wurden, machen Vorschläge zu Diagnosen und Therapien. In all diesen Fällen bleiben jedoch die Menschen in den Gesundheitsberufen letztlich verantwortlich.
Was passiert, wenn die KI sich irrt?
Zum Mehrwert, den KI im Gesundheitswesen erbringt, lautet eine These: KI-Anwendungen unterstützen insbesondere junge, unerfahrene Menschen, die richtigen Entscheidungen zu treffen. Doch was passiert, wenn sich die Maschine irrt? Dieser Frage ist ein Forschungsteam im Projekt ZIEL zur Mensch-Maschine-Interaktion durch KI nachgegangen, gefördert vom Bundesforschungsministerium. „Irrtümer können umso schwerwiegender sein, wenn Menschen einem Automation Bias unterliegen. Darunter verstehen wir die Tendenz, eher einer Maschine als Menschen zu vertrauen“, erläutert Projektleiterin Prof. Dr. Ursula Hübner von der Hochschule Osnabrück.
Eigene Fähigkeit schützt vor falscher Empfehlung
Die Projektgruppe legte 210 Medizin- und Pflegekräften falsch und richtig klassifizierte Bilder von chronischen Wunden zur Beurteilung vor. Als Automation Bias wurde gewertet, wenn jemand eine falsche Empfehlung als richtig erachtete. Dabei zeigte sich, dass gerade Personen, die keine guten diagnostischen Fähigkeiten besaßen und die keine zusätzliche Ausbildung erhalten hatten, besonders anfällig für Automation Bias waren. „Gerade die Personen, die von der KI-Unterstützung am meisten profitieren sollten, waren für Fehleinschätzungen am anfälligsten“, stellt Ursula Hübner fest. Aus den Ergebnissen folgert sie, dass eine gute medizinisch-pflegerische Aus- und Weiterbildung nötig ist, die auch kritisches Denken und ein hinreichendes Selbstvertrauen in die eigenen Fähigkeiten mit einschließt. Sie appelliert an jeden, mit der KI-Maschine wie mit jeder anderen Wissensquelle zu verfahren: Bevor wir der KI Vertrauen schenken, sollten wir den Wahrheitsgehalt prüfen.
Research Centre for Health and Social Informatics
School of Business Management and Social Sciences
Research Centre for Health and Social Informatics
School of Business Management and Social Sciences
49076 Osnabrück
49076 Osnabrück