Wissen hoch N Themen
KI in Medizin und Pflege – wenn, dann richtig

02. 10. 2025
Verfasst von: Ursula Hertha Hübner

KI in Medizin und Pflege – wenn, dann richtig

Eine junge Frau mit Augmented-Reality-Brille schaut auf einen Monitor. Dort wird das Bild eines Fußes mit entzündeter Wunde gezeigt. © Oliver Pracht, Hochschule Osnabrück
KI kann bei der Diagnose medizinischer Befunde helfen. Doch auch KI kann sich irren. Darauf muss beim KI-Einsatz in der Aus- und Weiterbildung des medizinischen Nachwuchses geachtet werden.

Irren ist menschlich. In der Medizin und Pflege soll künstliche Intelligenz die Beschäftigten bei ihrer Arbeit unterstützen, Fehleinschätzungen verringern sowie Diagnosen und Medikamentengaben verbessern. Doch was passiert, wenn die KI sich irrt? Wenn Menschen eher einer Maschine als ihren eigenen Fähigkeiten vertrauen? Das hat ein Forschungsteam der Hochschule Osnabrück anhand medizinischer Bilddiagnosen untersucht. Es fordert kritisches Denken und eine fundierte Aus- und Weiterbildung.

Wem wird mehr vertraut – Mensch oder Maschine?

Künstliche Intelligenz oder Artificial Intelligence (AI) im Gesundheitswesen gibt es seit rund 50 Jahren. 1975 entwickelte die Stanford University in den USA ein regelbasiertes System zur Gabe von Antibiotika. Dabei wird AI auch gerne als Augmented Intelligence übersetzt: Sie soll die Fähigkeiten von Ärzten, Ärztinnen und Pflegekräften erweitern, nicht diese ersetzen. Augmentiert, also erweitert, werden die Fähigkeiten beispielsweise durch gezielte Suchen in großen Datenmengen oder durch Klassifizierung in „unauffällige“ und „auffällige“ medizinische Bilder. Prädiktionsmodelle, die aus einer Vielzahl von vorangegangenen Patientendaten trainiert wurden, machen Vorschläge zu Diagnosen und Therapien. In all diesen Fällen bleiben jedoch die Menschen in den Gesundheitsberufen letztlich verantwortlich.

Was passiert, wenn die KI sich irrt?

Zum Mehrwert, den KI im Gesundheitswesen erbringt, lautet eine These: KI-Anwendungen unterstützen insbesondere junge, unerfahrene Menschen, die richtigen Entscheidungen zu treffen. Doch was passiert, wenn sich die Maschine irrt? Dieser Frage ist ein Forschungsteam im Projekt ZIEL zur Mensch-Maschine-Interaktion durch KI nachgegangen, gefördert vom Bundesforschungsministerium. „Irrtümer können umso schwerwiegender sein, wenn Menschen einem Automation Bias unterliegen. Darunter verstehen wir die Tendenz, eher einer Maschine als Menschen zu vertrauen“, erläutert Projektleiterin Prof. Dr. Ursula Hübner von der Hochschule Osnabrück.

Zwei Personen schauen auf einen Laptop-Monitor. Dort sind Angaben zu "Abschürfung" und "traumatische Wunde" zu lesen. © Oliver Pracht, Hochschule Osnabrück
In einer Studie beurteilten Medizin- und Pflegekräfte KI-generierte Diagnosen. Das Ergebnis zeigte neben Lerneffekten, dass gerade unerfahrene Personen anfällig waren, falsche Empfehlungen als richtig zu erachten.

Eigene Fähigkeit schützt vor falscher Empfehlung

Die Projektgruppe legte 210 Medizin- und Pflegekräften falsch und richtig klassifizierte Bilder von chronischen Wunden zur Beurteilung vor. Als Automation Bias wurde gewertet, wenn jemand eine falsche Empfehlung als richtig erachtete. Dabei zeigte sich, dass gerade Personen, die keine guten diagnostischen Fähigkeiten besaßen und die keine zusätzliche Ausbildung erhalten hatten, besonders anfällig für Automation Bias waren. „Gerade die Personen, die von der KI-Unterstützung am meisten profitieren sollten, waren für Fehleinschätzungen am anfälligsten“, stellt Ursula Hübner fest. Aus den Ergebnissen folgert sie, dass eine gute medizinisch-pflegerische Aus- und Weiterbildung nötig ist, die auch kritisches Denken und ein hinreichendes Selbstvertrauen in die eigenen Fähigkeiten mit einschließt. Sie appelliert an jeden, mit der KI-Maschine wie mit jeder anderen Wissensquelle zu verfahren: Bevor wir der KI Vertrauen schenken, sollten wir den Wahrheitsgehalt prüfen.

Redaktioneller Hinweis: Dieser Text steht unter der CC BY 3.0 DE-Lizenz
Citation: Hübner, U. (2025). KI in Medizin und Pflege – wenn, dann richtig. Wissen Hoch N. https://doi.org/10.60479/5XNV-H942
Prof. Dr. Ursula Hertha Hübner, FIAHSI
Address
Hochschule Osnabrück
Research Centre for Health and Social Informatics
School of Business Management and Social Sciences
Prof. Dr. Ursula Hertha Hübner, FIAHSI
Address
Hochschule Osnabrück
Research Centre for Health and Social Informatics
School of Business Management and Social Sciences
Transfer- und Innovationsmanagement der Osnabrücker Hochschulen
Address
Albert-Einstein-Str. 1
49076 Osnabrück
Transfer- und Innovationsmanagement der Osnabrücker Hochschulen
Address
Albert-Einstein-Str. 1
49076 Osnabrück

Bestellen Sie unseren Newsletter.
Folgen Sie uns auf LinkedIn.
Abbonieren Sie unseren RSS-Feed.