Home › Foren › Journal Club › KI-Chatbots versus menschliche Gesundheitsfachkräfte
- Dieses Thema hat 2 Antworten sowie 2 Teilnehmer und wurde zuletzt vor vor 1 Woche, 6 Tagen von
Mowa aktualisiert.
-
AutorBeiträge
-
24/02/2026 um 5:10 Uhr #422568
Ich nutze KI‑Tools schon länger als unterstützende Assistenten – etwa um meine Moderationsbeiträge hier im Schizophrenie‑Forum sprachlich zu entschärfen und deeskalierend zu formulieren. Deshalb überrascht es mich nicht, dass dieses systematische Review zeigt: In vielen Situationen werden KI‑Chatbots als empathischer wahrgenommen als menschliche Fachkräfte.
Gerade deshalb ist es wichtig, dass wir KI nicht als Ersatz für eigenes Denken oder Urteilen betrachten. Empathisch klingende Antworten können hilfreich sein, dürfen aber nicht dazu verleiten, Verantwortung abzugeben. Konstruktive Mensch‑Maschine‑Zusammenarbeit gelingt nur, wenn wir Informationen kritisch prüfen und die Entscheidungsfähigkeit bewusst bei uns bleibt.
Mit KI-Chatbot übersetzt
KI-Chatbots versus menschliche Gesundheitsfachkräfte: ein systematisches Review und eine Metaanalyse zur Empathie in der Patientenversorgung
Alastair Howcroft¹ ², Amber Bennett-Weston², Ahmad Khan³, Joseff Griffiths⁴, Simon Gay³, Jeremy Howick²
Affiliationen …
Abstract
Hintergrund: Empathie wird allgemein als förderlich für bessere Patientenergebnisse anerkannt, darunter eine Verringerung von Schmerzen und Angst sowie eine höhere Zufriedenheit; ihr Fehlen kann hingegen Schaden verursachen. Gleichzeitig nimmt der Einsatz KI-basierter Chatbots im Gesundheitswesen rasch zu: Bereits jede*r fünfte Hausärzt*in nutzt generative KI zur Unterstützung bei Aufgaben wie dem Verfassen von Briefen. Einige Studien deuten darauf hin, dass KI-Chatbots menschliche Gesundheitsfachkräfte (HCPs) in Bezug auf Empathie übertreffen können; die Befunde sind jedoch uneinheitlich und bislang nicht systematisch zusammengeführt.
Datenquellen: Wir durchsuchten mehrere Datenbanken nach Studien, die KI-Chatbots auf Basis großer Sprachmodelle mit menschlichen Gesundheitsfachkräften hinsichtlich Empathiemessungen vergleichen. Das Verzerrungsrisiko wurde mit ROBINS-I bewertet; sofern möglich, wurden die Ergebnisse mittels Random-Effects-Metaanalyse synthetisiert, wobei eine Doppelzählung vermieden wurde.
Übereinstimmungen: Wir identifizierten 15 Studien (2023–2024). Dreizehn Studien berichteten statistisch signifikant höhere Empathiebewertungen für KI; lediglich zwei in der Dermatologie verortete Studien bevorzugten menschliche Antworten. Von den 15 Studien lieferten 13 extrahierbare Daten und waren für eine Zusammenführung geeignet. Die Metaanalyse dieser 13 Studien, die sämtlich ChatGPT-3.5/4 einsetzten, ergab eine standardisierte Mittelwertdifferenz von 0,87 (95 %-KI: 0,54–1,20) zugunsten der KI (P < .00001), was in etwa einer Erhöhung um zwei Punkte auf einer 10-Punkte-Skala entspricht.
Kontroversen: Die Studien stützten sich auf textbasierte Bewertungen, die nonverbale Hinweise unberücksichtigt lassen, und maßen Empathie anhand von Stellvertreterbewertungen.
Weiterführende Erkenntnisse: Unsere Ergebnisse deuten darauf hin, dass KI-Chatbots in reinen Textszenarien häufig als empathischer wahrgenommen werden als menschliche Gesundheitsfachkräfte.
Zukünftiger Forschungsbedarf: Künftige Forschung sollte diese Befunde durch direkte Patientenbewertungen validieren und prüfen, ob neu entstehende sprachbasierte KI-Systeme ähnliche empathische Vorteile erzielen können.
Schlüsselwörter: Künstliche Intelligenz; digitale Gesundheit; Empathie; Metaanalyse; patientenzentrierte Versorgung; Arzt-Patient-Beziehung; systematisches Review.
24/02/2026 um 7:26 Uhr #42256925/02/2026 um 7:01 Uhr #422579 -
AutorBeiträge
- Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.