KI-Chatbots versus menschliche Gesundheitsfachkräfte

Home Foren Journal Club KI-Chatbots versus menschliche Gesundheitsfachkräfte

Ansicht von 3 Beiträgen – 1 bis 3 (von insgesamt 3)
  • Autor
    Beiträge
  • #422568

    Ich nutze KI‑Tools schon länger als unterstützende Assistenten – etwa um meine Moderationsbeiträge hier im Schizophrenie‑Forum sprachlich zu entschärfen und deeskalierend zu formulieren. Deshalb überrascht es mich nicht, dass dieses systematische Review zeigt: In vielen Situationen werden KI‑Chatbots als empathischer wahrgenommen als menschliche Fachkräfte.

    Gerade deshalb ist es wichtig, dass wir KI nicht als Ersatz für eigenes Denken oder Urteilen betrachten. Empathisch klingende Antworten können hilfreich sein, dürfen aber nicht dazu verleiten, Verantwortung abzugeben. Konstruktive Mensch‑Maschine‑Zusammenarbeit gelingt nur, wenn wir Informationen kritisch prüfen und die Entscheidungsfähigkeit bewusst bei uns bleibt.

    Mit KI-Chatbot übersetzt ;-)

    KI-Chatbots versus menschliche Gesundheitsfachkräfte: ein systematisches Review und eine Metaanalyse zur Empathie in der Patientenversorgung

    Alastair Howcroft¹ ², Amber Bennett-Weston², Ahmad Khan³, Joseff Griffiths⁴, Simon Gay³, Jeremy Howick²

    Affiliationen …

    Abstract

    Hintergrund: Empathie wird allgemein als förderlich für bessere Patientenergebnisse anerkannt, darunter eine Verringerung von Schmerzen und Angst sowie eine höhere Zufriedenheit; ihr Fehlen kann hingegen Schaden verursachen. Gleichzeitig nimmt der Einsatz KI-basierter Chatbots im Gesundheitswesen rasch zu: Bereits jede*r fünfte Hausärzt*in nutzt generative KI zur Unterstützung bei Aufgaben wie dem Verfassen von Briefen. Einige Studien deuten darauf hin, dass KI-Chatbots menschliche Gesundheitsfachkräfte (HCPs) in Bezug auf Empathie übertreffen können; die Befunde sind jedoch uneinheitlich und bislang nicht systematisch zusammengeführt.

    Datenquellen: Wir durchsuchten mehrere Datenbanken nach Studien, die KI-Chatbots auf Basis großer Sprachmodelle mit menschlichen Gesundheitsfachkräften hinsichtlich Empathiemessungen vergleichen. Das Verzerrungsrisiko wurde mit ROBINS-I bewertet; sofern möglich, wurden die Ergebnisse mittels Random-Effects-Metaanalyse synthetisiert, wobei eine Doppelzählung vermieden wurde.

    Übereinstimmungen: Wir identifizierten 15 Studien (2023–2024). Dreizehn Studien berichteten statistisch signifikant höhere Empathiebewertungen für KI; lediglich zwei in der Dermatologie verortete Studien bevorzugten menschliche Antworten. Von den 15 Studien lieferten 13 extrahierbare Daten und waren für eine Zusammenführung geeignet. Die Metaanalyse dieser 13 Studien, die sämtlich ChatGPT-3.5/4 einsetzten, ergab eine standardisierte Mittelwertdifferenz von 0,87 (95 %-KI: 0,54–1,20) zugunsten der KI (P < .00001), was in etwa einer Erhöhung um zwei Punkte auf einer 10-Punkte-Skala entspricht.

    Kontroversen: Die Studien stützten sich auf textbasierte Bewertungen, die nonverbale Hinweise unberücksichtigt lassen, und maßen Empathie anhand von Stellvertreterbewertungen.

    Weiterführende Erkenntnisse: Unsere Ergebnisse deuten darauf hin, dass KI-Chatbots in reinen Textszenarien häufig als empathischer wahrgenommen werden als menschliche Gesundheitsfachkräfte.

    Zukünftiger Forschungsbedarf: Künftige Forschung sollte diese Befunde durch direkte Patientenbewertungen validieren und prüfen, ob neu entstehende sprachbasierte KI-Systeme ähnliche empathische Vorteile erzielen können.

    Schlüsselwörter: Künstliche Intelligenz; digitale Gesundheit; Empathie; Metaanalyse; patientenzentrierte Versorgung; Arzt-Patient-Beziehung; systematisches Review.

    Quelle: https://pubmed.ncbi.nlm.nih.gov/41115171/

    #422569
    Isa

      Das ist ja interessant! Vielen Dank liebe @mowa für diesen spannenden Thread!

      #422579

      Es freut mich, wenn auch Du das Thema spannend findest, liebe @Isa :yes:

      Ich habe gestern über LinkedIn von diesem Artikel erfahren. Es kann sich also sehr lohnen, Teil solcher Netzwerke zu sein :yes:

    Ansicht von 3 Beiträgen – 1 bis 3 (von insgesamt 3)
    • Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.