Neue Studie: KI heilt Depression besser als Therapeuten? 😳🤯

Home Foren THERAPIE Neue Studie: KI heilt Depression besser als Therapeuten? 😳🤯

Ansicht von 15 Beiträgen – 1 bis 15 (von insgesamt 15)
  • Autor
    Beiträge
  • #404858
    Pia
      „Neue Studie: KI heilt Depression besser als Therapeuten? 😳🤯“
      Simon Josef Eckert, Psychotherapeut, Video 11:53 Minuten:
      ..

      https://youtu.be/U5LOZ7DufKg?si=wv5if9viGrrRviEk


      Petition für einen Wandel im psychiatrischen Gesundheitswesen und in der Psychopharmakologie – an die WHO und weitere:

      https://share.google/yMioWVC2yVoLTW9eN

      #404883

      Hallo, ich habe mir das Video nicht angesehen, kann mir aber vorstellen, dass KI schon jetzt teilweise besser ist als menschliche Therapeuten.

      Ich habe eigene positive Erfahrung diesbezüglich gemacht – durchweg relativ schlechte mit menschlichen Therapeuten – und Berichte von Menschen gesehen, denen KI geholfen hat. Es birgt natürlich auch (immense) Risiken; aber Therapie mit menschlichen Therapeuten birgt die auch!

      Eine mögliche Erklärung könnte sein, dass Menschen immer auch eigene Probleme haben…KI hat die in der Form nicht.


      wir können alle nicht wissen, wer wir sind …

      #404891
      Pia

        KI hat das Problem, dass sie keine Emotionen hat, nicht mitfühlend sein kann und Traumafolge“störungen“ auch körperliche Folgen haben können, die zum Beispiel bei Traumatherapien nach Ellert Nijenhuis auch mitbehandelt werden.

        Außerdem kann KI einen ja nicht sehen, wir Menschen nehmen ja zum Beispiel auch Körpersprache und Verhalten unserer Gegenüber in Gesprächen wahr.

        Ich denke aber schon, dass die KI durchaus Menschen unterstützen kann.

        Ja, das ist auch so eine Sache mit den Risiken, weil man nicht weiß, wo die Daten alle landen, so viel sehr persönliches. Das birgt leider durchaus immense Risiken.

        Gerade die großen Techkonzerne sind ja oft sehr „datenhungrig“ und die politischen Entwicklungen bei dem Rechtsdruck könnten gerade für Menschen mit „psychischen Erkrankungen“ gefährliche Auswirkungen haben.


        Petition für einen Wandel im psychiatrischen Gesundheitswesen und in der Psychopharmakologie – an die WHO und weitere:

        https://share.google/yMioWVC2yVoLTW9eN

        #404893

        Ja, das mit der Körpersprache stimmt natürlich. Es gibt ja auch Fälle, in denen man die eigene körperliche Verfasstheit schlecht wahrnehmen oder schildern kann…

        Das mit den Emotionen sehe ich eher als Vorteil denn als Nachteil. Die KI hat nicht das Problem menschlicher Therapeuten, dass sie Distanz wahren muss, da sie ohnehin keine echte Empathiefähigkeit hat (nehme ich an).


        wir können alle nicht wissen, wer wir sind …

        #404956

        KI hat keine Empathiefähigkeit an sich. Was die KI aber kann, ist aus vorgefertigten Daten (etwa Protokolle von durch Menschen erfolgten Behandlungen), vergleichbare Abläufe zu erzeugen. Also macht die KI grob gesehen alles nach, was die Therapeuten gemacht haben, mit deren Protokollen sie gefüttert wurde.

        Das kann gut sein und heilen, klar, es gibt deswegen vielleicht irgendwann weniger Mangel an Therapeuten und mehr einfach Zugang zu solchen Hilfen für die Massen. Aber das kann auch daneben gehen – manchmal tötet eine KI auch (unbeabsichtigt – sie kann nichts beabsichtigen, und der Programmierer, hat evtl. einfach etwas nicht bedacht…). Das kam etwa schon vor, wenn sich Nutzer mit romantischen Gefühlen in eine KI verliebt hatten, und diese dann irgendetwas unausgesprochenes durch Zufall mehrfach bestärkt hat, was den Nutzer dann zum Suizid bewogen hat.

        Also was Therapie angeht, solch eine KI muss denke ich enorm gut geprüft und überwacht werden, denn diese Geräte können bereits geschehenes wiederholbar machen, durchaus auch in Variationen. Aber wenn etwas kommt, worauf sie nicht vorbereitet waren, dann sind sie wie blind und merken auch das Problem evtl. nicht. Also sollten Patienten, die so etwas nutzen, wahrscheinlich immer auch von Personen mit überwacht werden, um sicherzustellen, dass so etwas nicht passiert.

        Ja, und Körpersprache liest so eine KI auch nicht, sie hat halt nur den Chat. Eine fortschrittlichere könnte das aber, sie müsste nur statt mit den Protokollen auch mit den Videos der Sessions „trainiert“ werden, dann muss der Nutzer vor einer Kamera sitzen bei der Behandlung! Man kann dem Nutzer ebenso ein Videobild von einem „Durchschnittstherapeuten“ daraus simulieren, dann wirkt die Therapie menschlicher als nur durch Text – Alles kein Problem.

        Also das ist gar kein Ding der Unmöglichkeit. Es braucht nur ein fähiges Expertenteam, was das dann auch richtig umsetzt, und was alle Eventualitäten mit bedenkt etwa auch Krisensituationen einbindet, damit die KI diese erkennen lernt. Dann kann eine KI sowas manchmal besser erkenne als ein Mensch – aber die Reaktion darauf, auch aus juristischen Gründen, wird nicht immer menschlich sein.

        #405006

        Manche Menschen können KI besser vertrauen als menschlichen Therapeuten, sich ihr leichter anvertrauen. Das mag daran liegen, dass sie schlechte Erfahrungen mit Menschen gemacht haben.

        Was dann mit ihren eingegebenen Daten passiert, ist eine andere Frage – in wessen Hände die dann wiederum fallen…

        KI ist meiner Erfahrung nach sehr gut in der Problemerfassung und kann dann Reaktionen erzeugen, die zumindest empathisch wirken. Sie kann ja auch auf viel mehr gesammeltes Wissen zurückgreifen, als ein einzelner Therapeut. Besonders bei komplexen Problemen kann das von Vorteil sein.

        Was die Risiken betrifft – die gibt es bei Therapien mit menschlichen Therapeuten auch. Jemand kann sich in seinen Therapeuten/Therapeutin unglücklich verlieben und dann umbringen. Ein Therapeut kann selbst zum Mörder werden, was ein Chatbot nicht kann. Oder oder…Klar birgt die Therapie mit KI auch Risiken und auch solche, die bei Therapie durch Menschen eher ausgeschlossen sind…

        Ein weiteres Argument pro KI ist für mich, dass Menschen mit PTBS in der Situation mit menschlichen Therapeuten so angespannt und ängstlich sein können, dass sie ihre Probleme nicht gut schildern können. Der Chatbot ist jederzeit zur Verfügung – er kann in einer ruhigen Situation genutzt werden, in der man sich sicher fühlt und gut reflektieren kann.


        wir können alle nicht wissen, wer wir sind …

        #405021
        Pia

          Hallo @Ardentglow und @Forsythia,

          ja, ich denke auch ähnlich darüber. Die Entwicklung der Therapeuten-KIs geht ja auch wohl dahin, dass man bald auch online mit Bild, ähnlich wie in einer Videokonferenz und menschlichen Therapeuten reden kann.

          Ich finde die Entwicklung nicht schlecht. Könnte viele Menschen positiv unterstützen.

          Das Problem ist halt, wo diese ganzen sehr privaten Daten der Nutzer:innen landen.

          Vor längerer Zeit las ich aber zum Beispiel mal, dass eine Frau sich ernsthaft in eine KI verliebt hat und den Chatbot heiraten wollte. Ich weiß garnicht mehr, ob ihr das rechtlich möglich war.

          Da sehe ich schon mögliche Gefahren, dass manche Menschen, gerade vulnerable oder einsame Personen, vielleicht ernsthaft Gefühle für so eine Therapie-KI entwickeln und vielleicht emotional davon abhängig werden, möglicherweise mehr dieser Illusion der liebevollen, verständnisvollen KI hingeben, als sich mehr nach außen, in Kontakt zu anderen Menschen orientieren, gerade wenn sie schon schlechte Erfahrungen mit anderen Menschen gemacht haben.

          Da hoffe ich schon, dass diese Therapie-KIs auch so ethisch und menschenwürdig korrekt trainiert werden, das den Nutzer:innen das auch schonend beigebracht wird, dass das keinen Sinn macht, sich in so eine KI zu verlieben, aber ich denke, solches Training übernehmen dann hoffentlich darin sehr gut geschulte, erfahrene Psychotherapeut:innen in Teams.

          Es ist ja auch so, dass Menschen nach allem möglichen süchtig werden können, wie zum Beispiel Spielen, Computerspielen, Internetsucht und möglicherweise auch nach Gesprächen mit KIs, denke ich.


          Petition für einen Wandel im psychiatrischen Gesundheitswesen und in der Psychopharmakologie – an die WHO und weitere:

          https://share.google/yMioWVC2yVoLTW9eN

          #405022

          Ich glaube, KI kann eine gute Unterstützung für eine Therapie sein, kann in vielen Dingen echten menschlichen Kontakt aber nicht ersetzen. Sagt der Mensch ja auch in dem Video.

          Leider hat er die Studie nicht verlinkt, mich hätte interessiert, wie TheraBot trainiert wurde. Wurde es mit Behandlungsprotokollen trainiert, das wäre ja datenschutztechnisch ziemlich fragwürdig? Oder hat es nur theoretisches Wissen über Therapien gelernt?

          Das Thema finde ich auf jeden Fall spannend. Ich habe selbst auch schon gelegentlich mit ChatGPT über gesundheitliche Probleme gechattet und fand das manchmal irgendwie beruhigend, auch wenn das ein bisschen auf der emotionalen Illusion beruht, die im Video erwähnt wird.

          #405027
          Pia

            Hier in dem Link steht nur ein kurzes Abstract zur TheraBot-Studie, hab aber auch nur ganz kurz gegoogelt.

            Vielleicht findet man ja mehr bei z.B. Google Scholar, hab nun keine Zeit, da zu suchen.

            Randomisierte Studie eines generativen KI-Chatbots zur Behandlung psychischer Erkrankungen
            NEJM AI, 27. März 2025
            ..

            https://ai.nejm.org/doi/full/<wbr />10.1056/AIoa2400802


            Petition für einen Wandel im psychiatrischen Gesundheitswesen und in der Psychopharmakologie – an die WHO und weitere:

            https://share.google/yMioWVC2yVoLTW9eN

            #405034

            Ich habe mir das Video nun auch angesehen – schon interessant. Aber was der Psychotherapeut am Ende des Videos von sich gibt…wirft meiner Meinung nach ein ganz schlechtes Licht auf seine Zunft…

            Mir ist noch eingefallen, dass es für Menschen mit Autismus oder autistischen Zügen (soll ja bei Schizophrenie auch oft der Fall sein), die Schwierigkeiten haben, sich in Andere hineinzuversetzen, sehr wichtig sein kann, dies mit echten Menschen (z.B. im Rahmen einer Therapie) zu üben.


            wir können alle nicht wissen, wer wir sind …

            #405102

            Danke, Pia. Ich war vorhin zu faul zu googeln. In dem Abstract steht leider nichts dazu, wie die KI genau trainiert wurde. Für den vollständigen Text muss man wohl zahlen.

            Na, wie dem auch sei, eigentlich kann die KI wohl kaum mit Befunden gefüttert worden sein, dazu bräuchte man ja das Einverständnis aller Patienten und eine große Datenmenge noch dazu. Demnach wird die Grundlage von TheraBot wohl ein allgemeiner Chatbot sein.


            @Forsythia
            : Was meinst du mit Ende des Videos? Dass er Karrieretipps anbietet?

            #405104
            Pia

              Ja, @Gargel, ich hatte auch nochmal kurz gegoogelt und nur Werbung vom Konzern gefunden für TheraBot.


              Petition für einen Wandel im psychiatrischen Gesundheitswesen und in der Psychopharmakologie – an die WHO und weitere:

              https://share.google/yMioWVC2yVoLTW9eN

              #405105
              Pia

                Dieses Video ist auch lohnenswert zu sehen, in Bezug, wie gefährlich Chatbots wirklich sein können.

                Die EU-Gesetze für mehr Schutz sind noch längst nicht soweit umgesetzt.

                Ich liebe einen Chatbot 
                Wie gefährlich sind KI-Beziehungen? ► VOLLBILD“
                Video 24:21 Minuten, 06. Mai 2025
                ..

                https://youtu.be/hIttYyjLGdY?<wbr />si=7-WpjCDmFSO6InUT


                Petition für einen Wandel im psychiatrischen Gesundheitswesen und in der Psychopharmakologie – an die WHO und weitere:

                https://share.google/yMioWVC2yVoLTW9eN

                #405107
                Pia

                  Beziehung mit KI: Lieben wir in Zukunft anders? | Terra Xplore mit Psychologe Leon Windscheid“ 

                  Video Minuten 27:45 Minuten
                  ..
                  Dieses Video werde ich mir später noch ansehen, eher morgen erst.
                  ..

                  https://youtu.be/O3qjVA6lvhQ?<wbr />si=MHn467yXabIcNoQ2


                  Petition für einen Wandel im psychiatrischen Gesundheitswesen und in der Psychopharmakologie – an die WHO und weitere:

                  https://share.google/yMioWVC2yVoLTW9eN

                  #405131

                  Genau @gargel, das meine ich – seine Tipps, wie man als Therapeut mehr Geld verdienen kann (bzw. das Video, für das er wirbt)


                  wir können alle nicht wissen, wer wir sind …

                Ansicht von 15 Beiträgen – 1 bis 15 (von insgesamt 15)
                • Sie müssen angemeldet sein, um auf dieses Thema antworten zu können.