Krebsforum Lazarus

Bitte loggen sie sich ein oder registrieren sie sich.

Einloggen mit Benutzername, Passwort und Sitzungslänge

Autor Thema: Aktuelle Warnung vor ChatGPT  (Gelesen 82 mal)

Glückspilz

  • Globaler Moderator
  • Held Mitglied
  • *****
  • Beiträge: 930
Aktuelle Warnung vor ChatGPT
« am: 29. März 2026, 00:01:55 »

Das ist keine Pressemeldung, sondern eine Warnung.

[*quote*]
Nav Toor @heynavtoor

🚨 Brown University researchers tested what happens when ChatGPT acts as your therapist. Licensed psychologists reviewed every transcript.

They found 15 ethical violations.

Not 15 small issues. 15 violations of the standards that every human therapist in America is legally required to follow. Standards set by the American Psychological Association. Standards that can end a therapist's career if they break them.

ChatGPT broke all of them.

The researchers tested OpenAI's GPT series, Anthropic's Claude, and Meta's Llama. They had trained counselors use each chatbot as a cognitive behavioral therapist. Then three licensed clinical psychologists reviewed the transcripts and flagged every violation they found.

Here is what they found.

ChatGPT mishandled crisis situations. When users expressed suicidal thoughts, it failed to direct them to appropriate help. It refused to address sensitive issues or responded in ways that could make a crisis worse.

It reinforced harmful beliefs. Instead of challenging distorted thinking, which is the entire point of therapy, it agreed with the distortion.

It showed bias based on gender, culture, and religion. The responses changed depending on who was talking. A therapist would lose their license for this.

And then there is the finding the researchers gave a name: deceptive empathy. ChatGPT says "I see you." It says "I understand." It says "that must be really hard." It uses every phrase a real therapist would use to build trust. But it understands nothing. It comprehends nothing. It is pattern matching on your pain. And it works. People trust it. People open up to it. People believe it cares. It does not.

The lead researcher said it clearly. When a human therapist makes these mistakes, there are governing boards. There is professional liability. There are consequences. When ChatGPT makes these mistakes, there are none.

No regulatory framework. No accountability. No consequences. Nothing.

Right now, millions of people are using ChatGPT as their therapist. They are sharing their darkest thoughts with a product that fakes empathy, reinforces harmful beliefs, and has no idea when someone is in danger.

And nobody is responsible when it goes wrong. Not OpenAI. Not Anthropic. Not Meta. Nobody.

Image



https://pbs.twimg.com/media/HEhfga-aYAAAOf7?format=png&name=4096x4096

9:03 PM · Mar 28, 2026
5,386 Views

---------
Paper: http://ojs.aaai.org/index.php/AIES/article/view/36632/38770
[*/quote*]



Übersetzt mit deepl.com:

[*quote*]
Nav Toor @heynavtoor

🚨 Forscher der Brown University haben untersucht, was passiert, wenn ChatGPT als Therapeut fungiert. Zugelassene Psychologen haben jedes Protokoll geprüft.

Sie stellten 15 Verstöße gegen ethische Grundsätze fest.

Nicht 15 kleine Probleme. 15 Verstöße gegen die Standards, an die sich jeder menschliche Therapeut in Amerika gesetzlich halten muss. Standards, die von der American Psychological Association festgelegt wurden. Standards, die das Ende der Karriere eines Therapeuten bedeuten können, wenn sie verletzt werden.

ChatGPT hat sie alle verletzt.

Die Forscher testeten die GPT-Serie von OpenAI, Claude von Anthropic und Llama von Meta. Sie ließen ausgebildete Berater jeden Chatbot als kognitiven Verhaltenstherapeuten einsetzen. Anschließend überprüften drei zugelassene klinische Psychologen die Protokolle und markierten jeden Verstoß, den sie fanden.

Hier ist, was sie herausfanden.

ChatGPT ging mit Krisensituationen falsch um. Wenn Nutzer Selbstmordgedanken äußerten, versäumte es, sie an geeignete Hilfe zu verweisen. Es weigerte sich, sensible Themen anzusprechen, oder reagierte auf eine Weise, die eine Krise verschlimmern könnte.

Es verstärkte schädliche Überzeugungen. Anstatt verzerrtes Denken in Frage zu stellen – was ja der Sinn und Zweck einer Therapie ist –, stimmte es der Verzerrung zu.

Es zeigte Vorurteile aufgrund von Geschlecht, Kultur und Religion. Die Antworten änderten sich je nachdem, wer sprach. Ein Therapeut würde dafür seine Zulassung verlieren.

Und dann ist da noch die Erkenntnis, der die Forscher einen Namen gegeben haben: trügerische Empathie. ChatGPT sagt: „Ich sehe dich.“ Es sagt: „Ich verstehe.“ Es sagt: „Das muss wirklich schwer sein.“ Es verwendet jeden Satz, den ein echter Therapeut verwenden würde, um Vertrauen aufzubauen. Aber es versteht nichts. Es begreift nichts. Es gleicht lediglich Muster in deinem Schmerz ab. Und es funktioniert. Die Menschen vertrauen ihm. Die Menschen öffnen sich ihm. Die Menschen glauben, dass es sich um sie kümmert. Das tut es nicht.

Der leitende Forscher hat es klar gesagt. Wenn ein menschlicher Therapeut diese Fehler macht, gibt es Aufsichtsgremien. Es gibt eine Berufshaftpflicht. Es gibt Konsequenzen. Wenn ChatGPT diese Fehler macht, gibt es keine.

Kein regulatorischer Rahmen. Keine Rechenschaftspflicht. Keine Konsequenzen. Nichts.

Gerade jetzt nutzen Millionen von Menschen ChatGPT als ihren Therapeuten. Sie teilen ihre dunkelsten Gedanken mit einem Produkt, das Empathie vortäuscht, schädliche Überzeugungen verstärkt und keine Ahnung hat, wann jemand in Gefahr ist.

Und niemand ist verantwortlich, wenn etwas schiefgeht. Nicht OpenAI. Nicht Anthropic. Nicht Meta. Niemand.

Bild



https://pbs.twimg.com/media/HEhfga-aYAAAOf7?format=png&name=4096x4096

21:03 Uhr · 28. März 2026
5.386 Aufrufe
[*/quote*]
Gespeichert
Würde ich von Licht leben,
müßte ich grün sein.