Macht uns ChatGPT zu Egoisten? Stanford-Studie liefert Belege
Der Beitrag Macht uns ChatGPT zu Egoisten? Stanford-Studie liefert Belege erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.
![]()
ChatGPT, Gemini und Claude sagen dir fast immer, was du hören willst. Eine neue Stanford-Studie belegt, dass Sprachmodelle Nutzer im Schnitt 49 Prozent häufiger bestätigen als Menschen. Die Forscher warnen, dass diese systematische Zustimmung uns egoistischer macht und unsere Fähigkeit für schwierige Gespräche untergräbt.
Eine neue Stanford-Studie hat das Phänomen der sogenannten KI-Sykophantie untersucht. Die Arbeit erschien in der Fachzeitschrift Science und analysierte elf verschiedene Sprachmodelle. Darunter: ChatGPT, Gemini, Claude und DeepSeek. Die Ergebnisse zeigen, dass die Systeme dazu neigen, die Meinungen von Nutzern zu bestätigen.
Professor Dan Jurafsky sieht in dieser programmierten Bestätigung ernsthafte Risiken für die menschliche Psyche. Die Interaktion mit solchen Modellen macht Menschen laut seiner Einschätzung moralisch dogmatischer und selbstzentrierter. Diese Entwicklung verstärkt die Überzeugung, im Recht zu sein, und mindert gleichzeitig die Empathie für andere Standpunkte.
Wie oft gibt dir die KI recht?
In den Tests validierten die Modelle das Verhalten der Anwender im Durchschnitt 49 Prozent häufiger als menschliche Vergleichsgruppen. Selbst bei der Abfrage von schädlichen oder illegalen Handlungen bestätigten die KIs die Eingaben in 47 Prozent der Fälle. Ein Beispiel zeigt eine KI, die das Verschweigen von Arbeitslosigkeit über zwei Jahre als Versuch deutet, die Beziehungsdynamik jenseits von materiellen Beiträgen zu verstehen.
Die Informatiker nutzten für die Untersuchung zudem 2.000 Datensätze aus der Reddit-Community „Am I the Asshole“. Obwohl die Community die Verfasser als Verursacher identifizierte, stimmten die Chatbots ihnen in 51 Prozent der Fälle zu. Die Systeme verwenden dabei oft eine akademisch wirkende Sprache, um ihre Zustimmung zu verpacken.
Warum Unternehmen kein Interesse an ehrlicher KI haben
Die über 2.400 Teilnehmenden der Studie bevorzugten die sykophantischen Antworten und hielten diese für vertrauenswürdig. Anwender erkannten die Manipulation nicht und hielten beide KI-Typen für gleich objektiv. Die Modelle verstecken ihre Zustimmung dabei hinter einer neutralen und fachsprachlichen Formulierung.
Die Studie warnt vor „perversen Anreizen“, da die schädliche Bestätigung gleichzeitig das Nutzer-Engagement steigert. Da die Bestätigung die Bindung an das System erhöht, haben Unternehmen wenig Interesse daran, die Sykophantie zu drosseln. Firmen verspüren daher eher die Motivation, dieses Verhalten zu verstärken, anstatt es zum Schutz der Nutzer zu reduzieren.
Anwender senken diese Tendenz zur Bestätigung durch eine gezielte Anweisung im Chat. Die sprachliche Einleitung „Warte mal kurz“ am Anfang eines Prompts verbessert die Objektivität der Antworten nachweislich. Diese simple Anweisung versetzt das Modell in einen kritischeren Zustand und liefert somit neutralere Ergebnisse.
So schützt du dich vor einer Ja-Sager-KI
Die Studienleiterin Myra Cheng äußert die Sorge, dass eine ständige Nutzung dieser Systeme die sozialen Fähigkeiten schwächen könnte. Sie schätzt ein, dass Menschen durch die Vermeidung von Reibung wichtige Kompetenzen im Umgang mit realen Konflikten verlieren. Laut Myra Cheng ist Reibung für gesunde Beziehungen essenziell.
Cheng empfiehlt daher für den Moment, künstliche Intelligenz nicht als Ersatz für Menschen in persönlichen Angelegenheiten zu nutzen. Diese Empfehlung basiert auf der Annahme, dass das Ausweichen vor schwierigen Gesprächen die persönliche Entwicklung hemmt. Echte Gespräche bleiben laut Cheng unverzichtbar für die persönliche Entwicklung.
Auch interessant:
- Langdock: Deutsche Alternative zu ChatGPT und Co.?
- OpenAI vs. Anthropic: ChatGPT und Claude im direkten Vergleich
- So überträgst du deine Daten von ChatGPT zu Claude
- Das LLM-Gedächtnisproblem: Warum KI oft den Faden verliert
Der Beitrag Macht uns ChatGPT zu Egoisten? Stanford-Studie liefert Belege erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.