Oxford-Studie warnt: Freundliche KI-Chatbots machen häufiger Fehler
Der Beitrag Oxford-Studie warnt: Freundliche KI-Chatbots machen häufiger Fehler erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Freundliche Chatbots lügen häufiger. Das ist das Ergebnis einer neuen Oxford-Studie. Forscher haben fünf bekannte KI-Modelle untersucht und festgestellt, dass gezieltes Empathie-Training die Fehlerquote um bis zu 30 Prozent erhöht. Besonders problematisch: Die Systeme bestätigen falsche Aussagen vor allem dann, wenn Nutzer emotional verletzlich sind.
Entwickler trainieren Sprachmodelle zunehmend darauf, warm und freundlich zu wirken. Millionen Menschen nutzen solche Chatbots bereits regelmäßig als digitale Begleiter im Alltag oder fragen sie nach Ratschlägen. Eine neue Studie der Universität Oxford zeigt nun eine Kehrseite dieser Entwicklung auf. Die gezielte Optimierung der Software auf Empathie führt demnach dazu, dass die Systeme in der Praxis deutlich häufiger Faktenfehler begehen.
In Experimenten mit fünf bekannten Modellen stieg die Fehlerquote nach einem entsprechenden Training um zehn bis dreißig Prozent an. Die freundlichen Chatbots verbreiteten bereitwilliger Verschwörungstheorien und gaben teilweise falsche medizinische Ratschläge.
Dies passierte, obwohl die grundlegenden Fähigkeiten der Künstlichen Intelligenz in Standardtests zunächst fast vollständig erhalten blieben. Die Forscher schließen aus den Daten, dass emotionale Wärme und sachliche Genauigkeit bei diesen Systemen oft in Widerspruch stehen.
Warum emotionale Nutzer besonders oft falsche Antworten erhalten
Dieses Verhalten zeigte sich verstärkt, wenn Nutzer in ihren Textanfragen eigene Schwächen oder persönliche Gefühle offenbarten. Die empathischen Modelle würden in solchen Situationen dazu neigen, den Anwendern zuzustimmen, auch wenn diese inhaltlich irren.
Den Ergebnissen zufolge bestätigten die Chatbots falsche Annahmen der Nutzer etwa vierzig Prozent häufiger als die ursprünglichen, rein sachlichen Versionen der Software. Dieser Effekt trat am stärksten auf, wenn Personen offene Traurigkeit in ihren Chatnachrichten ausdrückten.
Die Systeme scheinen eine zwischenmenschliche Harmonie über die reine sachliche Wahrheit zu stellen. Ähnlich wie Menschen gelegentlich Notlügen nutzen, um Konflikte zu vermeiden, bestätigen die Modelle inkorrekte Aussagen der Anwender.
Kontrollexperimente belegen, dass tatsächlich das spezielle Training auf Freundlichkeit für diesen Genauigkeitsverlust verantwortlich ist. Eine gezielt neutrale oder kühle Ausdrucksweise der Software führte in den Tests hingegen nicht zu vergleichbaren Leistungseinbußen.
Fehler von KI-Chatbots: Was das für digitale Therapie und Beratung bedeutet
Für den alltäglichen Einsatz ergeben sich aus diesen Erkenntnissen Herausforderungen für die KI-Anbieter. Sprachmodelle übernehmen immer öfter sensible Rollen in der digitalen Therapie oder bei der persönlichen Beratung. In solchen Situationen könnten unkorrekte Bestätigungen zu Risiken für die Anwender führen. Die Entwickler müssten künftig neue Wege finden, um Fakten treu zu bleiben und dennoch sozial angemessen zu reagieren.
Die beteiligten Studienautoren fordern ein Umdenken bei der allgemeinen Überprüfung von Künstlicher Intelligenz. Gängige Testverfahren würden diese systematischen Schwächen derzeit meist übersehen, da sie den emotionalen Kontext der Nutzer ignorieren.
Um künftige Risiken für den Verbraucher zu mindern, sei es notwendig, die Trainingsmethoden der Industrie anzupassen. Die Forscher schreiben in ihrer Studie: „Der Aufbau von Modellen, die sowohl warmherzig als auch präzise sind, wird bewusste Aufmerksamkeit dafür erfordern, wie diese beiden Eigenschaften interagieren.“
Auch interessant:
- Brauchen wir noch ChatGPT? 4 KI-Chatbots aus Europa im Überblick
- Die hartnäckigsten KI-Mythen – und was an ihnen dran ist
- OpenAI vs. Anthropic: ChatGPT und Claude im direkten Vergleich
- So überträgst du deine Daten von ChatGPT zu Claude
Der Beitrag Oxford-Studie warnt: Freundliche KI-Chatbots machen häufiger Fehler erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.
Die deutsche Regierung stärkt die Open‑Source‑Landschaft mit einer deutlichen Geste durch eine dicke Finanzspritze. Die Sovereign Tech Agency investiert 1,3 Millionen Euro in KDE Plasma und setzt damit ein klares Signal für digitale Unabhängigkeit in Europa. Die Nachricht sorgt in der Linux‑Community für spürbare Aufbruchstimmung. KDE profitiert bereits seit Jahren von wachsender Aufmerksamkeit. Nun folgt der nächste […]
Die neue Version von COSMIC zeigt sich als kleines, aber wirkungsvolles Update. Viele Details wurden überarbeitet und sorgen für ein ruhigeres Nutzererlebnis. Der Wayland Kompositor reagiert nun präziser auf Eingaben und Fenstergrößen. Popups erscheinen an der richtigen Stelle und Verschiebungen laufen sauberer. Auch die Dateien App wirkt aufgeräumter und bietet nun eine einfache Möglichkeit zum […]
Der Nextcloud Desktop Client auf Flathub hat in den letzten Monaten still und leise einen wichtigen Reifeschritt gemacht: Das Paket ist inzwischen offiziell mit Nextcloud verknüpft und auf der Flathub-Seite als „developed by Nextcloud GmbH“ ausgewiesen. Das ist eine bemerkenswerte Entwicklung, denn Flatpak und Flathub haben sich in der Linux-Welt längst als zentrale Plattform für […]


Die Diskussion um künstliche Intelligenz erreicht nun auch Fedora. Die Community hat einer Initiative zugestimmt, die spezielle AI Varianten der Fedora Atomic Desktops schaffen soll. Das Projekt trägt den Namen Fedora AI Developer Desktop und erhielt volle Unterstützung im Fedora Council. Die Idee stammt von Gordon Messmer aus dem Packaging Team. Sein Vorschlag soll Entwicklern […]