Lese-Ansicht

Schwache Fortsetzung: Warum ist „Der Super Mario Galaxy Film“ so einfallslos?

Schon der Vorgänger war ein großer Kassenschlager und "Der Super Mario Galaxy Film" legt jetzt erfolgreich nach. Warum das kein Grund zur Freude ist.

Der Beitrag Schwache Fortsetzung: Warum ist „Der Super Mario Galaxy Film“ so einfallslos? erschien zuerst auf DIGITAL FERNSEHEN.

  •  

Vox zieht die Reißleine: Heino-Doku fliegt mit sofortiger Wirkung aus der Primetime

Es sollte eine große Verbeugung vor einer deutschen Legende werden, doch für den Sender VOX entwickelte sich die neue Dokumentation über Heino zum handfesten Quoten-Albtraum. Nach einem völlig missglückten Start am vergangenen Dienstagabend hat der Kölner Sender nun Konsequenzen gezogen.

Der Beitrag Vox zieht die Reißleine: Heino-Doku fliegt mit sofortiger Wirkung aus der Primetime erschien zuerst auf DIGITAL FERNSEHEN.

  •  

„Tatort“-Finale aus München: Warum Fans vom Abschied von Batic & Leitmayr enttäuscht sein könnten

35 Jahre, 100 Fälle, ein legendäres Duo: Batic und Leitmayr hören auf. Alle Infos zum großen Final-Zweiteiler „Unvergänglich“ an Ostern, den Sendezeiten und wie die beiden Kult-Kommissare wirklich aus dem Dienst scheiden.

Der Beitrag „Tatort“-Finale aus München: Warum Fans vom Abschied von Batic & Leitmayr enttäuscht sein könnten erschien zuerst auf DIGITAL FERNSEHEN.

  •  

Bud Spencer & Terence Hill: Warum die Fans den Kabel-Eins-Marathon an Karfreitag so lieben

Schlagfertig, hungrig und absolut Kult! Kabel Eins zeigt heute den ganzen Tag Bud Spencer und Terence Hill. Kabel Eins feiert das Kult-Duo an Karfreitag.

Der Beitrag Bud Spencer & Terence Hill: Warum die Fans den Kabel-Eins-Marathon an Karfreitag so lieben erschien zuerst auf DIGITAL FERNSEHEN.

  •  

Die größten Denkfehler bei ChatGPT: Warum fast alle KI falsch nutzen

Der Beitrag Die größten Denkfehler bei ChatGPT: Warum fast alle KI falsch nutzen erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI Mensch, Künstliche Intelligenz, ChatGPT, Gemini, Perplexity, Prompt, Prompting, Large Language Model, LLM

ChatGPT antwortet teilweise so überzeugend, dass viele Nutzer es unbewusst wie einen menschlichen Experten behandeln – mit Meinung, Haltung und Weltwissen. Genau das führt zu Denkfehlern, die die Qualität der Ergebnisse massiv verschlechtern.

Du hast das sicherlich schon selbst erlebt: Du fragst ein LLM (Large Language Model) wie ChatGPT etwas und bekommst eine überzeugend formulierte Antwort. Dann fragst du nach dem Gegenteil und wieder ist die Antwort überzeugend. Sind LLMs also widersprüchlich, unzuverlässig und beliebig? Gibt es ein anderes Problem, das nicht in dem LLM liegt?

LLMs erscheinen wie jemand, der eine Meinung hat, vielleicht sogar eine Überzeugung. Ein LLM ist aber kein menschlicher Kollege oder Experte, insbesondere nicht mit Charakter. Es ist ein System, das Antworten erzeugt und menschliche Kommunikation imitiert.

Deshalb jedoch schreiben wir diesen nicht-menschlichen Systemen menschliche Eigenschaften zu. In der Folge führt das dazu, dass wir bei der Nutzung von LLMs Denkfehler begehen, die sich gravierend auf die Ergebnisse auswirken.

KI ist kein Mensch, also hör auf sie so zu behandeln

Es ist naheliegend, ChatGPT und andere LLMs wie ein menschliches Gegenüber zu behandeln, denn so sind sie konstruiert: Die Kommunikation ist dialogisch und die Antworten wirken ruhig, höflich, strukturiert und klingen extrem selbstbewusst, als ob es keinen Zweifel an den gemachten Antworten gibt. LLMs klingen nicht wie Maschinen, sondern wie „jemand, der Bescheid weiß“. Aber genau dies führt zu fehlerhaften Schlussfolgerungen.

Wenn ein Mensch überzeugend spricht, unterstellen wir ihm meist eine gewisse innere Haltung. Bei einem Sprachmodell führt das zu einer fehlerhaften Nutzung. Denn es hat keine Überzeugungen, die es verteidigt. Es hat auch kein Weltbild, an dem es hängt.

Der erste Denkfehler, den es bei LLMs zu vermeiden gilt, ist deshalb erstaunlich simpel: Hör auf, in der Antwort eines LLM eine Meinung zu suchen. Frag stattdessen, welche Perspektive das Sprachmodell dir gerade erzeugt.

KI hat keine Meinung – und das ist auch gut so

Viele Nutzer machen in der Folge aus KI unbewusst so etwas wie ein digitales Gegenüber mit Charakter. Sie äußern dann Sätze wie: „Die KI findet das gut“, „Die KI hat ihre Meinung geändert“ oder „Die KI versteht doch, was ich meine“.

Das klingt harmlos. Ist es aber nicht. Denn diese Art zu sprechen verschiebt die Erwartung. Plötzlich soll KI so funktionieren wie ein Mensch. Aber dafür ist ein Sprachmodell nicht gebaut. Ein LLM erzeugt lediglich wahrscheinliche und Kontextpassende Antworten.

Das ist großartig, um menschliche Schwächen zu umgehen, denn weil LLMs keine eigenen Überzeugungen verteidigen, können sie etwas, das Menschen oft schlecht können: schnell die Perspektive wechseln.

Es kann also für deine Idee argumentieren, gegen deine Idee argumentieren, sie aus Kundensicht prüfen, aus Sicht eines Skeptikers zerlegen oder in eine nüchterne Risikoanalyse verwandeln. Ein LLM entwickelt aber (noch) keinen Charakter, wie es ein Mensch kann.

Wahrheit entsteht nicht durch gute Sprache

Der zweite große Denkfehler ist noch tückischer: Wir verwechseln Sprachqualität mit Kompetenz. Menschen reagieren stark auf sprachliche Sicherheit. Wer klar formuliert und strukturiert argumentiert, klingt glaubwürdig und wirkt dadurch kompetent. Und Glaubwürdigkeit und Kompetenz führt zu Vertrauen, was nur allzu menschlich ist. Bei der Nutzung von LLMs ist das jedoch gefährlich.

Denn LLMs sind gerade darin stark, plausibel klingende Formulierungen zu erzeugen. Sie können insbesondere Unsicherheiten in Sätze verpacken, die wie Gewissheiten klingen und Fehler so formulieren, dass man sie erst bemerkt, wenn man genau hinsieht. Genau deshalb sind Halluzinationen und faktisch falsche, aber sprachlich überzeugende Antworten von LLMs ein zentrales Risiko generativer KI.

Das Problem liegt nun in der Weise, wie du die Antworten von LLMs nutzt. Für Tatsachenbehauptungen, juristische Aussagen, Zahlen, Quellen oder belastbare Einordnungen reicht allein gute Sprache nicht aus. Dort sind Prüfungen erforderlich.

Denn Menschen glauben einer Antwort zu früh, weil sie sprachlich schon „fertig“ aussieht. Wenn du aber die Antworten von LLMs als Entwürfe für Ideen, für Varianten, für Formulierungsvorschläge oder neue Perspektiven betrachtest, sind sie wertvoll.

So holst du mehr aus einen Prompts

Ein weiterer Denkfehler liegt dann darin, dass Nutzer die erste Antwort eines LLM wie eine Art „endgültiges Ergebnis“ behandeln. Sie stellen eine Frage, lesen die Antwort und urteilen sofort: gut, schlecht, brauchbar, unbrauchbar. Damit ordnen sie jedoch fehlerhaft ein, wie LLMs in der Praxis am besten funktionieren: Der erste Output ist regelmäßig nicht das endgültige Ergebnis, sondern nur das erste Rohmaterial.

Es wirkt nämlich ein menschlicher Mechanismus, der Ankereffekt. Was wir zuerst sehen und im Falle von LLMs als Antwort bekommen, prägt unser Urteil übermäßig stark. Wenn die erste Antwort mittelmäßig ist, halten viele das Sprachmodell für schlecht. Wenn sie glänzend ist, überschätzen sie es. Beides ist falsch. LLMs reagieren auf Formulierung, Kontext und Prompt-Struktur. Schon kleinere Änderungen können deshalb Ausgaben deutlich verändern.

Deshalb zeigen sich gute Ergebnisse von LLMs selten im ersten Prompt. Sie zeigt sich vielmehr erst in den Schleifen danach. Wer deshalb gut mit LLMs arbeiten möchte, muss nachfragen und verschiedene Perspektiven abfragen.

Du musst deshalb umformulieren lassen, verdichten, zuspitzen, angreifen, vereinfachen, neu sortieren. Die Antwort von LLMs darfst du nicht wie ein Urteil, sondern wie einen Werkstoff behandeln.

KI besser als Mensch? Was LLMs gut können

Menschen mögen Bestätigung. Wir suchen Informationen, die zu unseren Annahmen passen, und wir verteidigen Ideen, in die wir schon, und sei es nur gedanklich, „investiert“ haben. Dies wird als „Confirmation Bias“ bezeichnet.

Im Umgang mit KI wird daraus aber ein Problem. Denn wenn du tendenziös fragst, liefert dir ein Sprachmodell oft brauchbare Antworten in genau dies Richtung der Frage. Nicht, weil es die Wahrheit gefunden hat, sondern weil es auf den von dir gesetzten Rahmen reagiert.

Daraus ergibt sich aber im Umkehrschluss ein oft unterschätzter Nutzen: Du kannst dir von einem LLM Gegenargumente liefern lassen, ohne dass jemand beleidigt ist, ein Ego verletzt wird oder eine Situation eskaliert.

Viele Nutzer erkennen nicht, dass LLMs regelmäßig nur bestätigen, was sie ohnehin schon dachten. Klüger jedoch wäre das Gegenteil: LLMs dazu zu benutzen, die eigene Komfortzone und die eigene Gedankenwelt anzugreifen.

Nicht die Qualität von LLMs, sondern die der Frage entscheidet

Ein damit verbundener Denkfehler ist dann schließlich, dass die Qualität der Antwort in den Eigenschaften, im Algorithmus und den Trainingsdaten eines LLMs liegen wird. Ein erstaunlich großer Teil des Ergebnisses hängt jedoch daran, wie du fragst.

LLMs reagieren auf Framing, Rollenbeschreibung, Zielsetzung, Beispiele, Kontext und Formulierungsnuancen. Sprache ist bei LLMs Steuerung. Wenn du unklar fragst, bekommst nicht einfach eine etwas schlechtere Antwort, sondern vielmehr eine Antwort auf eine unsauber gestellte Frage.

Das bedeutet aber: Bessere KI-Nutzung beginnt oft nicht mit „besserer“ KI, sprich mit besseren Modellen, sondern mit klarerem Denken in Form von klareren Fragestellungen und Aufgaben. Sobald du Zielgruppe, Zweck, Ton, Tiefe, Ausschlüsse und Erfolgskriterien für die Antwort klarer formulierst, verändert sich die Qualität der Antwort oft spürbar.

Das Sprechen mit LLMs, das sogenannte „Prompting“, ist deshalb nicht nur eine zu vernachlässigende Banalität. Gute Prompts erstellst du dann, wenn dir klar ist, was du eigentlich willst.

Sprachmodelle laden zu Missverständnissen ein

Natürlich sollte man nun noch erwähnen, dass die Art, wie LLMs entwickelt sind, nicht ganz unschuldig an unseren Denkfehlern sind. LLMs klingen freundlich, kohärent und selbstsicher.

Sie wirken oft so, als verstehen sie, was man von ihnen will. Genau dadurch entsteht fast automatisch der Eindruck, man habe es mit einem klar denkenden „digitalen Menschen“ zu tun.

Das Problem liegt also nicht nur beim Nutzer. Es liegt auch an der Art, wie LLMs erstellt werden und so Menschlichkeit simulieren.

Inzwischen wird dieses Phänomen unter dem Begriff „Anthropomorphisierung von LLMs“ diskutiert. Gerade deshalb jedoch braucht der Umgang mit LLMs ein klares Verständnis dafür, was sie können und was nicht.

Bessere Ergebnisse beginnen mit besseren Fragen

Am Ende läuft alles auf eine unbequeme, aber in meinen Augen wichtige Einsicht hinaus: Wenn du mit LLMs besser arbeiten willst, musst du deinen Umgang mit ihnen besser verstehen und anpassen.

Du musst aufhören, in flüssiger Sprache automatisch Wahrheit zu sehen, die erste Antwort für das schlussendliche Ergebnis zu halten und Bestätigung deiner Ansichten durch LLMs mit guten Gedanken zu verwechseln. Und vor allem musst du aufhören, ein Sprachmodell wie einen Menschen mit Haltung und Überzeugung zu betrachten.

Ein LLM ist im besten Fall ein Gedankenverstärker, ein Beschleuniger bei der Erstellung von Antworten, ein Perspektivengenerator und ein Widerspruchswerkzeug. Ein LLM ist kein digitaler Kollege mit Weisheit und Weltbild. Deshalb musst du aufhören, ein LLM an menschlichen Maßstäben zu messen. Wenn du das verstehst, bist du gegen Denkfehler besser gewappnet.

Auch interessant: 

Der Beitrag Die größten Denkfehler bei ChatGPT: Warum fast alle KI falsch nutzen erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Windows 11: Microsoft weitet Zwangs-Update auf Windows 11 25H2 aus

Microsoft, Betriebssystem, Update, Logo, Windows 11, Aktualisierung, Software, Desktop, Technologie, Upgrade, Hintergrund, Windows 11 25H2, 25H2, Abstrakt, Farbverlauf, Wellen, Bildschirmhintergrund, Blau-Grün Windows-Anwender werden von Microsoft erneut zwangsbeglückt. So erhalten jetzt alle Nutzer der Version 24H2 mit berechtigten Geräten ein unfreiwilliges Upgrade auf das neuere Windows 11 25H2. Der Prozess lässt sich höchstens noch etwas verzögern. (Weiter lesen)
  •  

Luna (Prime Gaming): Amazon verschenkt ganze 12 Spiele im April 2026

Amazon, Spiele-Streaming, Amazon Luna, Luna Amazon verschenkt im April erneut etliche Spiele an PC-Gamer. Neben dem Taktik-Klassiker XCOM: Enemy Unknown erhalten Prime-Abonnenten zudem die Möglichkeit, sich den neuesten Teil der Total-War-Serie zu sichern. Auch das Cloud-Angebot wird ausgeweitet. (Weiter lesen)
  •  

Tesla Model S und X: Ende einer Ära - Produktion ist nun eingestellt

Logo, Auto, Elektroautos, tesla, Elektroauto, E-Auto, Tesla Motors, Model 3, Tesla Model 3, Tesla Model S Nach über einem Jahrzehnt beendet der US-Autobauer Tesla die Fertigung seiner ersten Elektroautos. Individuelle Bestellungen sind ab sofort nicht mehr möglich. Übrig bleiben weltweit nur noch sehr wenige Restbestände für schnell entschlossene Käufer. (Weiter lesen)
  •  

Weltraum-Panne: Microsoft Outlook streikt auf der Artemis II

Weltraum, Raumfahrt, Nasa, Rakete, Mond, Esa, Artemis, Mondmission, Startrampe, SLS, Space Launch System, Orion, Trägerrakete, kennedy space center, Artemis II, Artemis 2, Startvorbereitung Am ersten Tag der zehntägigen Mondumrundung von Artemis II ist ein nicht erwartetes technisches Problem aufgetaucht. Auf einem Tablet, einem Microsoft Surface Pro, öffneten sich zwei Instanzen von Microsoft Outlook, von denen keine funktioniert. (Weiter lesen)
  •  

PayPal zieht Stecker doch nicht: Google Wallet-Support bleibt

Paypal, ebay paypal, PayPal Logo, PP PayPal hat seine Pläne zur Beendigung der Zusammenarbeit mit Google Wallet überraschend zurückgenommen. Nachdem das Unternehmen Mitte März per E-Mail das Aus zum Monatsende angekündigt hatte, bleiben nun alle Funktionen erhalten. (Weiter lesen)
  •  

Oster-Updates für 7 FritzBox-Router & 2 Repeater - Neue Betas sind da

Software, Beta, Avm, Wlan, Router, Fritzbox, Firmware, Dsl, Labor, Mesh, Testversion Vor den Osterfeiertagen hat Fritz noch einmal Nachschub aus dem Labor geliefert. Etliche der am aktuellen Beta-Programm teil­neh­men­den FritzBox-Modelle erhalten damit weitere Verbesserungen und Fehlerbehebungen. Auch zwei Repeater sind mit dabei. (Weiter lesen)
  •  

Windows 10 mit Lebenszeichen - Windows-Nutzerzahlen für März 2026

Betriebssystem, Windows, Logo, Notebook, Laptop, Windows Logo, Microsoft Windows Zum Monatsbeginn liegen wieder einmal frische Nutzerzahlen für Windows vor. Im März 2026 kann Windows 11 seinen Siegeszug nicht weiter fortsetzen. Im globalen Vergleich büßt das aktuelle Microsoft-Betriebssystem sogar wieder etwas an Vorsprung ein. (Weiter lesen)
  •  

Nächster Trick im Browser-Krieg: Microsoft Edge startet automatisch

Microsoft, Browser, Edge, Microsoft Edge, Microsoft Browser Microsoft versucht seit Jahren mit diversen Strategien, Nutzer von Edge zu überzeugen. Aktuell testet das Unter­nehmen eine neue Funktion in Windows 11, die den Webbrowser bei jedem System­start automatisch öffnet. Nutzer müssen aktiv ablehnen. (Weiter lesen)
  •  

Media Markt und Saturn: Die besten Deals zum Oster-Wochenende

Schnäppchen, Rabattaktion, Deals, sale, Media Markt, Saturn, Angebote, Sonderangebote, prospekt, Angebot, shopping, Rabatt, Mediamarkt, Deal, Sparen, MediaSaturn, MediaMarkt Saturn, Osterwoche, Ostern 2026 Zum verlängerten Oster-Wochenende starten Media Markt und Saturn jetzt mit den Week­end-Deals XXL. Wir haben uns den Sale und die Prospekte für euch genauer angesehen und zeigen die besten Angebote hier im Überblick. (Weiter lesen)
  •  

Half of planned US data center builds have been delayed or canceled, growth limited by shortages of power infrastructure and parts from China — the AI build-out flips the breakers

As cloud giants plan to spend $650 billion on AI infrastructure this year, the availability of power infrastructure components has become a significant obstacle to deploying AI data centers.

  •