Lese-Ansicht

Mehr arbeiten löst die Wirtschaftskrise nicht – KI zeigt, warum

Der Beitrag Mehr arbeiten löst die Wirtschaftskrise nicht – KI zeigt, warum erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI Wirtschaftskrise, Deutschland, Arbeit, Verschwendung, Vergeudung, Mensch, Künstliche Intelligenz, Wirtschaft, Geld

„Mehr arbeiten“ scheint der reflexartige Ruf Deutschlands auf die Wirtschaftskrise zu sein. Allerdings hat KI eins klargemacht: Statt auf bloßen Mehreinsatz zu setzen, sollte Deutschland den Fokus auf den effizienteren Umgang mit menschlicher Kreativität und Innovation richten. Eine kommentierende Analyse. 

Der Ruf nach „mehr arbeiten“ gehört in Deutschland zu den zuverlässigsten Reaktionen auf wirtschaftliche Schwäche. Er klingt entschlossen, wirkt aber im Zeitalter von KI seltsam alt. Denn da diese Technologie sichtbar macht, wie viel menschliche Denkarbeit in Routinen und Reibung verpufft, liegt das Problem unserer Wirtschaft womöglich nicht zuerst im mangelnden Einsatz, sondern darin, wie schlecht wir mit Intelligenz, Kreativität und gedanklicher Innovationskraft umgehen.

Deutschland steckt in einer Wirtschaftskrise, das wirtschaftliche Wachstum ist gering bis nicht vorhanden. Wenn man aber die Krise einmal genau betrachtet, dann könnte man zu Ergebnis kommen, dass Deutschland vielleicht auch, möglicherweise sogar noch mehr, in einer Krise der Vergeudung steckt. Damit meine ich nicht die Vergeudung von Geld und auch nicht die Vergeudung von Chancen, sondern die Vergeudung von geistiger Energie.

Wirtschaftskrise: KI zeigt, was wirklich Zeit und Wachstum kostet

Denn jeden Tag verschwinden in Unternehmen, Verwaltungen und Organisationen unzählige Stunden in Routinen, Rückfragen, Wiedervorlagen, Suchbewegungen, Berichtsschleifen, Formulierungsvarianten und Abstimmungen.

Sie fühlen sich wichtig an, produzieren allerdings oft nur Reibung und verschwenden Zeit. Und obwohl all das geschieht und auch immer wieder angeprangert wird, reden wir erstaunlich häufig noch so, als sei die zentrale Frage, ob Menschen genug arbeiten.

Das klingt zunächst nach einer provokanten These. Ganz aus der Luft gegriffen ist sie jedoch nicht. Die deutsche Wirtschaft ist 2025 real nur um 0,2 Prozent gewachsen. Gleichzeitig blieb die Zahl der Erwerbstätigen auf sehr hohem Niveau.

Das allein beweist natürlich noch nichts. Aber es passt schlecht zu der schlichten Erzählung, es fehle vor allem an Arbeitsbereitschaft. Eher deutet es darauf hin, dass die Beziehung zwischen Aufwand und Wirkung nicht mehr stimmt.

Darüber hinaus verweist die OECD auf administrative Lasten, Fachkräfteengpässe und eine zu geringe wirtschaftliche Dynamik als zentrale Bremsen für Deutschland. Und die deutsche Bundesbank sieht in der verschlechterten Wettbewerbsposition deutscher Unternehmen einen wesentlichen Grund für Exportmarktverluste. Das alles klingt nicht nach einem Land, dem nur ein paar zusätzliche Arbeitsstunden fehlen. Es klingt nach einem Land, das zu viel Energie an den falschen Stellen verbrennt.

KI als Spiegel unserer Tätigkeiten

Genau an diesem Punkt wird Künstliche Intelligenz (KI) interessant, aber nicht als Zauberstab oder als simples Heilsversprechen für schnell erzielbares Wirtschaftswachstum. Und auch nicht als bequeme Fantasie, man könne wirtschaftliche Schwäche einfach weg prompten. Interessant wird KI für mich viel mehr als ziemlich unangenehmer Spiegel.

Denn KI zeigt etwas, das insbesondere von Berufspolitikern ohne Erfahrung als Arbeitnehmer oder als Inhaber eines Unternehmens lieber nicht so genau gesehen werden möchte: nämlich wie Menschen in Unternehmen und Behörden ihre Tage damit verbringen, Informationen umzuformen, statt mit ihnen etwas Neues anzufangen.

Wie häufig hoch qualifizierte Fachkräfte nicht an schwierigen Problemen arbeiten, sondern an den sprachlichen, formalen und organisatorischen Nebenwirkungen und Dokumentationen komplexer Systeme. Und wie viel Potenzial ungenutzt bleibt, weil zu viele Köpfe mit Verwaltung statt mit Wirkung beschäftigt sind.

KI in der Wirtschaftskrise als Anklage gegen Zeitverschwendung

Das ist für mich der eigentliche Grund, warum die Debatte über KI so interessant ist. KI ist eben nicht nur eine Technologie zur Steigerung der Produktivität. Sie ist vielmehr auch eine „Anklage gegen Zeitverschwendung“.

Denn sobald eine KI in Sekunden eine Zusammenfassung, einen Textentwurf, eine Strukturierung, eine Voranalyse oder eine sortierte Auswertung liefern kann, wird mit einer gewissen Deutlichkeit sichtbar, wie viel teure menschliche Arbeitszeit bislang in genau diese Tätigkeiten versickert ist. KI macht also nicht nur schneller. Sie vielmehr sichtbar, was wir für inzwischen viel zu lange verfehlt für normal gehalten haben.

Das Problem Deutschlands ist meiner Ansicht nach nicht, dass zu wenig gearbeitet wird. Das Problem besteht vielmehr darin, dass zu viel menschliche Arbeit für Tätigkeiten aufgewendet wird, die den Wohlstand von morgen nicht erhöhen.

Wenn in einer wissensintensiven Wirtschaft wie der unseren pauschal mehr Arbeit gefordert wird, ohne zugleich über die Qualität, die Hebelwirkung und die Zielrichtung dieser Arbeit zu sprechen, dann wird Betriebsamkeit und generell Aktivität mit Fortschritt verwechselt.

Wo Unternehmen Aufmerksamkeit verschwenden

Und das gilt umso mehr in einer alternden Gesellschaft. Gerade wenn Fachkräfte knapp sind und die vorhandenen immer älter werden, ist es fast schon absurd, die Zeit der verbleibenden mit nicht Wert schaffenden Routinen zu überladen, die sich beschleunigen, vorbereiten oder zumindest teilweise automatisieren lassen.

KI wird insbesondere dann zu einer Technologie der Freilegung. Sie legt nämlich frei, wo in Unternehmen und Organisationen Aufmerksamkeit verschwenden wird bzw. verschwendet werden muss aufgrund von entsprechenden Regularien. Sie legt frei, wo Entscheidungswege unnötig zäh geworden sind. Und sie legt frei, wo Gründlichkeit mit Verzögerung verwechselt wird.

Was passiert, wenn KI Menschen nicht ersetzt, sondern besser einsetzt?

Mir geht es dabei ausdrücklich insbesondere nicht um die mittlerweile allzu bekannte Erzählung, der Mensch werde durch die KI ersetzt. Diese Erzählung ist meist entweder zu simpel oder zu bequem. Die interessantere Frage lautet vielmehr: Was wäre möglich, wenn wir Menschen nicht ersetzen, sondern besser einsetzen? Was geschieht, wenn KI einen Teil jener Vorarbeit übernimmt, die bislang Menschen mit Routinen beschäftigt, statt sie an die wirklich wichtigen Aufgaben zu bringen?

Dann könnte ausgerechnet eine Technologie, die so oft als Bedrohung beschrieben wird, zu einem Werkzeug werden, das Menschen wieder stärker an den Punkt bringt, an dem ihre Tätigkeiten wirklich Sinn ergeben: beim Einordnen, Entscheiden, Priorisieren, Verhandeln, Erfinden und Erklären.

Natürlich löst KI allein nicht das gesamte deutsche Wachstumsproblem. Sie senkt keine Energiepreise, sie ersetzt keine Industriepolitik und sie zaubert auch keine mutigen Investitionsentscheidungen herbei. Aber vielleicht liegt genau in dieser nüchternen Einordnung der entscheidende Punkt. KI muss gar nicht alles lösen, um wirtschaftlich enorm relevant zu sein. Es reicht bereits, wenn sie uns zwingt, eine unangenehme Wahrheit zur Kenntnis zu nehmen: dass wir in Deutschland sehr lange damit durchgekommen sind, geistige Schwerfälligkeit als Seriosität zu verkaufen.

Weniger Schweiß, weniger Vergeudung: Der echte Weg aus der Krise

Vielleicht liegt genau darin die eigentliche wirtschaftliche Provokation von KI. Sie bedroht nicht nur einzelne Tätigkeiten. Sie bedroht vielmehr auch Rechtfertigungsmuster. Sie stellt infrage, warum bestimmte Formen von Langsamkeit und Umständlichkeit bislang als normal, professionell oder gar alternativlos galten.

Und sie zwingt uns damit zu einer Frage, die weit größer ist als jede Tool-Debatte: Wofür genau wollen wir menschliche Intelligenz in Zukunft eigentlich noch verwenden? Die Antwort auf diese Frage dürfte am Ende wichtiger sein als jede moralisch aufgeladene Debatte über Fleiß. Denn der Weg aus der Wirtschaftskrise führt womöglich nicht zuerst über mehr Schweiß, sondern endlich über weniger Vergeudung.

Auch interessant: 

Der Beitrag Mehr arbeiten löst die Wirtschaftskrise nicht – KI zeigt, warum erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Echt oder KI? Wenn die Realität unter Gemeralverdacht gerät

Der Beitrag Echt oder KI? Wenn die Realität unter Gemeralverdacht gerät erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI Realität NO AI Künstliche Intelligenz Wahrnehmung

Ist das echt oder KI? Inhalte von Künstlicher Intelligenz zerstören nach und nach unser Vertrauen in Bilder, Videos, Stimmen und Artikel. Müssen Inhalte also wieder menschlicher werden? So einfach ist es nicht.

Vielleicht kennst du das: Du scrollst durch Social Media-Kanäle und dir gehen nicht nur die schlechten Inhalte auf die Nerven, sondern es wächst auch der Verdacht, dass überhaupt nichts mehr echt sein könnte.

Man könnte voreilig die immer stärker werdende Skepsis gegenüber KI-erzeugten Inhalten als pessimistische Überreaktion abzutun: „Von Menschen erzeugte Inhalte sind halt doch besser, das haben wir ja schon immer gewusst!“

Wer jedoch heute irritiert oder sogar ablehnend auf künstlich erzeugte Bilder, Videos oder Stimmen reagiert, ist nicht automatisch technikfeindlich. Er oder sie reagiert meiner Ansicht nach vielmehr auf eine Veränderung der digitalen Umwelt, die viele Menschen längst spüren, auch wenn sie sie noch nicht genau benennen können.

Echt vs. KI: Was ist das Problem?

Das Problem liegt nicht nur darin, dass KI inzwischen täuschend echte Inhalte erzeugen kann. Das größere Problem besteht darin, dass sich durch diese KI-erzeugten Inhalte unser Blick auf digitale Inhalte insgesamt verschiebt.

Wo früher ein gewisses Grundvertrauen vorhanden war, besteht heute immer häufiger ein stilles Misstrauen: Ist der Inhalt echt? Ist er bearbeitet? Ist er inszeniert? Ist er vielleicht gar nicht mehr von einem Menschen erstellt worden?

Das ist deshalb so bemerkenswert, weil die Stärke von KI lange Zeit ganz woanders verortet wurde. Es ging um Effizienz, um Produktivität, um neue kreative Möglichkeiten, um Entlastung des Menschen.

All das ist nicht falsch. Aber diese Perspektive greift zu kurz. Denn KI verändert eben nicht nur, wie Inhalte entstehen. Sie verändert auch, wie wir Inhalte wahrnehmen und einordnen.

Nicht jede KI ist das Problem

Bevor ich jedoch weiter ausführe, ist ein Wort der Warnung erforderlich. Mir geht es nicht darum zu sagen, dass jeder Einsatz von KI problematisch ist. Das wäre seltsam, bin ich doch in meinen Vorträgen und Workshops fast schon ein an dem deutschen Veränderungsunwillen verzweifelnder KI-Optimist.

Wenn KI also hilft, Informationen zu strukturieren, Texte sprachlich zu glätten, Prozesse zu beschleunigen oder Wissen schneller zugänglich zu machen, ist das ausgesprochen nützlich.

Viele der aktuellen Anwendungen liegen ja auch heute genau in diesem Bereich und unterstützen so menschliches Arbeiten. Der Eindruck von Wirklichkeit wird dabei gerade nicht untergraben.

Kritisch wird es vielmehr dort, wo KI nicht mehr nur Werkzeug im Hintergrund ist, sondern sichtbar an die Stelle menschlicher Wirklichkeit tritt. Wenn Gesichter, Stimmen, Szenen oder ganze Stimmungen künstlich erzeugt werden, dann geht es nicht mehr nur um Unterstützung. Dann geht es um Simulation. Und genau an diesem Punkt – so kommt es mir derzeit vor – kippt für viele Menschen das Gefühl.

Denn ein sprachlich verbesserter Text und ein künstlich erzeugter Mensch, sind in meinen Augen nicht dasselbe. Eine KI, die im Hintergrund sortiert, ist etwas anderes als eine KI, die im Vordergrund Realität imitiert. Wer diese Unterscheidung macht, versteht besser, warum manche Anwendungen kaum Widerstand auslösen, während andere sofort Unbehagen erzeugen.

Bitte keine KI: Warum das Echte plötzlich wieder wichtig wird

Ich glaube, wir erleben derzeit eine Gegenbewegung zur Austauschbarkeit, wenn über KI lamentiert wird. Viele KI-Inhalte sehen wir nicht deshalb als problematisch an, weil sie technisch schlecht wären.

Im Gegenteil: Sie sind oft erstaunlich gut gemacht. Aber genau darin liegt oftmals das Problem. Sie wirken glatt, generisch und zu mühelos. Ihnen fehlt also nicht Qualität im technischen Sinn, wohl aber Reibung, Eigenheit, und „Kante“.

Das Echte wird in der Umgebung von einer Vielzahl von KI-Inhalten nicht deshalb attraktiver, weil es immer schöner oder besser wäre. Das Gegenteil ist inzwischen häufig der Fall. Es wird attraktiver, weil es knapper wird.

Wenn künstliche Produktion in nahezu unbegrenzter Menge möglich ist, dann gewinnt dasjenige an Wert, was nicht beliebig skalierbar ist: menschliche Erfahrung, echte Perspektive, konkrete Handschrift, Unschärfe, Widerspruch, Haltung.

Genau deshalb halte ich den Ausspruch „Bitte keine KI“ nicht für rückwärtsgewandt. Er zeigt vielmehr, dass Menschen sehr wohl spüren, wann Technik ihnen hilft und wann sie beginnt, den Charakter eines Inhalts zu verändern. Vielleicht ist das ein Zeichen von Übersättigung, vielleicht sogar von wachsender digitaler Reife.

Das eigentliche Problem ist der Vertrauensverlust

Noch wichtiger erscheint mir aber ein anderer Punkt. Die eigentliche Gefahr liegt nicht darin, dass Menschen von einzelne KI-Inhalte getäuscht werden. Sie liegt meiner Ansicht nach darin, dass das Misstrauen über den einzelnen Inhalt hinauswächst.

Wenn Menschen anfangen, nicht nur Künstliches kritisch zu betrachten, sondern auch Reales reflexhaft unter Verdacht zu stellen, von KI erstellt worden zu sein, dann verändert sich im Kern die ganze Wahrnehmung von digitaler Öffentlichkeit.

Das erinnert mich an ein anderes Problem, über das ich schon geschrieben habe, nämlich der digitalen Bildung und dem Umgang mit Informationen: Wissen ist heute in großer Menge verfügbar, aber vielen fällt es schwer, Informationen einzuordnen, in ihrer Gesamtheit zu erfassen und sich dabei nicht von Lautstärke oder Emotionen treiben zu lassen.

KI verschärft dieses Problem nun noch einmal. Jetzt geht es nicht mehr nur um die Einordnung von Informationen, sondern zunehmend auch um die Einordnung von „Wirklichkeit“, also ob etwas unverfälscht oder künstlich geschaffen wurde.

Geht diese Entwicklung weiter, dann könnten wir ein Umfeld bekommen, in dem Echtheit nicht mehr – wie bisher – vorausgesetzt wird, sondern begründet werden muss. Das ist eine erhebliche Veränderung.

Denn Vertrauen ist digital ohnehin schon fragil. Wenn nun auch noch die visuellen, akustischen und sprachlichen Ebenen flächendeckend synthetisierbar werden, dann wächst der Druck auf den einzelnen Nutzer, immer prüfen zu müssen, was er da eigentlich an Inhalten vor sich hat.

Auch die Rückkehr zur Echtheit ist nicht unschuldig

Ich will jetzt aber auch nicht in eine Romantisierung des Echten verfallen. Denn auch die neue Lust auf Echtheit ist nicht frei von Inszenierung. Schon jetzt lässt sich beobachten, dass „ohne KI“ selbst zu einem Label wird, das Aufmerksamkeit schafft und sich vermarkten lässt.

Das zeigt, dass das Thema komplizierter ist, als es auf den ersten Blick wirkt. Nicht jede Distanzierung von KI ist Ausdruck einer tiefen Haltung. Manches davon ist Strategie. So wie „mit KI“ vor kurzem noch als Innovationsbeweis galt, wird „ohne KI“ nun als Qualitätssiegel verwendet.

Meiner Ansicht nach müssen wir also vorsichtig sein bei der Einordnung. Weder ist KI pauschal der Feind des Menschlichen, noch ist alles Menschliche automatisch wertvoller. Entscheidend ist vielmehr, ob Inhalte und Technologien in einer Weise eingesetzt werden, die Vertrauen stärken oder untergraben.

Echt oder KI? Worauf es jetzt ankommt

Nach meinem Dafürhalten brauchen wir zukünftig weniger pauschale KI-Begeisterung und weniger pauschale KI-Abwehr. Stattdessen brauchen wir die Fähigkeit, Unterschiede zu erkennen.

Wo unterstützt KI sinnvoll? Wo ersetzt sie etwas, das besser nicht ersetzt werden sollte? Wo erweitert sie menschliche Möglichkeiten? Und wo produziert sie vor allem Masse und Oberflächenreize?

Das alles sind Fragen, die auf Medienkompetenz und Urteilsvermögen abzielen. Wenn wir uns nicht bewusst machen, wie KI-generierte Inhalte auf unser Vertrauen in Inhalte im Allgemeinen wirken, dann reden wir zu oberflächlich über den Nutzen von KI.

Vielleicht ist genau das die unbequeme Pointe dieser Entwicklung: KI zwingt uns nicht nur dazu, über Maschinen nachzudenken. Sie zwingt uns dazu, neu über das Menschliche nachzudenken und darüber, was wir eigentlich meinen, wenn wir etwas für echt halten.

Und vielleicht liegt gerade darin die eigentliche Herausforderung der kommenden Jahre, nämlich ob wir es schaffen, in einer Welt voller synthetischer Möglichkeiten die Maßstäbe nicht zu verlieren, nach denen wir Wirklichkeit erkennen, bewerten und ihr vertrauen. Genau daran wird sich entscheiden, ob KI unseren digitalen Alltag wirklich verbessert oder ihn nur noch künstlicher macht.

Auch interessant: 

Der Beitrag Echt oder KI? Wenn die Realität unter Gemeralverdacht gerät erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Die größten Denkfehler bei ChatGPT: Warum fast alle KI falsch nutzen

Der Beitrag Die größten Denkfehler bei ChatGPT: Warum fast alle KI falsch nutzen erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI Mensch, Künstliche Intelligenz, ChatGPT, Gemini, Perplexity, Prompt, Prompting, Large Language Model, LLM

ChatGPT antwortet teilweise so überzeugend, dass viele Nutzer es unbewusst wie einen menschlichen Experten behandeln – mit Meinung, Haltung und Weltwissen. Genau das führt zu Denkfehlern, die die Qualität der Ergebnisse massiv verschlechtern.

Du hast das sicherlich schon selbst erlebt: Du fragst ein LLM (Large Language Model) wie ChatGPT etwas und bekommst eine überzeugend formulierte Antwort. Dann fragst du nach dem Gegenteil und wieder ist die Antwort überzeugend. Sind LLMs also widersprüchlich, unzuverlässig und beliebig? Gibt es ein anderes Problem, das nicht in dem LLM liegt?

LLMs erscheinen wie jemand, der eine Meinung hat, vielleicht sogar eine Überzeugung. Ein LLM ist aber kein menschlicher Kollege oder Experte, insbesondere nicht mit Charakter. Es ist ein System, das Antworten erzeugt und menschliche Kommunikation imitiert.

Deshalb jedoch schreiben wir diesen nicht-menschlichen Systemen menschliche Eigenschaften zu. In der Folge führt das dazu, dass wir bei der Nutzung von LLMs Denkfehler begehen, die sich gravierend auf die Ergebnisse auswirken.

KI ist kein Mensch, also hör auf sie so zu behandeln

Es ist naheliegend, ChatGPT und andere LLMs wie ein menschliches Gegenüber zu behandeln, denn so sind sie konstruiert: Die Kommunikation ist dialogisch und die Antworten wirken ruhig, höflich, strukturiert und klingen extrem selbstbewusst, als ob es keinen Zweifel an den gemachten Antworten gibt. LLMs klingen nicht wie Maschinen, sondern wie „jemand, der Bescheid weiß“. Aber genau dies führt zu fehlerhaften Schlussfolgerungen.

Wenn ein Mensch überzeugend spricht, unterstellen wir ihm meist eine gewisse innere Haltung. Bei einem Sprachmodell führt das zu einer fehlerhaften Nutzung. Denn es hat keine Überzeugungen, die es verteidigt. Es hat auch kein Weltbild, an dem es hängt.

Der erste Denkfehler, den es bei LLMs zu vermeiden gilt, ist deshalb erstaunlich simpel: Hör auf, in der Antwort eines LLM eine Meinung zu suchen. Frag stattdessen, welche Perspektive das Sprachmodell dir gerade erzeugt.

KI hat keine Meinung – und das ist auch gut so

Viele Nutzer machen in der Folge aus KI unbewusst so etwas wie ein digitales Gegenüber mit Charakter. Sie äußern dann Sätze wie: „Die KI findet das gut“, „Die KI hat ihre Meinung geändert“ oder „Die KI versteht doch, was ich meine“.

Das klingt harmlos. Ist es aber nicht. Denn diese Art zu sprechen verschiebt die Erwartung. Plötzlich soll KI so funktionieren wie ein Mensch. Aber dafür ist ein Sprachmodell nicht gebaut. Ein LLM erzeugt lediglich wahrscheinliche und Kontextpassende Antworten.

Das ist großartig, um menschliche Schwächen zu umgehen, denn weil LLMs keine eigenen Überzeugungen verteidigen, können sie etwas, das Menschen oft schlecht können: schnell die Perspektive wechseln.

Es kann also für deine Idee argumentieren, gegen deine Idee argumentieren, sie aus Kundensicht prüfen, aus Sicht eines Skeptikers zerlegen oder in eine nüchterne Risikoanalyse verwandeln. Ein LLM entwickelt aber (noch) keinen Charakter, wie es ein Mensch kann.

Wahrheit entsteht nicht durch gute Sprache

Der zweite große Denkfehler ist noch tückischer: Wir verwechseln Sprachqualität mit Kompetenz. Menschen reagieren stark auf sprachliche Sicherheit. Wer klar formuliert und strukturiert argumentiert, klingt glaubwürdig und wirkt dadurch kompetent. Und Glaubwürdigkeit und Kompetenz führt zu Vertrauen, was nur allzu menschlich ist. Bei der Nutzung von LLMs ist das jedoch gefährlich.

Denn LLMs sind gerade darin stark, plausibel klingende Formulierungen zu erzeugen. Sie können insbesondere Unsicherheiten in Sätze verpacken, die wie Gewissheiten klingen und Fehler so formulieren, dass man sie erst bemerkt, wenn man genau hinsieht. Genau deshalb sind Halluzinationen und faktisch falsche, aber sprachlich überzeugende Antworten von LLMs ein zentrales Risiko generativer KI.

Das Problem liegt nun in der Weise, wie du die Antworten von LLMs nutzt. Für Tatsachenbehauptungen, juristische Aussagen, Zahlen, Quellen oder belastbare Einordnungen reicht allein gute Sprache nicht aus. Dort sind Prüfungen erforderlich.

Denn Menschen glauben einer Antwort zu früh, weil sie sprachlich schon „fertig“ aussieht. Wenn du aber die Antworten von LLMs als Entwürfe für Ideen, für Varianten, für Formulierungsvorschläge oder neue Perspektiven betrachtest, sind sie wertvoll.

So holst du mehr aus einen Prompts

Ein weiterer Denkfehler liegt dann darin, dass Nutzer die erste Antwort eines LLM wie eine Art „endgültiges Ergebnis“ behandeln. Sie stellen eine Frage, lesen die Antwort und urteilen sofort: gut, schlecht, brauchbar, unbrauchbar. Damit ordnen sie jedoch fehlerhaft ein, wie LLMs in der Praxis am besten funktionieren: Der erste Output ist regelmäßig nicht das endgültige Ergebnis, sondern nur das erste Rohmaterial.

Es wirkt nämlich ein menschlicher Mechanismus, der Ankereffekt. Was wir zuerst sehen und im Falle von LLMs als Antwort bekommen, prägt unser Urteil übermäßig stark. Wenn die erste Antwort mittelmäßig ist, halten viele das Sprachmodell für schlecht. Wenn sie glänzend ist, überschätzen sie es. Beides ist falsch. LLMs reagieren auf Formulierung, Kontext und Prompt-Struktur. Schon kleinere Änderungen können deshalb Ausgaben deutlich verändern.

Deshalb zeigen sich gute Ergebnisse von LLMs selten im ersten Prompt. Sie zeigt sich vielmehr erst in den Schleifen danach. Wer deshalb gut mit LLMs arbeiten möchte, muss nachfragen und verschiedene Perspektiven abfragen.

Du musst deshalb umformulieren lassen, verdichten, zuspitzen, angreifen, vereinfachen, neu sortieren. Die Antwort von LLMs darfst du nicht wie ein Urteil, sondern wie einen Werkstoff behandeln.

KI besser als Mensch? Was LLMs gut können

Menschen mögen Bestätigung. Wir suchen Informationen, die zu unseren Annahmen passen, und wir verteidigen Ideen, in die wir schon, und sei es nur gedanklich, „investiert“ haben. Dies wird als „Confirmation Bias“ bezeichnet.

Im Umgang mit KI wird daraus aber ein Problem. Denn wenn du tendenziös fragst, liefert dir ein Sprachmodell oft brauchbare Antworten in genau dies Richtung der Frage. Nicht, weil es die Wahrheit gefunden hat, sondern weil es auf den von dir gesetzten Rahmen reagiert.

Daraus ergibt sich aber im Umkehrschluss ein oft unterschätzter Nutzen: Du kannst dir von einem LLM Gegenargumente liefern lassen, ohne dass jemand beleidigt ist, ein Ego verletzt wird oder eine Situation eskaliert.

Viele Nutzer erkennen nicht, dass LLMs regelmäßig nur bestätigen, was sie ohnehin schon dachten. Klüger jedoch wäre das Gegenteil: LLMs dazu zu benutzen, die eigene Komfortzone und die eigene Gedankenwelt anzugreifen.

Nicht die Qualität von LLMs, sondern die der Frage entscheidet

Ein damit verbundener Denkfehler ist dann schließlich, dass die Qualität der Antwort in den Eigenschaften, im Algorithmus und den Trainingsdaten eines LLMs liegen wird. Ein erstaunlich großer Teil des Ergebnisses hängt jedoch daran, wie du fragst.

LLMs reagieren auf Framing, Rollenbeschreibung, Zielsetzung, Beispiele, Kontext und Formulierungsnuancen. Sprache ist bei LLMs Steuerung. Wenn du unklar fragst, bekommst nicht einfach eine etwas schlechtere Antwort, sondern vielmehr eine Antwort auf eine unsauber gestellte Frage.

Das bedeutet aber: Bessere KI-Nutzung beginnt oft nicht mit „besserer“ KI, sprich mit besseren Modellen, sondern mit klarerem Denken in Form von klareren Fragestellungen und Aufgaben. Sobald du Zielgruppe, Zweck, Ton, Tiefe, Ausschlüsse und Erfolgskriterien für die Antwort klarer formulierst, verändert sich die Qualität der Antwort oft spürbar.

Das Sprechen mit LLMs, das sogenannte „Prompting“, ist deshalb nicht nur eine zu vernachlässigende Banalität. Gute Prompts erstellst du dann, wenn dir klar ist, was du eigentlich willst.

Sprachmodelle laden zu Missverständnissen ein

Natürlich sollte man nun noch erwähnen, dass die Art, wie LLMs entwickelt sind, nicht ganz unschuldig an unseren Denkfehlern sind. LLMs klingen freundlich, kohärent und selbstsicher.

Sie wirken oft so, als verstehen sie, was man von ihnen will. Genau dadurch entsteht fast automatisch der Eindruck, man habe es mit einem klar denkenden „digitalen Menschen“ zu tun.

Das Problem liegt also nicht nur beim Nutzer. Es liegt auch an der Art, wie LLMs erstellt werden und so Menschlichkeit simulieren.

Inzwischen wird dieses Phänomen unter dem Begriff „Anthropomorphisierung von LLMs“ diskutiert. Gerade deshalb jedoch braucht der Umgang mit LLMs ein klares Verständnis dafür, was sie können und was nicht.

Bessere Ergebnisse beginnen mit besseren Fragen

Am Ende läuft alles auf eine unbequeme, aber in meinen Augen wichtige Einsicht hinaus: Wenn du mit LLMs besser arbeiten willst, musst du deinen Umgang mit ihnen besser verstehen und anpassen.

Du musst aufhören, in flüssiger Sprache automatisch Wahrheit zu sehen, die erste Antwort für das schlussendliche Ergebnis zu halten und Bestätigung deiner Ansichten durch LLMs mit guten Gedanken zu verwechseln. Und vor allem musst du aufhören, ein Sprachmodell wie einen Menschen mit Haltung und Überzeugung zu betrachten.

Ein LLM ist im besten Fall ein Gedankenverstärker, ein Beschleuniger bei der Erstellung von Antworten, ein Perspektivengenerator und ein Widerspruchswerkzeug. Ein LLM ist kein digitaler Kollege mit Weisheit und Weltbild. Deshalb musst du aufhören, ein LLM an menschlichen Maßstäben zu messen. Wenn du das verstehst, bist du gegen Denkfehler besser gewappnet.

Auch interessant: 

Der Beitrag Die größten Denkfehler bei ChatGPT: Warum fast alle KI falsch nutzen erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •