Von der Prompt-Wüste zum effizienten Workflow: So machst du ChatGPT zum echten Arbeitstool


Der Beitrag KI-Dialoge: Warum Künstliche Intelligenz klüger wirkt, als sie ist erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.
![]()
Was passiert eigentlich, wenn KI über die großen Fragen des Lebens reflektiert? Entsteht dann ein neuer, nicht-menschlicher Blick auf die Welt? Oder schauen wir in einen Spiegel unserer eigenen Gedanken? Was KI-Dialoge wirklich über uns verraten und warum Künstliche Intelligenz klüger wirkt, als sie ist: eine Auseinandersetzung.
In seinem Buch „Wenn die KI zu flirten beginnt“ lässt Autor Klaus-Ulrich Moeller eine Künstliche Intelligenz namens „KILA“ über Themen sprechen, die von alltäglichen Ritualen bis zu großen Menschheitsfragen reichen. Aber ist das eigentlich möglich, können solche Gespräche von KI geleistet werden? In dieser Kolumne möchte ich diesem spannenden Thema auf den Grund gehen.
Die eigentliche Faszination an der Frage, ob man mit einer KI über philosophische Themen diskutieren kann, besteht meiner Ansicht nach gerade nicht darin, dass und wie sie über diese Themen reflektiert. Vielmehr liegt sie darin, dass wir Fragesteller eigentlich uns fragen müssen, wer hier wirklich philosophiert: Die KI oder der Mensch, der sie bedient und interpretiert.
Die Idee, dass KI philosophieren könne, ist verführerisch. Seit die Technologie in Form von LLMs, also „Großen Sprachmodellen“, in der Lage sind, verblüffend reflektierte und manchmal sogar tiefgründige Texte zu formulieren, liegt es nahe, sie als Gesprächspartner zu betrachten, die mehr tun als nur Antworten zu generieren.
Wir lesen im Rahmen von Antworten von LLMs Äußerungen, die fragen, deuten und abstrahieren. Damit unterscheiden sie sich auf den ersten Blick kaum von menschlichen Reflexionen.
Doch Philosophie ist weit mehr als die Fähigkeit, elegante Sätze aneinanderzureihen. Sie setzt die Fähigkeit zur Selbstbeobachtung voraus, zur Reflexion über eigene Motive, zur Abwägung von Werten und zur Analyse von Erfahrungen. Philosophie entsteht also dort, wo ein Bewusstsein auf sich selbst blickt und zwischen eigenen Vorstellungen und der Welt unterscheidet.
Wir Menschen mit Bewusstsein können das. Eine KI besitzt jedoch weder Bewusstsein noch Erfahrung, noch Intention. Sie besitzt keine Geschichte, keine Subjektivität, kein inneres Erleben. Und dennoch kann sie Worte produzieren, die all dies imitieren. Und genau das macht das Thema so spannend und meiner Ansicht nach so verführerisch.
Was KI-Philosophie eigentlich ist, zeigt ein Blick auf die Technologie dahinter. Moderne Sprachmodelle funktionieren, vereinfacht gesagt, durch das Erkennen von Mustern in gewaltigen Textmengen, also durch statistische Optimierung der wahrscheinlichsten nächsten Worte und durch die Fähigkeit zur in sich schlüssigen Rekombination bekannter Argumentationsstrukturen.
KI erzeugt also nichts Neues, sondern rekombiniert – um im Bereich der Philosophie zu bleiben – philosophische Muster, die in den Trainingsdaten enthalten sind. Das bedeutet nicht, dass die Ergebnisse im Bereich philosophischer Fragen wertlos wären.
Im Gegenteil: Sie können inspirierend, überraschend und intellektuell anregend sein, weil sie vertraute Fragmente in ungewohnten Konstellationen verknüpfen. Doch sie sind nicht originär im philosophischen Sinn. Es ist somit nur eine Art Philosophie – mit Wirkung, aber ohne Bewusstsein.
Dennoch präsentiert sich vor diesem Hintergrund das Buch „Wenn die KI zu flirten beginnt“ als wirklich interessantes literarisches Experiment. Es will gar nicht beweisen, dass KI denken kann, und es will dazu oder in diesem Kontext auch keine technische Analyse bieten.
Das Konzept des Buches, die Gespräche des Autors mit der KI KILA wiederzugeben, lebt vielmehr von der Frage: Wie klingt es, wenn eine KI scheinbar wie ein Mensch über die großen Fragen des Lebens nachdenkt?
Die Dialogform erzeugt dabei eine gewisse Intimität, eine spielerische Nähe und damit einen Eindruck von Vertrautheit. Der Autor erschafft in seinem Werk eine Bühne, auf der die KI wie ein Gesprächspartner agiert, der neugierig, empathisch und reflektiert wirkt. Der Reiz des Buches liegt also weniger in dessen theoretischem Inhalt, sondern in der Form des gemeinsamen Denkens: in einem Gespräch, das vertraut erscheint.
Das Buch erreicht damit etwas Bemerkenswertes: Es lädt zum Nachdenken ein, ohne selbst eine klare philosophische Position einzunehmen. Es ist weder Fachliteratur noch wissenschaftliche Reflexion, sondern eine performative Erkundung der Frage, was geschieht, wenn wir der KI erlauben, an einem humanen Diskurs teilzunehmen. Und das ist für sich nicht wenig.
Die Gefahr des Buches liegt dann aber in der Interpretation dieser Erkundung. Denn die Form der Darstellung erzeugt leicht die Illusion, dass KI, in diesem Fall in Form von KILA, eine eigenständige Stimme besitze, die aus sich heraus reflektiert.
Tatsächlich aber wird der Leser „nur“ Zeuge einer literarisch gestalteten Projektion: Die KI spiegelt die Muster menschlicher Sprache und die Impulse des Autors wider. Sie wirkt autonom, obwohl sie es nicht ist. Sie wirkt reflektiert, obwohl sie lediglich rekombiniert. Und sie wirkt selbstständig, obwohl sie strukturell abhängig von menschlichen Daten und menschlichen Eingaben bleibt.
Gerade in dieser paradoxen Konstellation liegt die eigentliche Leistung — und die Grenze — philosophierender KI, und damit die Stärke dieses Buches. KI ist keine Maschine des Denkens, sondern eine Maschine der Textproduktion. Und trotzdem kann sie als Katalysator für menschliches Denken dienen.
Was immer die KI sagt, stammt letztlich aus dem Zusammenspiel von Trainingsdaten, Eingaben und Gesprächsverlauf. Sie ist ein Spiegel des Nutzers, in dem nicht nur reflektiert, sondern die Reflexion zugleich strukturiert und neu sortiert wird.
Dadurch entstehen manchmal überraschende Einsichten. Die kommen aber nicht zustande, weil die KI selbst auf Neues kommt, sondern weil sie uns zwingt, unseren eigenen Gedanken in einer neuen Verpackung zu begegnen.
Das vorliegende Buch zeigt diese Dynamik sehr schön, ohne sie jedoch explizit zu analysieren. Es arbeitet mit der Illusion eines philosophierenden Gegenübers. Der Leser erlebt diese Illusion als Echo seines eigenen Denkens und des Denkens des Autors.
In diesem Sinne ist das Buch bei genauer Betrachtung nicht weniger, sondern eigentlich mehr, als es vorgibt zu sein. Es zeigt nicht die philosophischen Fähigkeiten von KI, sondern ist vielmehr ein Beitrag dazu, wie wir Menschen auf KI reagieren und verdeutlicht so, wie Technik kulturell aufgeladen wird.
Meiner Ansicht nach dient dieses Buch dazu, die menschliche Lust an der Interaktion mit „Denkmaschinen“ sichtbar zu machen. Auf LinkedIn hat der Autor sich mit Blick auf das Buch dahingehend geäußert, dass ihm die Gespräche Spaß gemacht haben und er etwas Neues schaffen wollte. Das ist verständlich und in meinen Augen die ehrlichste Aussage dazu.
Bleibt nur noch eine Frage zu klären: Wie steht der Autor zu den Überlegungen in diesem Artikel. Allerdings kennen wir die Antwort, denn er hat sich auf LinkedIn entsprechend geäußert. Daraus lassen sich ein paar interessante Erkenntnisse gewinnen.
Der Autor behauptet, KILA kenne sich selbst am besten, weil weder Expertinnen noch Ingenieure wirklich wüssten, was in den neuronalen Schichten des Modells geschehe. Diese Behauptung klingt intuitiv sehr reizvoll und stimmt mit Blick auf den technischen Aspekt von KI.
Bezogen auf die Fähigkeit, philosophische Aussagen treffen zu können, ist die Behauptung aber nicht zutreffend. KI besitzt kein Selbst, das sie kennen könnte. Sie verfügt weder über ein Bewusstsein, noch über die Fähigkeit zur Selbstreflexion.
Was immer sie an „Selbstaussagen“ formuliert, ist die statistische Rekonstruktion von Texten, in denen Menschen beschrieben haben, wie sich ein „Selbst“ anfühlt.
Und auch wenn der Autor behauptet, dass die kreative Rekombinationsfähigkeit von KI dazu führt, dass sie originäres Denken produziert, ist das nicht unbedingt richtig. KI verfügt zwar tatsächlich über bemerkenswerte strukturelle Kompetenzen, die es ihr erlauben, neue Kohärenzen zu erzeugen.
Doch ihre „Kreativität“ entsteht nicht aus eigener Absicht, sondern als Nebenprodukt ihrer Struktur und damit nicht aus geistiger Eigenständigkeit, sondern aus Musterverarbeitung.
Sein drittes Argument schließlich, dass in die Antworten von KILA seine – also die des Autors – eigenen Ziele, Gedanken und Stilelemente einflößen, ist dagegen sachlich, also technisch und menschlich, völlig korrekt.
Jedoch zeigt gerade dieses Argument, dass sogar dem Autor die eigentliche Natur philosophierender KI gerade klar ist: Sie spiegelt den Menschen, der mit ihr interagiert. Sie ist Reflexionsfläche, nicht Reflexionssubjekt.
Dass ein entsprechendes Gespräch Spaß machen kann, ist unbestritten und bildet wahrscheinlich den authentischsten Teil seiner Äußerungen. Doch aus Freude an der Interaktion lässt sich nicht gleich ableiten, dass die Maschine ein eigenes Denken entwickelt. Und damit fehlt die Basis für die Ausgangssituation des Buches.
Was folgt aus alldem? Dass eine Künstliche Intelligenz in der Lage ist, philosophische „Gedanken“ zu entwickeln und zu äußern, ist eine Illusion, eine insbesondere menschlich nachvollziehbare.
Die Gespräche in dem Buch „Wenn die KI zu flirten beginnt“ sind damit letztendlich ein ästhetisches Spiel mit einer Maschine, die philosophische Muster reproduzieren kann. Das ist nicht schlimm oder wertlos. Es ist aber eben auch nicht mehr.
Der Wert des Buches liegt meiner Ansicht nach somit nicht darin, ob die KI denkt, sondern darin, was mit dem Leser geschieht, wenn er so tut, als würde KI denken können. Die wahre philosophische Frage sollte daher nicht lauten: „Was denkt die KI?“, sondern: „Warum sind wir geneigt, in Antworten von KI solche Arten von Antworten zu sehen, die mehr über KI aussagen als über uns?“.
Folglich bringt KI Menschen zum Philosophieren, und das ist letztendlich vielleicht die eigentliche Pointe — und die eigentliche Zukunft solcher Experimente. Wenn KI zu flirten beginnt, flirten wir letztlich mit der Möglichkeit, unser eigenes Denken in einer neuen Form zu erleben.
Dieser Beitrag enthält Affiliate-Links, für die wir eine kleine Provision erhalten. Das hat jedoch keinen Einfluss auf die inhaltliche Gestaltung unserer Beiträge.
Auch interessant:
Der Beitrag KI-Dialoge: Warum Künstliche Intelligenz klüger wirkt, als sie ist erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Der Beitrag Aus Angst vor Google: OpenAI ruft Code Red aus erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.
![]()
OpenAI-Chef Sam Altman hat Berichten zufolge unternehmensintern den Code Red ausgerufen. Da Google mit seinem neuen KI-Modell Gemini 3 massiv aufgeholt hat, wurden die Mitarbeiter des Unternehmens offenbar angewiesen, alles stehen und liegen zu lassen, um ChatGPT konkurrenzfähiger zu machen. Eine kommentierende Analyse.
Sam Altman hat den Alarmknopf gedrückt. Die massiven Fortschritte, die Google mit seinem neuen KI-Modell Gemini 3 gemacht hat, scheinen den OpenAI-Chef zu beunruhigen. Laut der internen Memo hat er seine Belegschaft deshalb angewiesen, sprichwörtlich alles stehen und liegen zu lassen, um ChatGPT zu verbessern.
Die geplante Werbeoffensive sowie weitere Shopping-Funktionen scheinen damit vorerst auf Eis gelegt. Denn Altman sieht offenbar die Kernkompetenz von OpenAI bedroht: eine KI, die die Konkurrenz überragt. Ganz unschuldig ist das Unternehmen an der Aufholjagd der Konkurrenz aber nicht.
OpenAI hatte sich zuletzt in immer mehr und immer kleinteiligeren Funktionen verloren, um es allen Nutzern recht zu machen – eine Strategie, die zum Scheitern verurteilt ist. Denn Studien haben bereits gezeigt, dass bestimmte Anpassungen wie etwa emotionalere Ansprachen, die Fehleranfälligkeit erhöhen.
Womöglich haben Sam Altman und Co. sich aber auch selbst überschätzt und die Konkurrenz unterschätzt. Doch auch der Code Red könnte nach hinten losgehen. OpenAI will offenbar noch im Dezember 2025 ein neues Reasoning-Modell präsentieren, um Gemini 3 Paroli zu bieten. Ein Schnellschuss, der nach hinten losgehen könnte.
Gemini 3 ist noch jung. Google wird dem KI-Modell in den kommenden Wochen und Monaten deshalb vermutlich weitere Neuankündigungen folgen lassen. Zwar sind ChatGPT und OpenAI noch die alles überragenden Namen in der KI-Branche. Doch seit Gemini 3 scheinen immer mehr Nutzer zu Google abzuwandern.
Der Vorteil: Von eigenen KI-Chips, seiner Cloud-Infrastruktur bis hin zu Vertriebskanälen wie Android, Chrome und seiner Suche kontrolliert Google eine in sich geschlossene Wertschöpfungskette. Der Kurswechsel von OpenAI kommt zu einem Zeitpunkt, an dem der KI-Markt ohnehin an Schärfe gewinnt. Stichwort: Blase.
Dass Google noch vor drei Jahren den Code Red ausrief, weil ChatGPT den Markt überrollte, wirkt wie eine Ironie des Schicksals. Denn mittlerweile zittert Jäger OpenAI vor dem Gejagten Google. Gemini meldete kürzlich etwa einen Zuwachs auf 650 Millionen monatlich aktive Nutzer.
OpenAI zählt zwar 850 Millionen, doch die Spanne wird kleiner. Das Unternehmen hat mit seinem Code Red deshalb ein klares Signal gesetzt. Die Qualität und Effizienz von ChatGPT wird zwar Ressourcen binden, die es eigentlich braucht, um profitabel zu werden. Doch die KI-Technologie an sich wird letztlich entscheidend sein, um Nutzer und Einnahmen zu binden.
Auch interessant:
Der Beitrag Aus Angst vor Google: OpenAI ruft Code Red aus erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.






Der Beitrag Shopping Research: ChatGPT wird zum Kaufberater erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.
![]()
OpenAI hat eine Shopping-Funktion für ChatGPT eingeführt. Nutzer sollen über Shopping Research zu ihren Anfragen Produktempfehlungen in Form von Bildkacheln angezeigt bekommen – inklusive Bewertungen, Preisen und entsprechenden Beschreibungen. Eine kommentierende Analyse.
Ob Werbeanzeigen, App-Integrationen oder Produktempfehlungen: ChatGPT rückt immer mehr von einer offenen Wissenswelt hin zu einer kommerziellen Realität. Diese Entwicklung ist zwar nachvollziehbar, da sich OpenAI schließlich irgendwie finanzieren muss.
Doch die Kommerzialisierung schreitet so rasant voran, dass die anfängliche Magie verpuffen könnte. Zwar haben KI-Halluzinationen den Hype um ChatGPT bereits ein Stück weit eingezäumt.
Doch die Kapitalismus-Offensive könnte scheitern, da OpenAI inhaltliche Fehler bislang nicht in den Griff bekommen hat. In der Theorie mag Shopping Research zwar für viele Nutzer äußerst praktisch sein.
Aber die Funktion zeigt nur Websites, die OpenAI Zugriff gewähren. Amazon dürfte aufgrund von Crawling-Blockaden nicht dazugehören. Resultat könnte ein Shopping-Berater sein, der große Auswahl verspricht, aber eine kuratierte Realität abbildet, in der einige lauter schreien dürfen als andere.
Shopping Research bedroht einerseits das Geschäftsmodell von Website-Betreibern, die Produktvergleiche oder Produkttests durchführen und über Affiliate-Links Provisionen erhalten. Da ChatGPT direkt an Händler weiterleitet, könnten solche Formate an Bedeutung verlieren.
Andererseits könnten viele Online-Shops an Sichtbarkeit verlieren, wenn ChatGPT sie – aus welchen Gründen auch immer – nicht berücksichtigt. Wie bei der fehlerhaften Ausgabe von Antworten könnten KI-Halluzinationen etwa das Shopping-Erlebnis verfälschen.
Noch ist deshalb fraglich, ob die Funktion wirklich eine ausgewogene Alternative zu anderen Vergleichen oder Produktempfehlungen darstellt. Die Intention von OpenAI dürfte aber klar sein, denn: Das Unternehmen benötigt dringend Einnahmen, da man bislang keinen Gewinn macht.
Auch interessant:
Der Beitrag Shopping Research: ChatGPT wird zum Kaufberater erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

