Normale Ansicht

Received yesterday — 04. Dezember 2025

KI-Dialoge: Warum Künstliche Intelligenz klüger wirkt, als sie ist

04. Dezember 2025 um 13:30

Der Beitrag KI-Dialoge: Warum Künstliche Intelligenz klüger wirkt, als sie ist erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Ki Dialog Künstliche Intelligenz klug

Was passiert eigentlich, wenn KI über die großen Fragen des Lebens reflektiert? Entsteht dann ein neuer, nicht-menschlicher Blick auf die Welt? Oder schauen wir in einen Spiegel unserer eigenen Gedanken? Was KI-Dialoge wirklich über uns verraten und warum Künstliche Intelligenz klüger wirkt, als sie ist: eine Auseinandersetzung. 

In seinem Buch „Wenn die KI zu flirten beginnt“ lässt Autor Klaus-Ulrich Moeller eine Künstliche Intelligenz namens „KILA“ über Themen sprechen, die von alltäglichen Ritualen bis zu großen Menschheitsfragen reichen. Aber ist das eigentlich möglich, können solche Gespräche von KI geleistet werden? In dieser Kolumne möchte ich diesem spannenden Thema auf den Grund gehen.

Die eigentliche Faszination an der Frage, ob man mit einer KI über philosophische Themen diskutieren kann, besteht meiner Ansicht nach gerade nicht darin, dass und wie sie über diese Themen reflektiert. Vielmehr liegt sie darin, dass wir Fragesteller eigentlich uns fragen müssen, wer hier wirklich philosophiert: Die KI oder der Mensch, der sie bedient und interpretiert.

KI-Dialoge: Warum die Idee einer „philosophierenden KI“ so verführerisch ist

Die Idee, dass KI philosophieren könne, ist verführerisch. Seit die Technologie in Form von LLMs, also „Großen Sprachmodellen“, in der Lage sind, verblüffend reflektierte und manchmal sogar tiefgründige Texte zu formulieren, liegt es nahe, sie als Gesprächspartner zu betrachten, die mehr tun als nur Antworten zu generieren.

Wir lesen im Rahmen von Antworten von LLMs Äußerungen, die fragen, deuten und abstrahieren. Damit unterscheiden sie sich auf den ersten Blick kaum von menschlichen Reflexionen.

Doch Philosophie ist weit mehr als die Fähigkeit, elegante Sätze aneinanderzureihen. Sie setzt die Fähigkeit zur Selbstbeobachtung voraus, zur Reflexion über eigene Motive, zur Abwägung von Werten und zur Analyse von Erfahrungen. Philosophie entsteht also dort, wo ein Bewusstsein auf sich selbst blickt und zwischen eigenen Vorstellungen und der Welt unterscheidet.

Wir Menschen mit Bewusstsein können das. Eine KI besitzt jedoch weder Bewusstsein noch Erfahrung, noch Intention. Sie besitzt keine Geschichte, keine Subjektivität, kein inneres Erleben. Und dennoch kann sie Worte produzieren, die all dies imitieren. Und genau das macht das Thema so spannend und meiner Ansicht nach so verführerisch.

Wie KI wirklich „denkt“ und warum das philosophisch relevant ist

Was KI-Philosophie eigentlich ist, zeigt ein Blick auf die Technologie dahinter. Moderne Sprachmodelle funktionieren, vereinfacht gesagt, durch das Erkennen von Mustern in gewaltigen Textmengen, also durch statistische Optimierung der wahrscheinlichsten nächsten Worte und durch die Fähigkeit zur in sich schlüssigen Rekombination bekannter Argumentationsstrukturen.

KI erzeugt also nichts Neues, sondern rekombiniert – um im Bereich der Philosophie zu bleiben – philosophische Muster, die in den Trainingsdaten enthalten sind. Das bedeutet nicht, dass die Ergebnisse im Bereich philosophischer Fragen wertlos wären.

Im Gegenteil: Sie können inspirierend, überraschend und intellektuell anregend sein, weil sie vertraute Fragmente in ungewohnten Konstellationen verknüpfen. Doch sie sind nicht originär im philosophischen Sinn. Es ist somit nur eine Art Philosophie – mit Wirkung, aber ohne Bewusstsein.

Das Buch als literarisches Labor: KI im Dialogformat

Dennoch präsentiert sich vor diesem Hintergrund das Buch „Wenn die KI zu flirten beginnt“ als wirklich interessantes literarisches Experiment. Es will gar nicht beweisen, dass KI denken kann, und es will dazu oder in diesem Kontext auch keine technische Analyse bieten.

Das Konzept des Buches, die Gespräche des Autors mit der KI KILA wiederzugeben, lebt vielmehr von der Frage: Wie klingt es, wenn eine KI scheinbar wie ein Mensch über die großen Fragen des Lebens nachdenkt?

Die Dialogform erzeugt dabei eine gewisse Intimität, eine spielerische Nähe und damit einen Eindruck von Vertrautheit. Der Autor erschafft in seinem Werk eine Bühne, auf der die KI wie ein Gesprächspartner agiert, der neugierig, empathisch und reflektiert wirkt. Der Reiz des Buches liegt also weniger in dessen theoretischem Inhalt, sondern in der Form des gemeinsamen Denkens: in einem Gespräch, das vertraut erscheint.

Die wahre Illusion: Warum KI weiser wirkt, als sie ist

Das Buch erreicht damit etwas Bemerkenswertes: Es lädt zum Nachdenken ein, ohne selbst eine klare philosophische Position einzunehmen. Es ist weder Fachliteratur noch wissenschaftliche Reflexion, sondern eine performative Erkundung der Frage, was geschieht, wenn wir der KI erlauben, an einem humanen Diskurs teilzunehmen. Und das ist für sich nicht wenig.

Die Gefahr des Buches liegt dann aber in der Interpretation dieser Erkundung. Denn die Form der Darstellung erzeugt leicht die Illusion, dass KI, in diesem Fall in Form von KILA, eine eigenständige Stimme besitze, die aus sich heraus reflektiert.

Tatsächlich aber wird der Leser „nur“ Zeuge einer literarisch gestalteten Projektion: Die KI spiegelt die Muster menschlicher Sprache und die Impulse des Autors wider. Sie wirkt autonom, obwohl sie es nicht ist. Sie wirkt reflektiert, obwohl sie lediglich rekombiniert. Und sie wirkt selbstständig, obwohl sie strukturell abhängig von menschlichen Daten und menschlichen Eingaben bleibt.

Warum der Mensch im KI-Dialog eigentlich mit sich selbst spricht

Gerade in dieser paradoxen Konstellation liegt die eigentliche Leistung — und die Grenze — philosophierender KI, und damit die Stärke dieses Buches. KI ist keine Maschine des Denkens, sondern eine Maschine der Textproduktion. Und trotzdem kann sie als Katalysator für menschliches Denken dienen.

Was immer die KI sagt, stammt letztlich aus dem Zusammenspiel von Trainingsdaten, Eingaben und Gesprächsverlauf. Sie ist ein Spiegel des Nutzers, in dem nicht nur reflektiert, sondern die Reflexion zugleich strukturiert und neu sortiert wird.

Dadurch entstehen manchmal überraschende Einsichten. Die kommen aber nicht zustande, weil die KI selbst auf Neues kommt, sondern weil sie uns zwingt, unseren eigenen Gedanken in einer neuen Verpackung zu begegnen.

Das vorliegende Buch zeigt diese Dynamik sehr schön, ohne sie jedoch explizit zu analysieren. Es arbeitet mit der Illusion eines philosophierenden Gegenübers. Der Leser erlebt diese Illusion als Echo seines eigenen Denkens und des Denkens des Autors.

KI-Dialog: Mehr ästhetisches Experiment als philosophische Offenbarung

In diesem Sinne ist das Buch bei genauer Betrachtung nicht weniger, sondern eigentlich mehr, als es vorgibt zu sein. Es zeigt nicht die philosophischen Fähigkeiten von KI, sondern ist vielmehr ein Beitrag dazu, wie wir Menschen auf KI reagieren und verdeutlicht so, wie Technik kulturell aufgeladen wird.

Meiner Ansicht nach dient dieses Buch dazu, die menschliche Lust an der Interaktion mit „Denkmaschinen“ sichtbar zu machen. Auf LinkedIn hat der Autor sich mit Blick auf das Buch dahingehend geäußert, dass ihm die Gespräche Spaß gemacht haben und er etwas Neues schaffen wollte. Das ist verständlich und in meinen Augen die ehrlichste Aussage dazu.

Bleibt nur noch eine Frage zu klären: Wie steht der Autor zu den Überlegungen in diesem Artikel. Allerdings kennen wir die Antwort, denn er hat sich auf LinkedIn entsprechend geäußert. Daraus lassen sich ein paar interessante Erkenntnisse gewinnen.

Die Verteidigung des Autors und warum sie philosophisch wackelt

Der Autor behauptet, KILA kenne sich selbst am besten, weil weder Expertinnen noch Ingenieure wirklich wüssten, was in den neuronalen Schichten des Modells geschehe. Diese Behauptung klingt intuitiv sehr reizvoll und stimmt mit Blick auf den technischen Aspekt von KI.

Bezogen auf die Fähigkeit, philosophische Aussagen treffen zu können, ist die Behauptung aber nicht zutreffend. KI besitzt kein Selbst, das sie kennen könnte. Sie verfügt weder über ein Bewusstsein, noch über die Fähigkeit zur Selbstreflexion.

Was immer sie an „Selbstaussagen“ formuliert, ist die statistische Rekonstruktion von Texten, in denen Menschen beschrieben haben, wie sich ein „Selbst“ anfühlt.

Und auch wenn der Autor behauptet, dass die kreative Rekombinationsfähigkeit von KI dazu führt, dass sie originäres Denken produziert, ist das nicht unbedingt richtig. KI verfügt zwar tatsächlich über bemerkenswerte strukturelle Kompetenzen, die es ihr erlauben, neue Kohärenzen zu erzeugen.

KI: Reflexionsfläche, nicht Reflexionssubjekt

Doch ihre „Kreativität“ entsteht nicht aus eigener Absicht, sondern als Nebenprodukt ihrer Struktur und damit nicht aus geistiger Eigenständigkeit, sondern aus Musterverarbeitung.

Sein drittes Argument schließlich, dass in die Antworten von KILA seine – also die des Autors – eigenen Ziele, Gedanken und Stilelemente einflößen, ist dagegen sachlich, also technisch und menschlich, völlig korrekt.

Jedoch zeigt gerade dieses Argument, dass sogar dem Autor die eigentliche Natur philosophierender KI gerade klar ist: Sie spiegelt den Menschen, der mit ihr interagiert. Sie ist Reflexionsfläche, nicht Reflexionssubjekt.

Dass ein entsprechendes Gespräch Spaß machen kann, ist unbestritten und bildet wahrscheinlich den authentischsten Teil seiner Äußerungen. Doch aus Freude an der Interaktion lässt sich nicht gleich ableiten, dass die Maschine ein eigenes Denken entwickelt. Und damit fehlt die Basis für die Ausgangssituation des Buches.

Fazit: Die KI philosophiert nicht — aber sie bringt uns zum Philosophieren

Was folgt aus alldem? Dass eine Künstliche Intelligenz in der Lage ist, philosophische „Gedanken“ zu entwickeln und zu äußern, ist eine Illusion, eine insbesondere menschlich nachvollziehbare.

Die Gespräche in dem Buch „Wenn die KI zu flirten beginnt“ sind damit letztendlich ein ästhetisches Spiel mit einer Maschine, die philosophische Muster reproduzieren kann. Das ist nicht schlimm oder wertlos. Es ist aber eben auch nicht mehr.

Der Wert des Buches liegt meiner Ansicht nach somit nicht darin, ob die KI denkt, sondern darin, was mit dem Leser geschieht, wenn er so tut, als würde KI denken können. Die wahre philosophische Frage sollte daher nicht lauten: „Was denkt die KI?“, sondern: „Warum sind wir geneigt, in Antworten von KI solche Arten von Antworten zu sehen, die mehr über KI aussagen als über uns?“.

Folglich bringt KI Menschen zum Philosophieren, und das ist letztendlich vielleicht die eigentliche Pointe — und die eigentliche Zukunft solcher Experimente. Wenn KI zu flirten beginnt, flirten wir letztlich mit der Möglichkeit, unser eigenes Denken in einer neuen Form zu erleben.

Dieser Beitrag enthält Affiliate-Links, für die wir eine kleine Provision erhalten. Das hat jedoch keinen Einfluss auf die inhaltliche Gestaltung unserer Beiträge.

Auch interessant: 

Der Beitrag KI-Dialoge: Warum Künstliche Intelligenz klüger wirkt, als sie ist erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Received before yesterday

KI-Agenten werden Unternehmen verändern – aber anders als gedacht

26. November 2025 um 13:30

Der Beitrag KI-Agenten werden Unternehmen verändern – aber anders als gedacht erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI-Agenten Unternehmen

KI-Agenten werden 2026 als „digitale Belegschaft“ in Unternehmen Arbeitsschritte planen, Tools nutzen, auf Daten zugreifen und weitgehend selbständig handeln. Was dabei kaum berücksichtigt wird: Es müssen sich völlig neue Organisationsrollen rund um Agenten bilden. Eine Einschätzung.

Wenn bisher von Automatisierung mit KI-Agenten gesprochen wurde, lag der Fokus dabei meist auf dem Menschen als Nutzer:innen: Letztentscheidungen und Steuerungen sollen immer beim Menschen verbleiben.

Ich denke, das wird sich 2026 ändern. Unternehmen werden ihre Unternehmensprozesse nicht mehr primär für menschliche User, sondern zunehmend für eine Art „digitale Hybridbelegschaft“ aus Menschen und KI-Agenten bauen.

Dabei werden in den Prozessen Agenten so berücksichtigt, dass diese selbstständig Workflows orchestrieren, Entscheidungen vorbereiten oder sogar treffen können – mit allen Elementen, die bisher rein menschlichen Teams vorbehalten waren.

KI-Agenten werden damit zu dauerhaften, adressierbaren Einheiten, die man wie menschliche Kolleg:innen ansprechen kann – mit Aufgaben, Zielen und Verantwortlichkeiten.

KI-Agenten: Neue Rollen für eine agentische Organisation

Wenn aber tatsächlich KI-Agenten als digitale Mitarbeiter:innen agieren sollen, dann braucht es dazu Menschen, die diese „Teams“ gestalten, steuern und verantworten, woraus sich völlig neue Rollen für solche Angestellte ergeben, beispielsweise als AI-Orchestrator:innen, AI-Governance-Architekt:innen, Datenqualitäts-Kurator:innen oder Business-Process-Agent-Designer.

Menschen in diesen Rollen werden die Prozesse, die für eine Einbindung von Agenten benötigt werden, neu definieren und das Verhalten der Agenten entsprechend im laufenden Betrieb überwachen.

Damit verschieben sich aber auch Verantwortlichkeiten: Wer entscheidet über die Ziele eines KI-Agenten? Wer legt fest, wann dieser gestoppt werden muss?

Und wer bewertet, ob das Verhalten desAgenten noch im Rahmen der Unternehmenswerte liegt? Genau hier entstehen neue Führungsaufgaben für Führungskräfte und Prozessverantwortliche.

Märkte, in denen Agenten mit Agenten verhandeln

Wenn KI-Agenten immer mehr Aufgaben übernehmen, dann wird sich auch die Ansprache neu ausrichten. Heute richten Unternehmen ihre Marken, Websites und Angebote an menschlichen Kund:innen aus.

Doch je verstärkt Agenten Einkaufsentscheidungen vorbereiten oder sogar treffen, desto stärker werden Veränderungen erforderlich. Marketing-Teams werden lernen müssen, nicht nur Menschen, sondern auch KI-Agenten anzusprechen.

Auf vielen Plattformen wird es dabei zunehmend Systeme geben, die direkt mit anderen Agenten kommunizieren. Die bisherige „Customer Journey“ wird somit verstärkt zu einem KI-Agenten-Protokoll.

Erfolgreich werden meiner Ansicht nach diejenigen Unternehmen, die früh damit beginnen, ihre Produkte so zu beschreiben, zu standardisieren und mit Triggern zu versehen, dass KI-Agenten sie zuverlässig finden, verstehen und einordnen können.

Emergenz und Schwarmverhalten: Wenn das System mehr wird als die Summe seiner Agenten

Dabei sollte einem Aspekt ein besonderes Augenmerk geschenkt werden, nämlich dem sog. „emergenten Verhalten“ von Multi-Agenten-Systemen. Damit sind komplexe, neuartige Muster oder kollektive Fähigkeiten gemeint, die aus dem Zusammenspiel vieler einzelner Agenten entstehen, obwohl sie keinem dieser Agenten explizit einprogrammiert wurden. Dieses Verhalten, nicht direkt geplant, ergibt sich aus der Dynamik der Interaktionen von KI-Agenten.

Das ist nicht zwangsläufig gefährlich, aber es ist neu und verlangt von Unternehmen ein neues Denken und Vorgehen. Wurde bisher KI als klar abgrenzbares „System“ gesehen, muss in einem Team aus Dutzenden oder Hunderten Agenten nicht nur die einzelne Einheit funktionieren, sondern auch ihre Interaktionen mit anderen KI-Agenten.

Koordinationsfehler, Endlosschleifen, Prioritätenkonflikte oder sogenannte „Koalitionen“ von Agenten, die unbeabsichtigt eine bestimmte, identische Strategie verfolgen, sind dabei ein paar der möglicherweise auftretenden Probleme.

Agentenmanagement in Unternehmen ist somit nicht nur eine Frage des „richtigen Tools“, sondern eine Frage der unternehmerischen Agentenarchitektur zur Vermeidung riskanter Interaktionseffekte von KI-Agenten.

Vollautonome KI-Agenten als Ziel?

Wenn man nun bedenkt, dass wir uns mit KI-Agenten auf ein völlig neues Terrain begeben, ohne sowohl die Risiken von einzeln agierenden als auch von gemeinsam agierenden Agenten erfassen oder absehen zu können, dann müssen wir uns eine Frage stellen: Wollen wir wirklich zum jetzigen Zeitpunkt schon vollautonome Agenten entwickeln?

Denn je größer der Handlungsspielraum solcher Agentensysteme ist und je wenig absehbar die Risiken dabei sind, desto schwerer lassen sich eben diese Risiken wie Missbrauch, Zielverschiebung oder unerwartete Nebenwirkungen kontrollieren.

Was passiert beispielsweise, wenn KI-Agenten unerwartet Dateien löschen, Daten verschieben oder Konfigurationen verändern, weil die gestellten Vorgaben zu unpräzise oder die Systemgrenzen zu schwach definiert waren?

Begrenzte Autonomie statt unbegrenztes Risiko

Schon heute ist, wie ich aus eigener Beobachtung sagen kann, das Problem in Unternehmen das Abbilden von Prozessen in einer Art und Weise, dass diese Prozesse von einem KI-Agenten übernommen werden können.

Was passiert denn, wenn diese ungenau erfassten Prozesse einem Agenten übergeben werden? Governance und Risikomanagement müssen erst entwickelt und implementiert werden, bevor eine Übergabe von Aufgaben an KI-Agenten erfolgt.

Wichtig ist mir an dieser Stelle zu erwähnen: Mir geht es nicht darum zu proklamieren, dass der Einsatz von KI-Agenten auf immer und ewig zu gefährlich ist. Das kann ich gar nicht absehen, wie niemand sonst auch.

Was ich aber sage ist, dass es derzeit erst einmal darum gehen sollte, KI-Agenten mit einer Art „begrenzten Autonomie“ auszustatten, basierend auf klar umrissenen Aufgaben mit entsprechenden Eingangs- und Ausgangsbedingungen, definierten Stopp-Kriterien und nachvollziehbaren, überprüfbaren Entscheidungswegen. So können die Mitarbeitenden den Umgang und die Risiken von Agenten besser verstehen und einordnen.

KI-Verordnung als Gestaltungsrahmen

Und noch etwas sollte bedacht werden: 2026 tritt die vollständige Anwendung der KI-Verordnung der Europäischen Union in Kraft, mit entsprechenden Pflichten, Leitlinien und Strukturvorgaben für den Einsatz von Künstlicher Intelligenz in Unternehmen.

Dieser regulatorische Rahmen wird oft als Bürde, als überzogene Einschränkung und Bremsmechanismus gesehen. Und ja, man kann über den Sinn und Unsinn der Inhalte der KI-Verordnung streiten – muss man sogar.

Mit Blick auf KI-Agenten könnte man aber auch sagen: die KI-Verordnung bietet Orientierung für gute Prozessgestaltung. Denn wer Agenten so baut, dass Entscheidungen nachvollziehbar sind, Datenflüsse dokumentiert werden, Risiken systematisch bewertet und Kontrollpunkte definiert sind (was die Idee hinter den Regelungen der KI-Verordnung ist), erfüllt nicht nur Pflichten, sondern schafft Vertrauen bei Kund:innen, Mitarbeiter:innen und Partner:innen.

Vision 2026+: Gemischte Teams aus Menschen und Agenten

Blicken wir auf 2026 und über dieses Jahr hinaus, dann kann man erahnen, dass der Einsatz von KI-Agenten weit über reine Produktivitätszuwächse hinausgehen wird.

Wenn KI-Agenten zunehmend eigenständiger werden, wenn neue Rollen für ihre Gestaltung und Überwachung entstehen und wenn Multi-Agenten-Systeme zu einer Art digitalem Betriebssystem für Unternehmensprozesse werden, dann verschiebt sich die Frage, wie wir Unternehmen mit einer digitalen Hybridbelegschaft überhaupt definieren.

Für Unternehmen könnte das bedeuten, sich nicht nur zu fragen, welche Jobs durch den Einsatz von KI-Agenten wegfallen könnten, sondern zu beginnen, ihre Unternehmensorganisation aktiv um diese neuen Möglichkeiten herum zu gestalten.

Welche Aufgaben sollten bewusst beim Menschen bleiben, weil sie Urteilsvermögen, Kreativität, soziale Kommunikation oder echte Verantwortung erfordern? Welche Aufgaben lassen sich so strukturieren, dass Agenten sie zuverlässig übernehmen können?

Und wie sieht Führung aus, wenn ein Teil des Teams keine Menschen, sondern Systeme sind, die trotzdem Ziele, Regeln und Feedback brauchen?

KI-Agenten als Spiegel für Strukturen

Wird über den Einsatz von KI-Agenten diskutiert, dann geht es meistens um schnellere Prozesse, weniger Routinearbeit, bessere Daten. Mindestens genauso wichtig sind jedoch die Fragen, die Agenten an uns zurückspiegeln: Wie organisieren wir Verantwortung in Systemen, in denen Entscheidungen nicht mehr nur von Menschen getroffen werden?

Welche Rollen, Fähigkeiten und interne wie externe Regulierungen brauchen wir, um Agenten sinnvoll zu führen und robuste, vertrauenswürdige agentische Systeme aufzubauen?

2026 wird nicht das Jahr werden, in dem KI-Agenten Menschen ersetzen. Ich denke vielmehr, es wird das Jahr werden, in dem Unternehmen lernen, mit ihnen zusammenzuarbeiten.

Wer jetzt beginnt, eine Art unternehmerisches Agenten-System zu entwerfen, mit klaren Prinzipien für begrenzte Autonomie, Verantwortlichkeiten, Strukturen und Überwachung, verschafft sich einen Vorsprung, der über KI-Agenten als simple Werkzeuge hinausgeht.

Denn die eigentliche strategische Ressource der nächsten Jahre ist nicht der nächste Agent selbst, sondern die Fähigkeit, ihn sinnvoll und nutzbringend in die Unternehmensprozesse einzubetten.

Auch interessant: 

Der Beitrag KI-Agenten werden Unternehmen verändern – aber anders als gedacht erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Sollten wir KI als Rechtsperson behandeln?

18. November 2025 um 13:37

Der Beitrag Sollten wir KI als Rechtsperson behandeln? erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI Rechtsperson, Jura, Gesetz, Recht, Deutschland, Rechtssystem, Künstliche Intelligenz

Künstliche Intelligenz (KI) übernimmt komplexe Aufgaben oft schneller und präziser als Menschen. Das führt zur Kernfrage: Ist der Status als einfaches Werkzeug noch zeitgemäß? Ob die KI als Rechtsperson behandelt werden sollte, damit sie selbst Verträge schließen und haften kann – eine Auseinandersetzung. 

Künstliche Intelligenz (KI) schreibt Texte, analysiert Daten und trifft Entscheidungen – regelmäßig schneller, präziser und unbeirrter als Menschen. Wenn KI doch aber so viel kann, warum behandeln wir sie rechtlich dann immer noch nur wie ein einfaches Werkzeug?

Was ich damit meine ist: Warum ist KI eigentlich kein Rechtssubjekt mit eigener Rechtspersönlichkeit, das selbst Verträge schließen und haften kann und damit Träger oder Adressat von Rechten und Pflichten wäre?

KI und die Frage der Rechtsperson

Es überrascht nicht, dass diese Idee inzwischen sogar in wissenschaftlichen Aufsätzen durchdacht wird, denn KI-Systeme übernehmen zunehmend Aufgaben, die bislang Menschen vorbehalten waren.

Es ist also naheliegend zu überlegen, ob KI nicht rechtlich gesehen „menschenähnlich“, also als eine Person im rechtlichen Sinne, einzustufen ist. Bevor wir jedoch vorschnell „Warum nicht?“ rufen, sollten wir uns fragen, was Rechtsperson im Kern eigentlich bedeutet – und ob es tatsächlich sinnvoll wäre, KI damit auszustatten.

Juristische Personen: Ein menschliches Konstrukt

Rechtspersonen sind gemacht von Menschen. KI zur Rechtsperson zu machen ist gar nicht so abwegig, denn ähnliche Konstrukte gibt es schon, wie die GmbH oder den Verein. Eine GmbH ist dabei natürlich keine echte Person, die fühlt oder denkt. Wir betrachten sie als sogenannte „juristische Person“, indem wir sie gesetzlich zu einer „Person“ erklären.

Dadurch erhält eine GmbH Handlungsfähigkeit, also beispielsweise die Fähigkeit, Vermögen zu besitzen, zu haften und über ihre Organe wie den Geschäftsführer einen „juristischen Willen“ zu äußern.

Sie ist damit ein rechtliches Konstrukt, eine Organisationsform, ein Gefäß, in das Menschen ihre wirtschaftlichen Interessen einfüllen und so ihr menschliches Handeln strukturieren und bündeln.

Daraus ergibt sich die verlockende Frage: Wenn wir einer GmbH per Gesetz Rechtspersönlichkeit geben können, warum nicht auch einer KI? Ich will schon einmal meinen Ansatz vorwegnehmen: Eine GmbH ist eine Organisation von Menschen. KI dagegen ist ein technisches System, das durch Menschen geschaffen und kontrolliert wird.

Brauchen wir eine KI-Rechtsperson?

Um ein Bild zu nutzen: Eine GmbH ist wie ein Schiff, eine KI dagegen eines der Werkzeuge an Bord. Diese Unterscheidung ist meiner Ansicht nach zentral, wenn wir darüber nachdenken, ob KI eine „Rechtsperson“ werden könnte.

Die Debatte dreht sich nämlich gar nicht darum, ob KI „menschenähnlich“ sei. Das ist sie nicht. KI ist ein komplexes Wahrscheinlichkeitsberechnungsprogramm ohne eigene Intention.

Entscheidend ist vielmehr eine andere Frage, nämlich: Brauchen wir KI als Rechtsperson, um ein tatsächlich bestehendes Problem besser zu lösen als ohne ein solches Konstrukt? Die Antwort wäre dann „Ja.“, wenn wir zwingend antworten müssten: Ohne KI als juristische Person bekommen wir bestimmte Konstellationen und Situationen nicht effizient geregelt.

Solange die Antwort auf diese Frage aber „Nein“ lautet, wäre eine KI-Rechtsperson vor allem ein Experiment mit ungewissem Ausgang – eines, das eine neue Komplexität erzeugen würde, ohne bestehende Probleme tatsächlich zu lösen.

KI als Rechtsperson: Grenzen des bestehenden Rahmens

Es mag vielleicht überraschen, aber mit den meisten KI-Anwendungen können wir anhand des bestehenden rechtlichen Ordnungsrahmens gut umgehen. Wenn ein Sprachmodell (LLM) zum Beispiel fehlerhafte Ergebnisse erzeugt, haftet nicht die KI, sondern der Erzeuger oder Verwender, je nach Rolle und Verantwortungsbereich.

Ähnliches gilt beispielsweise bei technischen Assistenzsystemen in einem Auto: Fehler lösen Haftungsfragen bei Fahrer oder Hersteller aus, nicht bei der KI selbst. Das System bleibt ein Werkzeug, und das Recht behandelt es als solches. Jetzt darf man natürlich nicht übersehen, dass wir uns auf Szenarien zubewegen, in denen diese klaren Zuordnungen schwieriger werden.

Zukünftige Haftungsprobleme autonomer Systeme

Autonome Drohnenflotten beispielsweise planen selbständig Lieferwege, KI-Agenten handeln im Millisekundentakt Strom- oder Emissionszertifikate und Smart-City-Systeme verarbeiten Milliarden an Sensordaten ohne menschliches Zutun.

Wer verursacht welche Schäden? Damit sind nicht die KI-Systeme gemeint, sondern die hinter den Systemen stehenden Nutzer – und wer haftet wofür? Was passiert, wenn autonome KI-Systeme einander beeinflussen oder unvorhersehbare Kaskadeneffekte auslösen?

Wer kann noch nachvollziehen und kontrollieren, wenn globale, vernetzte KI-Systeme Fehler erzeugen, die aufgrund ihrer Komplexität kaum noch verstanden werden? Es sind genau diese Grenzfälle, bei denen sich die Frage stellt, ob nicht KI mit eigener Rechtspersönlichkeit Nutzen bringen würde.

Voraussetzungen für eine legitime KI-Rechtsperson

Es ist ein leichtes, morgen ein Gesetz zu verabschieden, das bestimmte KI-Systeme zu juristischen Personen erklärt. Vertretbar wäre das jedoch meiner Ansicht nach nur, wenn mehrere grundlegende Bedingungen erfüllt wären.

1. Nachweis eines echten Regelungsdefizits 

Die erste und wichtigste Voraussetzung wäre ein echtes Regelungsdefizit. Es muss also Situationen geben, in denen wir mit den bestehenden Regelungen nicht mehr effizient weiterkommen.

Ich würde jedoch sagen, dass aktuell viel dafür spricht, dass eine Kombination aus klaren Betreiberpflichten, Dokumentationsstandards, Haftungsregeln und gegebenenfalls Pflichtversicherungen ausreicht oder zumindest so ausgebaut werden kann, dass die Schaffung einer neuen juristischen Person „KI“ nicht erforderlich ist.

2. Verbot vin KI als Haftungsschild

Zweitens darf eine KI-Rechtsperson nicht als eine Art „Haftungsschild“ dienen. Was meine ich damit? Schon heute hört man immer öfter den Satz: „Das hat unsere KI entschieden.“

Ein rechtlicher Personenstatus könnte diese Tendenz zur Verantwortungsauslagerung verstärken. Rechtspersönlichkeit darf aber nicht zur „Flucht“ aus der Verantwortung werden.

3. Transparenz, Kill-Switch und Abgrenzung zu moralischen Rechten 

Drittens müsste eine KI-Rechtsperson einer wirksamen Steuerung und Kontrolle unterliegen. Anders als bei einer GmbH oder einem Verein, deren Handeln über Organe gesteuert werden, wären KI-Systeme ohne klare technische und organisatorische Begrenzungen nicht geeignet, als Rechtssubjekte zu agieren.

Notwendig wären vollständige Überprüfbarkeit der Funktionsweise, Governance-Strukturen, umfassende Überwachung und insbesondere ein funktionierender „Kill-Switch“, also eine Funktion zum Ausschalten einer KI.

Das ist aber gar nicht gegeben (der Begriff dazu lautet „Black Box“), wie Wissenschaftler von Google oder Sam Altman von OpenAI schon zugegeben haben. Ohne diese Steuerung und Kontrolle wäre eine Integration von KI als Rechtsperson in das bestehende Rechtssystem riskant oder sogar unmöglich.

4. Klare Trennlinie zwischen juristischen und moralischen Rechten von KI 

Schließlich, und da bewegen wir uns weg von einer rechtlichen Argumentation, müsste eine klare Abgrenzung zu „moralischen Rechten“ bestehen. Wenn KI mit Rechtspersönlichkeit versehen wird, dann muss klar sein, dass es nicht um Würde, Empfindungsfähigkeit oder menschenähnliche Rechte geht.

Sonst verwischen notwendige Grenzen und die gesellschaftliche Erwartungshaltung verschiebt sich in eine falsche Richtung. Das ist bei einer GmbH oder einem Verein noch einleuchtend. Bei einer KI, insbesondere einem LLM, das ähnlich wie ein Mensch antwortet, wird diese Ansicht schon schwieriger.

KIA: Eine KI-Rechtsperson als Gedankenexperiment

Wenn wir nun dennoch einmal annehmen, wir wollten KI mit Rechtspersönlichkeit ausstatten und sie damit selbst zum Träger und Adressaten von Rechten und Pflichten machen, dann stellt sich die Frage, wie diese Umsetzung aussehen könnte. Um dieses Gedankenexperiment greifbarer zu machen nenne ich diese Form von KI „KI-Agenteneinheit (KIA)“.

Eine KIA könnte klagen, verklagt werden und Vermögen halten. Gegründet würden sie durch Menschen oder Unternehmen, die die KI-Systeme als technischen Funktionskern bereitstellen. Es müsste eine menschliche Geschäftsführung geben, die überwacht, kontrolliert und letztlich verantwortlich bleibt.

Die KIA dürfte nur innerhalb eines eng definierten, satzungsmäßigen Rahmens autonom handeln. Sie wäre selbst Haftungsträgerin. Deshalb müsste Kapital hinter ihr stehen oder eine Pflichtversicherung. Missbräuchliche Konstruktionen würden zu Durchgriffshaftung führen, sodass Menschen trotz der KIA-Struktur nicht aus ihrer Verantwortung entlassen werden.

Ein solches Modell hätte auf den ersten Blick Vorteile. Es gäbe gesetzlich klar geregelte Verantwortungsstrukturen, ein Haftungsregime, einen eindeutigen Ansprechpartner für Geschädigte und ein standardisiertes Modell für autonome, hochskalierte KI-Systeme.

Ein Beispiel wäre die schon oben genannte autonome Lieferdrohnen-Flotte. Statt einer unübersichtlichen Kette von Verantwortlichen würde eine KIA als Vertragspartner und Haftungsträger auftreten. Die KI steuert technisch, die KIA haftet rechtlich, und die menschlichen Organe überwachen den Betrieb.

Fehlender zwingender Mehrwert und erhöhte Komplexität 

Dennoch fehlt mir die zwingende Antwort auf die Frage, welchen Mehrwert eine solche Konstruktion bringt. Für die meisten bestehenden KI-Systeme gilt: Die Technologien sind steuerbar, Risiken sind bekannt, Verantwortlichkeiten können geklärt werden, Versicherungen können greifen und Betreiber haften. Eine KI-Rechtsperson würde diesen Zustand eben nicht automatisch verbessern.

Sie würde ihn eher komplizierter machen: zusätzliche Regulierung, neue Aufsichtsstrukturen, neue Versicherungsfragen und insgesamt mehr Unsicherheit.

Und noch ein letzter Punkt sollte nicht übersehen werden, nämlich die Frage nach der Verschiebung von Verantwortung. Wenn KI personifiziert wird, dann fällt es leichter, Verantwortung nach außen, an KI, abzugeben. Eine juristische Person darf nicht dafür verwendet werden, Handlungen von menschlichen Akteuren zu verstecken.

Fazit: KI als Rechtsperson ist derzeit die falsche Antwort

Künstliche Intelligenz zur Rechtsperson zu machen, ist – dessen bin ich mir bewusst – ein faszinierender Gedanke. Er zeigt, wie sehr KI unsere Vorstellung von Verantwortung, Organisation und Haftung herausfordert.

Und er zwingt uns, die richtigen Fragen zu stellen: Wo stoßen wir mit heutigen Rechtsmodellen an Grenzen? Wie verhindern wir die Delegation von Verantwortung an Maschinen? Wie organisieren wir Haftung im KI-Zeitalter?

Meiner Ansicht nach jedoch wäre eine KI-Rechtsperson heute die falsche Antwort. Wir sollten zuerst klären, ob und welchen realen Mehrwert eine solche Rechtspersönlichkeit hat.

Ich will nicht ausschließen, dass eine juristische Person „KI“ eines Tages sinnvoll werden könnte, wenn die Umstände solch ein Konstrukt erfordern. Das Recht hat sich schon immer an sich verändernde Gegebenheiten angepasst.

Bis dahin jedoch sollte gelten: Ob KI eine Rechtsperson werden kann oder sollte, ist gar nicht entscheidend. Wichtiger ist vielmehr die Diskussion darüber, ob dies uns Menschen tatsächlich Vorteile bringt und ob wir damit Verantwortung verschieben, anstatt klar festzulegen, wer sie zu tragen hat.

Auch interessant:

Der Beitrag Sollten wir KI als Rechtsperson behandeln? erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

KI-Agenten: Wenn Künstliche Intelligenz selbstständig handelt

10. November 2025 um 15:00

Der Beitrag KI-Agenten: Wenn Künstliche Intelligenz selbstständig handelt erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI-Agenten

KI-Agenten markieren die nächste Entwicklungsstufe Künstlicher Intelligenz. Während Sprachmodelle wie ChatGPT vor allem auf Eingaben reagieren, treffen agentische KI-Systeme zunehmend eigene Entscheidungen und führen konkrete Handlungen aus. Mit dem Potenzial wächst auch die Verantwortung.


Seit knapp drei Jahren steht die Welt unter dem Eindruck generativer KI. Chatbots schreiben Texte, entwerfen Kampagnen, analysieren Verträge und entlasten Wissensarbeiter weltweit. Nun folgt der nächste Schritt, die KI-Agenten.

Was sind KI-Agenten?

KI-Agenten sind quasi die nächste Entwicklungsstufe, denn es handelt sich um KI-Systeme, die nicht nur Antworten geben, sondern Ziele verfolgen und diese eigenständig erreichen. Sie buchen beispielsweise Termine, prüfen Rechnungen, gleichen Daten ab oder erstellen Berichte – und lernen dabei, Abläufe zu optimieren.

Diese Fähigkeit zur Handlung ist das entscheidende Merkmal, das einen Agenten von einem „normalen“ Large Language Modell (LLM) unterscheidet: Große Sprachmodelle wie GPT-5 von OpenAI oder Llama von Meta können formulieren, argumentieren und kontextualisieren. Allerdings brauchen sie stets menschlichen Input.

KI-Agenten hingegen werden selbst aktiv. Sie erkennen selbstständig, wann ein Schritt abgeschlossen ist, und entscheiden, was als Nächstes zu tun ist. Damit verschiebt sich der Fokus weg von der reinen Antwortmaschine hin zu einem handelnden System, das nicht mehr nur reagiert, sondern agiert.

KI-Agenten: Vom Sprachmodell zum handelnden System

Die technische Grundlage für agentische KI bleibt dabei weiterhin ein LLM. Es liefert über die Kombination von Trainingsdaten, Algorithmus und Deep Learning das Verständnis, die Logik und die semantische Intelligenz. Doch erst die Kombination mit zusätzlichen Komponenten macht daraus einen echten KI-Agenten.

Diese Komponenten sind insbesondere Speicherfunktionen, mit denen das System langfristige Zusammenhänge behält, Schnittstellen zu anderen Anwendungen, über die es Aufgaben ausführt, und Kontrollmechanismen, die festlegen, wann menschliche Eingriffe erforderlich sind.

Man kann sich ein agentisches KI-System tatsächlich wie ein Gehirn mit Armen und Beinen vorstellen: Das LLM denkt, plant, formuliert und überwacht, während die angeschlossenen Tools handeln.

Über sogenannte „Actions“ greift ein Agent also auf Anwendungen zu, ein übergeordneter „Orchestrator“ überwacht, ob die einzelnen Schritte korrekt ausgeführt werden, und greift ein, wenn Abweichungen auftreten. So entstehen komplexe Abläufe, die bisher manuelle Arbeit erforderten, nun aber automatisiert und dokumentiert ablaufen.

Der entscheidende Punkt ist dabei die Zielorientierung: KI-Agenten verfolgen ein übergeordnetes Ziel, nicht nur eine einzelne Aufgabe. Sie erkennen Hindernisse, planen Alternativen und bewerten Zwischenergebnisse. Diese Art von Selbstorganisation ist der Grund, weshalb von einer neuen Generation der KI gesprochen wird.

GPTs: Die Brücke zwischen Assistenz und Autonomie

Ein besonders greifbares Beispiel für den Übergang von klassischer zu agentischer KI sind die sogenannten GPTs – also individuell anpassbare Versionen von ChatGPT (es gibt diese Art von „kleinen Agenten“ auch, teilweise unter anderem Namen, von anderen Anbietern).

User können hier eigene, auf spezifische Situationen zugeschnittene Instruktionen hinterlegen, internes Wissen in Form von Dateien hinzufügen oder externe Schnittstellen anbinden. So entsteht ein spezialisiertes KI-Modell, das auf bestimmte Themen oder Prozesse zugeschnitten ist – etwa Vertragsprüfung, Telefontraining oder Marketinganalyse.

Doch diese GPTs sind keine eigenständigen KI-Agenten. Sie besitzen kein dauerhaftes Gedächtnis, keine eigenständige Handlungslogik und keine echte Autonomie. Sie arbeiten reaktiv: Eine Eingabe löst eine Antwort aus.

Erst wenn sie durch zusätzliche Module erweitert werden, die ihnen Planung, Zugriff auf externe Systeme und iterative Entscheidungsprozesse ermöglichen, überschreiten sie die Schwelle zur echten Agentik. GPTs sind also eine Form erweiterter KI-Werkzeuge und bleiben somit (nur) Teil der Übergangsphase von LLMs zu KI-Agenten.

Wo KI-Agenten heute schon Realität werden

Die ersten produktiven Einsatzfelder entstehen dort, wo Aufgaben klar strukturiert und wiederholbar sind. Im Kundenservice etwa übernehmen KI-Agenten bereits heute komplette Vorgänge: Sie analysieren Anfragen, prüfen Vertragsdaten, schlagen Lösungen und bereiten Gutschriften vor und dokumentieren Vorgänge. Der Mensch wird dort eingebunden, wo es relevant ist, beispielsweise bei finalen Entscheidungen sowie bei mehrdeutigen oder außerordentlichen Fällen.

Auch im Backoffice-Bereich finden sich Einsatzmöglichkeiten. KI-Agenten vervollständigen beispielsweise Stammdaten, gleichen Rechnungen mit Bestellungen ab oder generieren Berichte, die früher erst in zeitraubender Abstimmung zwischen verschiedenen Abteilungen entstanden.

Im Finanz- und Compliance-Bereich wiederum prüfen KI-Agenten Transaktionen, erkennen Muster und Anomalien und erstellen Prüfberichte – eine Arbeit, die in menschlicher Hand oft Tage dauern würde.

Governance, Sicherheit und Vertrauen

Mit der wachsenden Autonomie wächst auch das Risiko. Ein KI-Agent, der selbständig Aktivitäten ausführen, also handeln darf, kann ebenso wie ein Mensch Fehler begehen. Fehlkonfigurationen, unklare Berechtigungen und Anweisungen oder unzureichende Sicherheitsvorkehrungen können schwerwiegende Folgen haben – von unbeabsichtigten Systemänderungen bis hin zu Datenschutzverstößen.

KI-Agenten sollten deshalb im Grunde wie Mitarbeitende behandelt werden. Sie benötigen Identitäten, Rollen, Rechte, Protokolle und Aufsicht. Das heißt konkret: Jeder Agent sollte nur auf die Systeme zugreifen dürfen, die er für seine Aufgaben tatsächlich braucht. Aktionen müssen dabei protokolliert und nachvollziehbar, Freigaben klar definiert sein.

Hinzu kommt der rechtliche Rahmen. Der EU-Artificial Intelligence-Act, die sogenannte KI-Verordnung, wird in den kommenden Monaten auch für agentische KI-Systeme relevant. Transparenzpflichten, Risikoanalysen und Dokumentationsanforderungen gelten nicht nur für sichtbare KI-Ergebnisse wie Texte oder Bilder, sondern ebenso für interne Agenten-Architekturen.

Die Kunst der kleinen Schritte

Wie bei jeder neuen komplexen Technologie sollte auch bei agentischer KI bedacht werden, dass sich diese nicht von heute auf morgen einführen lässt. Viele Pilotprojekte scheitern daran, dass Unternehmen zu groß denken und insbesondere die Mitarbeitenden nicht mitnehmen.

Aufgrund der Auswirkungen auf bestehende Prozesse und der teilweisen Veränderungsresistenz von Angestellten – sei es aus Angst, fehlender Fachkenntnis oder Desinteresse – ist es empfehlenswert, mit überschaubaren, aber messbaren Prozessen zu starten – etwa mit einem Reklamationsablauf, einem Angebotsworkflow oder einer wiederkehrenden Berichtserstellung.

Entscheidend ist, dass der Nutzen klar definiert und erkennbar wird. Denn sonst wird ein KI-Agent nur ein weiteres Werkzeug sein, welches den Menschen Zeit und Nerven kostet.

Im Grunde muss sich ein funktionierender Agent bewähren wie ein neuer Mitarbeiter in der Probezeit. Erst wenn seine Ergebnisse belastbar sind, lohnt sich die Skalierung auf weitere Prozesse. Dieses schrittweise Vorgehen schafft Vertrauen und verhindert, dass die Technologie an überzogenen Erwartungen scheitert.

Fazit: KI-Agenten führen lernen

Agentische KI markiert den Übergang von der assistierenden zur handelnden Künstlichen Intelligenz. Der Unterschied zwischen einem Chatbot, der Fragen beantwortet, und einem Agenten, der Aufgaben erledigt, ist dabei der Unterschied zwischen Information und Handlung.

Wer KI-Agenten einsetzt, sollte sie wie Teammitglieder behandeln. Sie brauchen also ein Ziel, eine Aufgabe, klare Befugnisse und regelmäßiges Feedback. Wer hier an Führung denkt, liegt in meinen Augen nicht falsch. Letztendlich ist „Agentenmanagement“ Führungsarbeit.

Wer früh lernt, KI-Agenten in Strukturen als Unterstützung von menschlicher Tätigkeit einzubinden, sie zu überwachen und weiterzuentwickeln, wird nicht nur effizienter, sondern auch resilienter in einer Wirtschaft, in der Maschinen beginnen, wirklich zu handeln.

Auch interessant: 

Der Beitrag KI-Agenten: Wenn Künstliche Intelligenz selbstständig handelt erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Wegen KI: Warum wir Demokratie neu denken müssen

29. Oktober 2025 um 15:00

Der Beitrag Wegen KI: Warum wir Demokratie neu denken müssen erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI Demokratie, Kolumne, Politik, Künstliche Intelligenz, Antizipatorische Demokratie, Gesellschaft, Gesellschaftssystem

Künstliche Intelligenz verändert Märkte, Gesellschaften und damit Macht. Sie zwingt Demokratien, schneller und strategischer zu handeln als je zuvor. Wenn KI lernfähiger wird, muss auch die Demokratie lernfähig werden. Könnte antizipatorische Demokratie helfen?

Weltweit steht längst nicht mehr die Frage im Raum, ob künstliche Intelligenz (KI) unsere Gesellschaft verändert, sondern wie schnell und in welchem Umfang. Davon sind auch demokratische Prozesse betroffen.

KI und Demokratie: Rechtlicher Rahmen und antizipatorische Ansätze

Um damit umzugehen, wurden inzwischen mehrere rechtliche „Rahmen“ geschaffen, unter anderem die „KI-Verordnung“ der Europäischen Union, die „AI Principles“ der OECD und die „Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law“ des Council of Europe. Insbesondere letzterer zielt darauf ab, KI-Gestaltung zum Schutz von Demokratie und Rechtsstaatlichkeit zu verankern.

Demokratie war auch in der Vergangenheit kein starres Konzept, sondern hat sich stets angepasst. Vor dem Hintergrund der enormen Entwicklungen von KI stellt sich die Frage, wie Demokratie relevant bleiben kann. Eine Idee ist die sogenannte antizipatorische Demokratie.

Der Begriff bedeutet, langfristige Planung, evidenzbasiertes Handeln und die Beteiligung von Bürgerinnen und Bürgern tiefer in demokratische Prozesse einzubetten – gerade weil KI Wandel beschleunigt und politische Reaktionen zunehmend hinterherhinken könnten.

Definition: Was ist antizipatorische Demokratie?

Antizipatorische Demokratie beschreibt eine Staats- und Regierungsweise, in der systematische Vorausschau, strukturierte Beteiligung von Stakeholdern und lernende Steuerung in die demokratischen Entscheidungsprozesse eingebunden sind.

Hintergrund für diese Idee ist, dass reaktives Handeln nicht mehr ausreicht, wenn KI fast in Echtzeit gesellschaftliche Dynamiken beeinflussen. Antizipatorische Demokratie verlangt deshalb, heute schon Wirkungen von morgen zu denken, beispielsweise:

  • Welche politischen Entscheidungen haben welche Nebeneffekte?
  • Welche Technologien könnten unser demokratisches System tangieren?
  • Welche Risiken entstehen durch KI-gestützte Desinformation oder öffentlicher Debatten, die durch Algorithmen automatisiert werden?
  • Wie kann demokratische Legitimität gesichert bleiben, wenn KI-Systeme Entscheidungsvorschläge generieren oder öffentliche Meinungsräume beeinflussen?

Im Kern geht es darum, politische Prozesse, beispielsweise Gesetzgebungsverfahren, zukunftsfähiger zu machen – nicht durch „eine“ zusätzliche Technologie, sondern durch eine neue Art des Regierens mit Blick auf Geschwindigkeit, Komplexität und Ungewissheit.

Herkunft und Entwicklung

Die Idee der antizipatorischen Demokratie ist nicht neu, sondern reicht zurück in die 1970er Jahre. Damals schon haben Zukunftsforscher wie Alvin Toffler (in dem Buch „Future Shock“) und Clement Bezold sich dafür eingesetzt, Bürgerinnen und Bürger nicht nur als Reagierende, sondern als Mitgestaltende von Zukunft zu denken. Die Idee dahinter lautete: Demokratie müsse längerfristig denken und insbesondere technisch-gesellschaftliche Entwicklungen einbeziehen.

Seit den 1990er und 2000er Jahren wurden deshalb schon in verschiedenen Staaten sogenannte „Foresight-Programme“ etabliert: in Finnland mit dem „Committee for the Future“, im Vereinigten Königreich durch das Foresight Office der Regierung oder auch regional in verschiedenen durch Bürgerbeteiligungsformate. Auch in Deutschland werden Überlegungen über die Zukunft angestellt, beispielsweise von der Stiftung Wissenschaft und Politik.

Durch den Übergang zum digitalen Zeitalter und mit dem Aufkommen von KI-Modellen wie den „Large Language Models“ (LLMs), mit denen die Öffentlichkeit einen vorher nicht gekannten Zugriff auf aufbereitete Informationen bekam, erhielt dieser Ansatz des „neuen Denkens von Zukunft“ neue Relevanz: KI verändert nämlich nicht nur einzelne Politikfelder, sondern ganze Regierungssysteme.

Wirkung von antizipatorischer Demokratie im KI-Zeitalter

Angesichts der Beschleunigung von Gestaltungsprozessen durch KI kommt es meiner Ansicht nach auf drei Dimensionen an. Die erste ist die institutionalisierte Vorausschau. Regierungen und Parlamente als Orte staatlicher Entscheidungen benötigen Foresight-Institutionen, die Trends, Risiken und Chancen insbesondere von KI-Entwicklungen frühzeitig aufgreifen, beobachten und in strategische Überlegungen überführen:

  • Wie verändert etwa generative KI die öffentliche Debatte?
  • Wie beeinflusst sie Arbeitsmärkte?
  • Wie verändert sie Legitimitätsrahmen?

Die zweite Dimension ist die der kollektiven Intelligenz. Gremien von Bürgerinnen und Bürgern, digitale Deliberation (also Beteiligung von Bürgerinnen und Bürgern an Diskussionen mittels digitaler Plattformen) und multiprofessionelle Expertengremien können helfen, nicht nur technische Fakten, sondern wert- und gesellschaftsbezogene Fragen („Was wollen wir als Gesellschaft?“) in den Vordergrund zu rücken – gerade wenn KI Entscheidungsräume erweitert.

Die dritte Dimension ist die des iterativen Regierens. KI-gestützte Szenarien-Analysen, Pilotprojekte („Reallabore“ bzw. „Sandkastensysteme“) und Sammeln von Nachweisen ermöglichen es, Entscheidungen nicht als statisch und unveränderlich zu begreifen, sondern als eine Art „atmende“ Hypothesen, die getestet, bewertet und angepasst werden.

In dem Zusammenspiel dieser drei Dimensionen wird antizipatorische Demokratie zur Antwort auf die Geschwindigkeit und Komplexität, die durch KI entstehen, weil sie politisches Agieren und Regieren proaktiver, reflexiver und adaptiver macht.

Chancen eines neuen Demokratieverständnisses

Ich denke, es ist klar geworden: Antizipatorische Demokratie bietet spannende Chancen für Gesellschaften, weil durch sie angesichts von KI-beschleunigten Umbrüchen Warnsignale früher erkannt, Handlungsspielräume erweitert und die Beteiligung von Bürgerinnen und Bürgern an demokratischen Prozessen verstärkt werden können.

In der Folge kann sie Vertrauen in Institutionen und den Staat selbst stärken, wenn Politik transparent macht, mit welchen Annahmen, Modellen und Unsicherheiten sie arbeitet. Das ist gerade in einer Zeit wichtig, in der KI öffentliche Meinungsräume wie Social Media-Kanäle, Datenflüsse und algorithmische Filter tangiert.

Grenzen antizipatorischer Demokratie

Allerdings bestehen auch Grenzen, die man nicht außer Acht lassen sollte. Wenn die Vorausschau von Ereignissen allein von Expertinnen und Experten bestimmt wird und so politische Debatten ersetzt, verliert die Demokratie ihre echte Beteiligung. Sie wird vielmehr zur bloßen Hülle.

Und wenn KI-Ergebnisse ohne öffentliche und ethische Diskussion übernommen werden, droht sich die politische Entscheidung von ihrer demokratischen Legitimation zu lösen. Zudem erfordert antizipatorisches Regieren institutionelle und technologische Anpassungen wie Dateninfrastruktur, methodische Vielfalt, Kompetenzaufbau.

Und schließlich sollte noch eines bedacht werden: Geschwindigkeit darf nicht dazu führen, dass Beteiligung, Kontrolle und Transparenz auf der Strecke bleiben. Diese Grenzen sind nicht unüberwindlich – aber sie müssen gekannt und adressiert werden.

KI und Demokratie: Der Blick nach vorn

Ich halte antizipatorische Demokratie für eine Idee, die es wert ist weiter zu verfolgen. Denn eines wird immer deutlicher: Die bisherigen Ansätze für Mitentscheidung, auch in der parlamentarischen Demokratie der Bundesrepublik Deutschland verfügen nicht über die Geschwindigkeit, die inzwischen durch den Einsatz von KI erforderlich ist.

Auf der anderen Seite ist antizipatorische Demokratie kein Ersatz für die bestehende demokratische Ordnung, sondern vielmehr deren Erweiterung im KI-Zeitalter. Sie stellt nicht die Frage, ob KI gesellschaftlich relevant ist – das ist vielmehr Voraussetzung -, sondern wie demokratische Systeme auf diese Relevanz reagieren sollten. Wer heute gestaltet, trägt Verantwortung – nicht nur für das Jetzt, sondern für das Morgen.

Durch den von KI verursachten Wandel braucht Demokratie nicht nur Reaktionsfähigkeit, sondern auch Voraussicht in Form von lernender Steuerung. In diesem Sinne wird antizipatorische Demokratie zu einem Upgrade der derzeitigen Ordnung. Sie verbindet dann nämlich politische Verantwortung mit wissenschaftlicher Reflexion, Mitwirkung mit Strategie und Zukunftsdenken mit Beteiligung.

Auch interessant: 

Der Beitrag Wegen KI: Warum wir Demokratie neu denken müssen erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Warum Deutschland ein „Betriebssystem Staat“ braucht

30. September 2025 um 15:00

Der Beitrag Warum Deutschland ein „Betriebssystem Staat“ braucht erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Betriebssystem Staat, Deutschland, Digitalpolitik, Digitalisierung, Ministerium, Regierung, Kolumne

In Deutschland ist die Digitalisierung öffentlicher Dienstleistungen oft kompliziert. Zuständige Behörden und Ressorts sind stark verteilt und zersplittert. Unterschiedliche Ziele, separate Budgets und verschiedene Zeitpläne verstärken das Durcheinander. Warum wir ein „Betriebssystem Staat“ brauchen – eine Einschätzung.

Wer heute in Deutschland etwas scheinbar Simples digital erledigen will—eine Firma gründen, eine Genehmigung beantragen, eine digitale Identität nutzen—landet oft bei einer Vielzahl an zuständigen öffentlichen Stellen.

Dies hat System: Die Zuständigkeiten für Digitalthemen sind bei den deutschen Behörden zersplittert und über Ressorts verstreut. Darüber hinaus haben sie widersprüchliche Ziele, getrennte Budgets und eigene Zeitplänen. Genau das jedoch bremst uns sichtbar, messbar, täglich.

Diese Zersplitterung ist nicht bloß ein Verwaltungsdetail, sondern der zentrale Strukturfehler der deutschen Digitalpolitik. Sie erzeugt Reibungsverluste, macht Projekte teuer und langsam, schwächt Sicherheit, vergrault Talent und lässt Innovation schließlich dort versanden, wo sie am dringendsten gebraucht würde: in der Verwaltungspraxis selbst.

Digitaler Staat: Was genau ist im aktuellen „Betriebssystem“ zersplittert?

Digitalisierung ist kein Politikfeld, sondern vielmehr eine Querschnittsaufgabe. Das bedeutet, dass die Folgen der Digitalisierung viele Themen betreffen und mit ihr sich viele Ministerien beschäftigen müssen. Genau daran jedoch scheitern klassische Strukturen.

Identität und IT-Sicherheit liegen traditionell beim Innenministerium, digitale Infrastruktur und Netzausbau beim Verkehrsministerium. Datenökonomie, Plattformregeln und Förderprogramme beim Wirtschafts- beziehungsweise Forschungsministerium.

FinTech-Schnittstellen und Steuerschnittstellen liegen beim Finanzministerium. Hinzu kommen EU-Vorgaben, der IT-Planungsrat mit Bund-Länder-Aufgaben und eine Vergabepraxis, die jedes Vorhaben in eigene Beschaffungszyklen zwingt.

Das Ergebnis ist Mehrfacharbeit: unterschiedliche Datenmodelle, inkompatible Schnittstellen, parallele Projektteams, die an ähnlich klingenden, aber nicht kompatiblen Lösungen bauen. Was später interoperabel sein soll, muss vorher interoperabel gedacht werden. Genau das passiert aber nicht.

Was sind die Ursachen dieser Zersplitterung

Die Ursachen für diese beschriebene Zersplitterung digitaler Zuständigkeiten in Deutschland liegen in einer Mischung aus politischer Logik, föderaler Struktur und verwaltungsinternen Routinen.

Das Ressortprinzip beispielsweise sorgt dafür, dass Ministerien ihre Erfolge verteidigen, anstatt Kompetenzen abzugeben – Machtverzicht wird als Schwäche verstanden, weshalb lieber neue Referate gegründet als Zuständigkeiten gebündelt werden.

Verstärkt wird dieses Problem durch einen Föderalismus, der zwar Vielfalt ermöglicht, im Digitalen jedoch ohne verbindliche Plattformstandards zu einem teuren und langsamen Flickenteppich führt.

Und auch das Haushalts- und Vergaberecht trägt seinen Teil bei: Statt langfristiger Produktbudgets und flexibler Beschaffungsmechanismen dominieren kurzfristige Projekte und Einzelvergaben, die eher Stückwerk als stabile Lösungen hervorbringen.

Hinzu kommt dann noch die strukturelle Logik von Projekten, die nach dem Rollout enden. Damit fehlt die kontinuierliche Verantwortung für Pflege, Anpassung und Nutzerorientierung. Schließlich blockiert eine tief verankerte Risikokultur den Fortschritt.

Wie das aktuelle „Betriebssystem Staat“ Fortschritt bremst und Kosten treibt

Weil formale Fehler härter sanktioniert werden als funktionales Scheitern, werden Entscheidungen oft verschleppt oder ganz vermieden. Zusammen bilden diese Faktoren ein System, das Innovation ausbremst und digitale Entwicklungen unnötig fragmentiert.

Die Folgen sind langsame, teure und frustrierende Prozesse, die auch noch Unsicherheiten schaffen beziehungsweise fördern – und gravierende Konsequenzen haben: Statt reibungsloser Abläufe entstehen lange Verzögerungen, weil fehlende Standards zu Übersetzungsfehlern und Notlösungen führen, die Prozesse für Bürgerinnen und Bürger wie Verwaltung gleichermaßen erschweren.

Parallel dazu explodieren die Kosten: Wenn jede Stelle ihre eigene Lösung einkauft und betreibt, vervielfachen sich Aufwand und Ausgaben für Schulung, Wartung und Betrieb, ohne dass Synergien genutzt werden.

Gefahr für die digitale Sicherheit

Besonders gravierend sind die Sicherheitsrisiken, denn eine fragmentierte IT-Landschaft mit unterschiedlichen Patch-Zyklen und Verteidigungsniveaus ist deutlich anfälliger für Angriffe.

Auch die Personalfrage spitzt sich inzwischen zu: Talente, die in der digitalen Welt Klarheit und Wirkung suchen, wenden sich ab, wenn sie in endlosen Abstimmungen über Kompetenzen gefangen sind.

Und schließlich entsteht für Bürgerinnen, Bürger und Unternehmen Unübersichtlichkeit, wenn je nach Ressort oder Bundesland andere Portale, Accounts und Formate genutzt werden müssen.

Warum ein Ministerium mit Namen „Digital“ allein nicht ausreicht

Nun ist es ja so, dass es in Deutschland auf Bundesebene inzwischen ein Ministerium gibt, welches „Digitalministerium“ heißt. Alleine „Digital“ im Namen zu haben reicht aber nicht aus, solange es keine Durchgriffsrechte und Budgethoheit betreffend elementare Kernthemen hat.

Identität, Zahlungen, Daten und Protokolle, Messaging, Logging und Monitoring, Basis-UI-Standards: Insbesondere ohne Durchgriffsrechte bleibt jedes Ministerium und Ressort frei, „sein“ Digital neu zu erfinden—und genau das ist das Problem. Wir brauchen kein Etikett, wir brauchen ein „Betriebssystem Staat“.

Grundlagen für ein „Betriebssystem Staat“

Die Grundlage für ein funktionierendes staatliches „Betriebssystem“ liegt darin, aus lauter einzelnen Projekten endlich dauerhafte „Produkte“, also Angebote für die Bürgerinnen und Bürger zu machen.

Dazu gehört, dass zentrale digitale Bereiche wie Identitäten, Zahlungen oder Unternehmensportale nicht mehr alle paar Jahre neu erfunden werden, sondern wie feste „Bausteine“ des Betriebssystems behandelt werden, die kontinuierlich weiterentwickelt und gepflegt werden.

Damit das klappt, braucht es klare Verantwortlichkeiten und auch die Möglichkeit, Vorhaben zu stoppen, wenn sie nicht den gemeinsamen Standards entsprechen. Nur so lässt sich verhindern, dass jedes Ressort oder jedes Bundesland wieder eigene Sonderwege geht.

Wichtig ist außerdem ein gemeinsamer technischer Unterbau, eine Art „Digital-Stack“ mit verbindlichen Grundelementen für Identität, Datenmodelle, sichere Kommunikation und Sicherheit. Neue Software darf künftig nur beschafft werden, wenn sie sich an diese Regeln hält und offen genug ist, damit andere Behörden oder Länder sie ebenfalls nutzen können.

Finanziert werden sollte nicht mehr nach langen Wunschlisten von Funktionen, sondern nach messbaren Ergebnissen, zum Beispiel kürzeren Bearbeitungszeiten oder einer höheren Nutzung durch Bürgerinnen und Bürger.

Fazit: Wir brauchen weniger Chaos in der Digitalpolitik

Deutschland leidet bestimmt nicht an mangelnden Konzeptpapieren, sondern meiner Ansicht nach an fehlender Kohärenz. Die Zersplitterung der Digitalzuständigkeiten ist kein Zufall, sie ist ein Konstruktionsfehler.

Ein Digitalministerium, welches ich im Grundsatz für absolut essenziell halte (siehe dazu schon meine Forderung aus dem Jahr 2018), macht ohne Durchgriffsmöglichkeiten und Hoheit und Entscheidungsbefugnisse über Budgets keinen Sinn.

Was wir brauchen, ist ein verbindlicher Digital-Stack, produktorientierte Verantwortung, Ergebnis-basierte Budgets und klare Vetorechte gegen Insellösungen. Wenn wir das umsetzen, wird Digitalpolitik von der Schlagzeile zur Lieferdisziplin.

Dann müssen sich Bürgerinnen, Bürger und Unternehmen beziehungsweise Start-ups nicht mehr durch ein Labyrinth kämpfen—weil es keines mehr gibt. Genau das muss das Ziel sein.

Auch interessant:

Der Beitrag Warum Deutschland ein „Betriebssystem Staat“ braucht erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

❌