Normale Ansicht

Received yesterday — 07. April 2026BASIC thinking

Niantic baut mit Pokémon-Go-Daten KI-Karten für Roboter

07. April 2026 um 11:00

Der Beitrag Niantic baut mit Pokémon-Go-Daten KI-Karten für Roboter erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Niantic Spatial Gamification Roboter Datenmissbrauch Pokémon Go

Millionen Menschen jagten jahrelang virtuelle Pokémon durch echte Straßen. Was kaum jemand wusste: Dabei sammelten sie 30 Milliarden Bilder mit exakten Geodaten für ihren App-Entwickler Niantic. Das Unternehmen hat seine Spielesparte inzwischen verkauft und baut unter dem Namen Niantic Spatial KI-Karten für autonome Roboter.

Von Pokémon Go zu KI-Karten: Der Weg von Niantic Spatial

  • Am 6. Juli 2016 konnten Spieler in Deutschland erstmals selbst Pokémon sammeln. Alles, was dafür notwendig war: ein einigermaßen leistungsfähiges Smartphone mit Kamera und die App „Pokémon Go“ des Spieleentwicklers Niantic. Die Erinnerungen aus der eigenen Kindheit lockten Millionen Menschen über Jahre hinweg auf die Straßen dieser Welt – Downloads und Umsatzerlöse in Milliardenhöhe waren die Belohnung.
  • Begonnen hatte alles in den Geburtsstätten von Google in Kalifornien. Dort wurde Niantic Labs 2010 von John Hanke gegründet, ehe es 2015 im Zuge der Alphabet-Umstrukturierung eine eigenständige Firma wurde. Nach zehn überaus erfolgreichen Jahren folgt dann die überraschende Abspaltung: Niantic verkauft seine Spielesparte an Scopely für 3,5 Milliarden US-Dollar und verwandelt sich in ein Unternehmen zur digitalen Vermessung der Welt.
  • Unter neuem Namen konzentriert sich Niantic Spatial auf die Zusammenführung von Augmented Reality (AR) und Künstlicher Intelligenz (KI) in Form von Geodaten-Modellen – den sogenannten Large Geospatial Models (LGM). Dahinter verstecken sich Modelle, die mit Hilfe von KI Daten und Bilder mit exakten Koordinaten in der Welt verbinden. Sie übersetzen die physische Welt in eine maschinenlesbare Sprache.

Wurden Pokémon-Go-Spieler zu willfährigen Datensammlern?

Die Trainingsgrundlage für das LGM-System von Niantic Spatial sind nicht etwa frei verfügbare Aufzeichnungen. Nein, sie stammen von den unzähligen Pokémon-Go-Spielern. Laut eigenen Angaben verfügt Niantic Spatial über 30 Milliarden Bilder mit exakten Geodaten von Millionen von Standorten rund um den Globus. Diese Daten stammen direkt aus den AR-Scans von PokéStops und Arenen.

Durch diese Informationen erstellt Niantic Spatial eine intelligente 3D-Karte der Welt, die auch dort funktioniert, wo GPS-Tracking aufgrund von Reflexionen und Gebäuden an Präzision verliert. Die Echtwelt-Daten ermöglichen es Systemen, zentimetergenau vorherzusagen, wo sich ein Gegenstand befindet. Aufgrund der KI-Kombination ist das System darüber hinaus in der Lage, den Kontext auf den Bildern (Baum, Parkbank, Bordstein) zu erkennen und Gefahren so zu umgehen.

Wer sich jetzt denkt „Wollt ihr mich verarschen“, der ist wohl nicht allein. Unter dem Deckmantel von Pikachu, Taubsi und Glumanda wurden Milliarden Menschen zu willfährigen Datensammlern für eine KI-Firma umfunktioniert. Gewusst hat das offiziell natürlich niemand, weshalb man durchaus von einem gigantischen Datenmissbrauch sprechen könnte. Andererseits: Jeder Nutzer hat die AGB gelesen und damit der Datenerhebung und Verarbeitung zugestimmt. Selbst schuld – könnte man also auch sagen.

Stimmen

  • Am ersten Tag seines frisch aus der Taufe gehobenen Unternehmens sagte Niantic-Spatial-Chef John Hanke: „Obwohl Large Language Models (LLMs) für sich genommen revolutionär sind, findet der Großteil des menschlichen Lebens und wirtschaftlichen Handelns nach wie vor in der physischen Welt statt. Wir hatten bei der Entwicklung von Niantic das Glück, ein erstklassiges Forschungs- und Entwicklungsteam aufzubauen, einzigartige räumliche Modelle zu entwerfen und frühe Versionen unserer Technologie für Millionen von Menschen zugänglich zu machen. Jetzt sind wir bereit für die nächste Phase der KI-Revolution: den Sprung vom Bildschirm hinein in die reale Welt.“
  • Die rund 1.000 Last-Mile-Lieferroboter von Coco Robotics liefern Waren in fünf Städten aus. Die Firma von Mitbegründer und CEO Zack Rash hat im März 2026 eine Kooperation mit Niantic Spatial bekanntgegeben: „Die Entwicklungspartnerschaft verschafft uns verlässlichen Zugang zu Lokalisierungsdiensten, die die Navigation unserer Roboter weiter verbessern. Wir werden gemeinsam neue Wege erforschen, um Coco-Robotern ein noch höheres Maß an Sicherheit und Autonomie in jeder beliebigen Stadt zu ermöglichen.“
  • Drew Smith vergleicht in seinem unabhängigen Portal The Liberty Line die Arbeit von Niantic mit dem Lösen von ReCaptchas, deren Daten auch zum KI-Training verwendet wurden, und lässt seinem Unmut freien Lauf: „Wir sind die unbezahlten Forschungsassistenten. Die KI wird mit jeder Nutzung schlauer; das Unternehmen erfasst diese Interaktion, verbessert das Produkt und verkauft uns den Zugang dazu anschließend teuer über ein Abonnement-Modell zurück. Wir erstellen die Inhalte. Ihnen gehören die Inhalte. Sie trainieren die Modelle mit diesen Inhalten. Sie verkaufen uns die Modelle zurück. Wir zahlen.“

Physical AI: Warum Daten künftig noch wertvoller werden

Was können wir aus dieser einerseits so kuriosen und andererseits so überhaupt nicht kuriosen Geschichte lernen? Für uns Nutzer gilt: Wir müssen endlich aufhören, naiv-leichtgläubig wie ein neugeborenes Schaf durch die Welt zu stolpern. Es gibt keine lustige Spielerei im digitalen Kontext, bei der es wirklich um Spaß geht. Es geht immer um Daten und deine persönlichen Informationen – manchmal als Pokémon verkleidet und manchmal in Form von sprechenden Früchten.

Wenn wir die professionelle Brille aufsetzen, müssen wir festhalten, dass sich Niantic Spatial mit seinen detaillierten Karten aus Fußgängerzonen und Innenstädten rund um den Globus in eine herausragende Position gebracht hat. Das Zauberwort lautet: Physical AI.

Wenn immer mehr autonome Systeme – von humanoiden Robotern bis hin zu selbstfahrenden Autos – durch unsere Straßen laufen oder fahren, wird ein Google Maps für KI immer wichtiger. Und das ist genau das, was Niantic Spatial schon ist.

Ein schwacher Trost für uns: Vielleicht erkennen uns künftig KI-Roboter bei der Auslieferung unserer Amazon-Pakete und danken uns dafür, dass wir so fleißig Kilometer in Pokémon Go zurückgelegt haben.

Auch interessant: 

Der Beitrag Niantic baut mit Pokémon-Go-Daten KI-Karten für Roboter erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Warum die meisten Amazon-Agenturen scheitern und was gute Agenturen anders machen

07. April 2026 um 09:30

Der Beitrag Warum die meisten Amazon-Agenturen scheitern und was gute Agenturen anders machen erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Amazon-Agenturen

Der Markt für Amazon-Agenturen hat sich in den letzten Jahren vervielfacht. Wo vor fünf Jahren eine Handvoll spezialisierter Dienstleister stand, tummeln sich heute hunderte Anbieter, die Amazon-Sellern Wachstum, Umsatzsteigerung und optimierte Werbekampagnen versprechen. Die Einstiegshürde ist niedrig: ein paar Fallstudien auf der Website, ein Dashboard-Tool und ein Pitch-Deck mit beeindruckenden Prozentzahlen reichen oft aus, um Kunden zu gewinnen.

Das Problem: Viele dieser Agenturen liefern nicht. Seller zahlen monatlich vierstellige Retainer und bekommen dafür automatisierte Reports, generische Optimierungsvorschläge und Ansprechpartner, die sich mit dem eigenen Account kaum auskennen. Für Seller ist das ein Problem: Wie unterscheidet man eine Full-Service Amazon Agentur, die tatsächlich Performance liefert, von einer, die vor allem gut pitchen kann? Denn die Unterschiede zwischen guten und schlechten Agenturen sind erheblich, aber von außen nicht immer sofort erkennbar.

Was trennt also Agenturen, die echte Ergebnisse liefern, von solchen, die vor allem gut verkaufen können?

Das Kernproblem: Skalierung auf Kosten der Qualität

Die meisten Amazon-Agenturen starten mit einem kleinen Team und einer Handvoll Kunden. In dieser Phase ist die Betreuung oft tatsächlich gut. Der Gründer selbst sitzt an den Accounts, kennt jedes Produkt und optimiert Kampagnen händisch. Das funktioniert bei fünf Kunden. Bei fünfzig nicht mehr.

Der typische Wachstumspfad einer Agentur sieht so aus: Mehr Kunden bringen mehr Umsatz, also wird skaliert. Neue Account Manager werden eingestellt, oft mit wenig Amazon-Erfahrung. Die Betreuungsquote steigt von fünf auf fünfzehn, manchmal zwanzig Accounts pro Person. Um das zu bewältigen, werden Prozesse standardisiert und automatisiert. Klingt effizient, führt aber dazu, dass jeder Account die gleiche Behandlung bekommt, unabhängig von Produktkategorie, Wettbewerbsumfeld oder Wachstumsphase.

Das Ergebnis: Der Seller zahlt für individuelle Betreuung und bekommt standardisierte Massenabfertigung. Die Kampagnenstruktur ist bei jedem Kunden identisch, die Optimierung beschränkt sich auf wöchentliche Bid-Anpassungen nach Schema und der strategische Input fehlt komplett.

Warnsignal Nummer eins: Intransparenz bei Daten und Ergebnissen

Gute Agenturen arbeiten transparent. Das klingt selbstverständlich, ist es aber nicht. Ein häufiges Muster bei schwachen Agenturen: Der Seller hat keinen direkten Zugang zu seinen Werbekonten. Stattdessen bekommt er monatlich ein PDF mit ausgewählten Kennzahlen, die isoliert betrachtet positiv aussehen. ACoS gesunken? Steht im Report. Dass gleichzeitig der Umsatz eingebrochen ist, weil die Agentur profitable Keywords pausiert hat, um den ACoS zu drücken? Steht nicht drin.

Agenturen, die ernsthaft arbeiten, geben ihren Kunden vollen Zugang zu allen Daten. Werbekonten, Search Term Reports, Kampagnenstruktur. Nicht weil der Seller das alles selbst auswerten soll, sondern weil Transparenz Vertrauen schafft und eine ehrliche Diskussion über Strategie und Ergebnisse ermöglicht.

Wer als Seller keinen Zugang zu seinen eigenen Daten hat oder nur gefilterte Ausschnitte sieht, sollte das als ernstes Warnsignal betrachten.

Warnsignal Nummer zwei: Keine echte Strategie

„Wir optimieren Ihre Kampagnen“ ist kein Strategieangebot. Es ist eine Tätigkeit. Trotzdem beschreiben viele Agenturen ihre Arbeit genau so. Sie verwalten Budgets, passen Gebote an und erstellen gelegentlich neue Kampagnen. Was fehlt, ist die übergeordnete Frage: Wohin soll der Account sich entwickeln?

Gute Agenturen beginnen nicht mit Kampagnen, sondern mit einer Analyse. Wie sieht das Wettbewerbsumfeld aus? Welche Produkte haben Skalierungspotenzial, welche sind Margenkiller? Wie verteilt sich der Umsatz zwischen organisch und bezahlt? Wo liegt der TACoS, und wie sollte er sich entwickeln? Erst auf Basis dieser Bestandsaufnahme entsteht eine Strategie, die über „Keywords optimieren“ hinausgeht.

Der Unterschied zeigt sich in der Praxis daran, ob eine Agentur proaktiv Empfehlungen gibt oder nur reagiert. Schlägt sie neue Produktlaunches vor? Empfiehlt sie die Expansion in neue Märkte? Identifiziert sie Probleme bevor der Seller nachfragt? Oder wartet sie auf Anweisungen und arbeitet dann ab?

Warnsignal Nummer drei: Kein echtes PPC-Handwerk

Amazon PPC ist handwerklich anspruchsvoll. Kampagnenstruktur, Match Types, Placement-Bidding, Dayparting, Budget-Allokation zwischen Formaten. Die Details entscheiden darüber, ob ein Werbebudget profitabel arbeitet oder verbrennt.

Schwache Agenturen setzen auf Automatisierungstools, die Kampagnen nach simplen Regeln steuern: „Wenn ACoS über 20%, dann Bid senken. Wenn ACoS unter 15%, dann Bid erhöhen.“ Das ist besser als gar keine Optimierung, aber es ist kein PPC-Management. Es ist regelbasierte Gebotsverwaltung, die die Komplexität eines wachsenden Accounts nicht abbilden kann.

Gute Agenturen kombinieren Automatisierung mit manueller Expertise. Sie nutzen Tools für das Monitoring und die Bid-Optimierung auf Keyword-Ebene, treffen aber strategische Entscheidungen weiterhin manuell. Welcher Kampagnentyp für einen Produktlaunch? Wie verteilt sich das Budget zwischen Sponsored Products und Sponsored Brands? Wann lohnt sich der Einstieg in DSP? Das sind Fragen, die kein Algorithmus beantworten kann.

Was gute Agenturen anders machen

Die Unterschiede lassen sich auf drei Punkte verdichten. Erstens: Gute Agenturen haben eine klare Spezialisierung. Sie machen nicht alles für jeden, sondern kennen den Amazon-Kanal in der Tiefe. Zweitens: Sie arbeiten mit echten Spezialisten statt mit angelernten Generalisten. PPC, SEO, Design und Strategie werden von unterschiedlichen Personen verantwortet, die in ihrem jeweiligen Bereich tiefes Know-how mitbringen. Drittens: Sie messen sich an den Ergebnissen ihrer Kunden, nicht an der Länge ihrer Reportings.

Fazit: Die Agenturwahl ist eine strategische Entscheidung

Der Markt für Amazon-Agenturen wird nicht kleiner werden. Für Seller bedeutet das: Die Fähigkeit, gute von schlechten Agenturen zu unterscheiden, ist selbst eine wettbewerbsrelevante Kompetenz. Wer die richtigen Fragen stellt, auf Transparenz besteht und Strategie statt nur Verwaltung erwartet, findet Partner, die echten Mehrwert liefern. Wer sich von schönen Pitch-Decks und pauschalen Erfolgsversprechen überzeugen lässt, zahlt im Zweifel teures Lehrgeld.

Der Beitrag Warum die meisten Amazon-Agenturen scheitern und was gute Agenturen anders machen erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Windkraft um 22 Uhr: Warum drei Gigawatt Strom in Sekunden verschwinden

07. April 2026 um 05:45

Der Beitrag Windkraft um 22 Uhr: Warum drei Gigawatt Strom in Sekunden verschwinden erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Frequenzschwankungen Abends Stromnetz Windrakft

Jeden Abend um Punkt 22 Uhr passiert im europäischen Stromnetz etwas Ungewöhnliches: Die Frequenz gerät bis an kritische Grenzen ins Schwanken. Hintergrund sind tausende Windräder, die wegen Lärmschutzregeln gedrosselt werden. Das ging bisher gut, könnte aber zum Problem werden. Doch es gibt eine einfache Lösung. 

In den vergangenen Tagen häuften sich laut einem Bericht der taz starke Frequenzschwankungen im europäischen Stromnetz. Diese Abweichungen erreichten beinahe die kritische Grenze von 0,2 Hertz. Ab diesem Wert erfolgen teilweise automatische Sicherheitsabschaltungen, die die allgemeine Netzstabilität gefährden. Das Phänomen tritt insbesondere an windreichen Tagen auf.

Besonders auffallend ist der exakte Zeitpunkt des Auftretens jeweils um 22 Uhr. Grund dafür sind die in vielen Regionen geltenden Lärmschutzbestimmungen für technische Anlagen. Denn zu dieser Stunde führen die Betreiber die Nachtabsenkung von Windkraftanlagen durch.

Frequenzschwankungen im Stromnetz: 3 Gigawatt weniger in Sekunden – was um 22 Uhr passiert

Heißt korrekt: Die Leistung der Anlagen wird um ein Fünftel reduziert, damit die Geräuschemissionen für Anwohner sinken. Die beinahe zeitgleiche Drosselung tausender Windräder senkt aber die eingespeiste Leistung im Stromnetz nahezu augenblicklich.

In Deutschland deckt die Windkraft bei viel Wind fast den gesamten Bedarf. Dieser Moment führt zu einem unmittelbaren Defizit von knapp drei Gigawatt. Diese Menge entspricht der Leistung zweier großer Kohlekraftwerke oder moderner Atomreaktoren.

Auch die verfügbare Reserve im Stromnetz liegt auf diesem Niveau. Diese Reserve gleicht normalerweise Schwankungen im System aus. Die Frequenzschwankung könnte gefährlich werden, wenn parallel an anderer Stelle ein weiteres Problem auftritt.

Reichen 15 Minuten, um das Problem zu lösen?

Der Einbruch könntekünftig noch größer ausfallen, da Europa die Windkraft weiter ausbauen will. Das Problem bleibt jedoch beherrschbar, sofern eine zeitnahe Regelanpassung erfolgt. Grundlegend sinkt der Strombedarf bereits vor 22 Uhr.

Daher hat die Nachtabsenkung keinen negativen Einfluss auf die generelle Versorgungssicherheit. Nur das gleichzeitige Abschalten verursacht die unnötige Schwankung. Schon eine Streckung der Drosselung auf 15 Minuten würde genügen, um die Netzstabilität zu wahren und gleichzeitig den Lärmschutz einzuhalten.

Christoph Maurer, Geschäftsführer des Aachener Beratungsunternehmens Consentec, dazu gegenüber der taz: „Würde man die Abschaltungen über eine Viertelstunde strecken, könnte das europäische Stromsystem damit gut umgehen.“

Die technische Lösung liegt zwar auf dem Tisch und ist denkbar simpel. Doch dass dafür Lärmschutzverordnungen in mehreren Bundesländern gleichzeitig angepasst werden müssten, macht es politisch zäher als technisch nötig. Angesichts des geplanten Windkraft-Ausbaus wird Europa diese Anpassung aber früher oder später vornehmen müssen – wobei früher deutlich besser wäre.

Auch interessant:

Der Beitrag Windkraft um 22 Uhr: Warum drei Gigawatt Strom in Sekunden verschwinden erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Nasenspreizer aus „Höhle der Löwen“: 9 Fragen an Venticross (+Gewinnspiel)

06. April 2026 um 22:26

Der Beitrag Nasenspreizer aus „Höhle der Löwen“: 9 Fragen an Venticross (+Gewinnspiel) erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Venticross Höhle der Löwen Venticross Atmungshilfe Nase

In diesem Fragebogen stellen wir den Teilnehmern der Vox-Show „Die Höhle der Löwen“ Fragen zu ihren Produkten und Erfahrungen in der Sendung. Diesmal: Bei den Erfindern der Nasenspreizer von Venticross

Besser schlafen, freier atmen: Für Menschen mit eingeschränkter Nasenatmung ist das keine Selbstverständlichkeit. Das führt häufig dazu, dass Betroffene durch den Mund atmen, schnarchen oder schlechter schlafen. Die Gründer Ignasi Selga, Carolin Abraham und Heidi Depner haben ein Produkt entwickelt, um dieses Problem zu lösen.

Der Nasenspreizer von Venticross bekämpft eingeschränkte Nasenatmung und Schnarchen mit einem diskreten Nasendilatator aus medizinischem Silikon. Das kleine Hilfsmittel weitet die Nasenflügel von innen, um den Luftstrom ohne Medikamente zu maximieren. Mit ihrer Idee konnten die Erfinder Investor Ralf Dümmel in „Die Höhle der Löwen“ überzeugen. Wir haben sie zu ihren Erfahrungen in der Show befragt.

Dieser Beitrag enthält Affiliate-Links, für die wir eine kleine Provision erhalten. Dies hat jedoch keinen Einfluss auf die inhaltliche Gestaltung unserer Beiträge.

Venticross: Die Nasenspreizer aus „Die Höhle der Löwen“

BASIC thinking: Hallo, ihr seid in Staffel 19 von „Die Höhle der Löwen“ dabei. Wie fühlt sich das an?

Für uns geht damit ein echtes Herzensprojekt auf die große Bühne. Wir schauen die VOX-Gründer-Show „Die Höhle der Löwen” seit der ersten Staffel und haben keine Folge verpasst. Dass wir jetzt selbst dabei sind, fühlt sich fast ein bisschen surreal an.

Gleichzeitig sind wir unglaublich stolz, weil es zeigt, dass sich die jahrelange Arbeit an Venticross gelohnt hat. Wir haben als Gründertrio viel reingesteckt: Zeit, Energie, eigene Ersparnisse. Jetzt dürfen wir unser Produkt Millionen von Zuschauern vorstellen. Das ist ein riesiges Privileg.

Was macht Venticross so besonders?

Venticross ist ein Nasendilatator – also ein Nasenspreizer –, der die Nasenöffnungen sanft erweitert und so die Nasenatmung spürbar verbessert. Das Besondere: Er ist nahezu unsichtbar.

Während andere Nasenspreizer einen auffälligen Verbindungssteg zwischen den Nasenlöchern haben, der sofort ins Auge fällt, besteht Venticross aus zwei separaten, ergonomisch geformten Silikoneinsätzen ohne Steg.

Man kann ihn tagsüber im Büro, beim Sport oder unterwegs tragen – und nachts genauso. Er kommt in drei Größen (S, M und L), auch als Multi-Size-Set, damit man die passende Größe auf jeden Fall dabei ist.

Venticross kann zu besserem Schlaf führen, Schnarchgeräusche reduzieren und die Konzentration im Alltag steigern, ohne dass es jemand sieht.

Wie seid ihr auf diese Idee und das Konzept gekommen?

Die Idee kam aus persönlicher Betroffenheit: Ignasi nutzt seit über 15 Jahren Nasenspreizer, vor allem in der Pollensaison. Während der Corona-Pandemie hat er im Homeoffice erstmals auch tagsüber Nasenspreizer getragen – schließlich konnte ihn ja niemand sehen.

Dabei fiel ihm auf, wie stark eine bessere Sauerstoffzufuhr Konzentration und Leistungsfähigkeit beeinflusst. Gleichzeitig war kein Produkt am Markt, das unauffällig genug für den Alltag war.

Also hat er sich die Anatomiebücher seiner Frau Carolin geschnappt – sie ist promovierte Fachärztin – und angefangen zu tüfteln. Nach etwa drei Monaten Entwicklungszeit war der erste nahezu unsichtbare Nasenspreizer fertig.

Atmungshilfe aus die „Höhle der Löwen“

Und wie seid ihr bei DHDL gelandet?

Uns war klar, dass wir für den nächsten Wachstumsschritt Unterstützung im Vertrieb brauchen. Als Gründerteam haben wir viel technische und medizinische Expertise, aber im klassischen Vertrieb und in der Skalierung fehlte uns die Erfahrung.

Da wir ohnehin treue Fans der Sendung sind, lag die Bewerbung nahe. Wir wollten einen Partner finden, der unser Produkt in den stationären Handel bringt und uns beim Markenaufbau hilft.

Was ging kurz vor eurem Pitch in euch vor?

Eine Mischung aus Aufregung, Vorfreude und Konzentration. Wir hatten wirklich intensiv geübt – als Team, jeder einzeln, unzählige Male. Carolin konnte am Ende jeden Teil des Pitches auswendig. Dazu hatten wir einen Fragenkatalog mit rund 100 möglichen Fragen vorbereitet.

Trotzdem: Wenn man dann tatsächlich vor den Löwen steht, ist das eine ganz andere Intensität. Wir sind mit dem Grundgefühl reingegangen: Wir glauben an unser Produkt, wir sind vorbereitet, jetzt geben wir alles.

Wie liefen die Verhandlungen nach der Show?

Direkt nach dem Pitch hatten wir noch vor Ort ein erstes Treffen mit Ralf Dümmel. Anschließend ging es in die Due Diligence, bei der wir die üblichen Unterlagen mit seinem Team geteilt haben.

Dann folgte ein persönliches Meeting in Hamburg bei DS Produkte, wo wir alle wichtigen Schnittstellen wie Legal, Marketing und Produktion kennengelernt haben.

Ralf hat sich an dem Tag sehr viel Zeit für uns genommen. Danach waren wir in regelmäßigem Austausch über Teams-Calls und wir fühlen uns in der gesamten Partnerschaft sehr gut aufgehoben. Der Deal ist so zustande gekommen wie in der Sendung: 50.000 Euro für 15 Prozent unserer Unternehmensanteile.

Nasenspreizer aus „Höhle der Löwen“: So geht es mit Venticross weiter

Was ist seit dem Dreh und der Teilnahme mit euch und eurem Produkt passiert?

In den Monaten nach dem Dreh haben wir sehr viel gearbeitet. Wir haben eine aufwändige Medizinzulassung durchlaufen, die Kritikpunkte der Löwen aufgenommen und die Produktqualität weiter optimiert.

Außerdem haben wir das Packaging komplett überarbeitet – es war ursprünglich rein auf den Onlinehandel ausgelegt und musste für den stationären Handel angepasst werden. Und natürlich haben wir dafür gesorgt, hoffentlich genug Ware auf Lager zu haben.

Wie geht es jetzt weiter?

Unser Ziel ist klar: Venticross soll der Nasendilatator Nummer eins auf dem Markt werden – als klare Empfehlung für Menschen mit Problemen bei der Nasenatmung oder Schnarchen.

In den nächsten fünf Jahren wollen wir in Europa expandieren. Darüber hinaus denken wir über weitere Produkte rund um die Themen Schlaf und Longevity nach.

Mit Ralf Dümmel als starken Löwen und seinem Team an unserer Seite sind wir sehr zuversichtlich, dass wir einen tollen gemeinsamen Start hinlegen.

Wenn ihr zurückblickt: Wie bewertet ihr eure Erfahrungen bei DHDL?

Es war eine der intensivsten und schönsten Erfahrungen, die wir als Team gemacht haben. Die Zeit verging wie im Flug, weil alles so aufregend und voller Energie war.

Klar, im Nachhinein denkt man bei einzelnen Antworten: Das hätte man noch besser formulieren können. Aber unterm Strich sind wir sehr zufrieden. Wir waren präsent, konnten unseren Pitch gut rüber bringen und hatten auf jede Frage eine Antwort.

Sogar als währenddessen das Bühnenbild umgefallen ist, sind wir ruhig geblieben. Am Ende wollten gleich zwei Löwen einen Deal mit uns – und dass unser Wunschlöwe Ralf Dümmel dabei war, hat das Ganze perfekt gemacht.

Mindestens genauso wertvoll war aber zu erleben, wie wir auch nach dem Deal als Team mit all den neuen Aufgaben und Herausforderungen funktioniert haben.

Das hat gezeigt, wie gut wir uns gegenseitig ergänzen und uns stärken. Unsere klare Empfehlung an zukünftige Teilnehmer: Seid vorbereitet, glaubt an euch und habt Spaß dabei. 

Gewinnspiel: Sicher dir die Nasenspreizer von Venticross aus „Höhle der Löwen“

Als Medienpartner verlosen wir die Nasenspreizer von Venticross aus „Die Höhle der Löwen“ unter allen Newsletter-Abonnenten von BASIC thinking. Du musst nur bis zum Stichtag am 26. April 2026 (18:00 Uhr) unseren Newsletter abonniert haben und uns bis dahin einen Kommentar unter diesem Artikel hinterlassen, warum du die Atmungshilfe Venticross haben möchtest.

Den Gewinner ziehen wir am 26. April 2026 und benachrichtigen ihn anschließend umgehend per E-Mail. Wir wünschen viel Glück!


Einsendeschluss ist Montag, der 26. April 2026, 18 Uhr. Die Teilnahme erfolgt unter Ausschluss des Rechtsweges. Jeder Teilnehmer kann nur einmal mitmachen. Es werden ausschließlich korrekt ausgefüllte Kommentare in das Auswahlverfahren aufgenommen. Der Gewinner wird per E-Mail informiert. Der Gewinnanspruch verfällt, wenn der Gewinner nicht ermittelbar ist oder sich nicht nach Bekanntgabe des Gewinns beim Veranstalter des Gewinnspiels (BASIC thinking GmbH) meldet. Der Beitrag enthält Affiliate-Links.

Auch interessant: 

Der Beitrag Nasenspreizer aus „Höhle der Löwen“: 9 Fragen an Venticross (+Gewinnspiel) erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Received before yesterdayBASIC thinking

Neuro-symbolische KI senkt Energiebedarf beim Training um bis zu 99 Prozent

06. April 2026 um 05:45

Der Beitrag Neuro-symbolische KI senkt Energiebedarf beim Training um bis zu 99 Prozent erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Neuro-symbolische-KI

Ein Forscherteam der Tufts University hat eine neuro-symbolische KI entwickelt, die den Energiebedarf beim Training um bis zu 99 Prozent reduzieren kann. Statt 36 Stunden benötigte sie im Rahmen eines Tests nur 34 Minuten. 

Der Hunger nach Energie wächst durch künstliche Intelligenz rasant an. Allein in den USA verbrauchten KI-Systeme und Rechenzentren im Jahr 2024 etwa 415 Terawattstunden Strom. Das ist mehr als der gesamte Stromverbrauch Großbritanniens. Datenzentren und KI-Systeme beanspruchen damit einen Anteil von mehr als zehn Prozent der gesamten nationalen Energieerzeugung.

Laut Prognosen der Internationalen Energieagentur wird sich dieser Wert bis zum Jahr 2030 voraussichtlich verdoppeln. Deshalb suchen Forscher nach Wegen, wie Systeme leistungsfähiger werden, ohne die Stromkosten explodieren zu lassen. Ein neuer technischer Ansatz der Tufts University verspricht hier eine deutliche Abhilfe.

Was macht neuro-symbolische KI anders als ChatGPT?

Hinter der Entwicklung steht die Arbeit von Matthias Scheutz und seinem Team an der Tufts University School of Engineering. Die Wissenschaftler nutzen die sogenannte neuro-symbolische KI. Hierbei verbinden sie klassische neuronale Netze mit festen logischen Regeln, ähnlich wie Menschen Probleme in Schritten und Kategorien lösen.

Die Forschung konzentriert sich vor allem auf Roboter, die direkt mit Menschen interagieren. Die Forscher nutzen sogenannte Visual-Language-Action-Modelle (VLA), welche herkömmliche Sprachmodelle wie ChatGPT oder Gemini um Sicht und Bewegung erweitern. Durch die Anwendung allgemeiner Regeln verstehen diese Systeme Konzepte wie die Form oder den Schwerpunkt eines Objekts wesentlich besser.

So schlägt der neue Ansatz klassische KI

Matthias Scheutz, Professor für angewandte Technologie, dazu: „Ähnlich wie ein LLM stützen sich VLA-Modelle auf statistische Ergebnisse aus großen Trainingsdatensätzen mit ähnlichen Szenarien, was jedoch zu Fehlern führen kann. Ein neurosymbolisches VLA kann Regeln anwenden, die den Umfang des Ausprobierens während des Lernprozesses begrenzen und so viel schneller zu einer Lösung gelangen. Es erledigt die Aufgabe nicht nur wesentlich schneller, sondern auch der Zeitaufwand für das Training des Systems wird erheblich reduziert.“

In Experimenten mit dem Turm-von-Hanoi-Puzzle erreichte das System von Scheutz eine Erfolgsquote von 95 Prozent. Herkömmliche Modelle kamen bei derselben Aufgabe lediglich auf 34 Prozent. Sogar bei völlig unbekannten Aufgaben glänzte die neue Technik mit 78 Prozent Erfolg, während herkömmliche KI-Systeme jeden Versuch abbrachen.

Der hybride Ansatz verbessert die Planung spürbar und macht sie insgesamt zuverlässiger. Zudem reduziert die neuro-symbolische Methode das notwendige Ausprobieren während der Lernphase erheblich. Die Experimente lieferten messbare Erfolge beim zeitlichen Aufwand für das notwendige Lernen.

Während Standardmodelle über anderthalb Tage für das Training brauchten, war das neue System nach nur 34 Minuten bereit. Die benötigte Zeit für den Lernprozess sinkt somit ganz erheblich. Eine deutliche Effizienzsteigerung betrifft dabei sowohl die Rechenzeit als auch den direkten Stromverbrauch.

Ein Prozent Energie: Die Einsparungen im Detail

Ebenso deutlich fiel die Ersparnis beim tatsächlichen Stromverbrauch der Technologie aus. Das Training beanspruchte nur ein Prozent der Energie konventioneller Modelle. Im laufenden Betrieb verbrauchte die Technik von Matthias Scheutz lediglich fünf Prozent der Energie.

Aktuelle KI-Zusammenfassungen in Suchmaschinen verbrauchen oft 100-mal mehr Energie als einfache Trefferlisten. Genau hier setzt die Lösung aus Tufts an, um solche rechenintensiven Aufgaben durch Regelbasierung nachhaltig zu gestalten. Für viele alltägliche Aufgaben steht der bisherige massive Energieeinsatz in keinem Verhältnis zum Nutzen.

Heutige Modelle bieten laut den Forschern kein langfristig tragfähiges Fundament für die Zukunft. Timothy Duggan, Pierrick Lorang, Hong Lu und Matthias Scheutz veröffentlichten ihre Ergebnisse im Februar 2026 auf arXiv. Ihr Konzept dient als notwendige Alternative zu bisherigen ressourcenintensiven Modellen.

Warum Rechenzentren jetzt neu kalkulieren müssen

Ein nachhaltiger Betrieb großer Rechenzentren rückt mit solchen Innovationen wieder in greifbare Nähe. Die neuro-symbolische Methode bietet eine effiziente Grundlage für künftige Entwicklungen. Die Ergebnisse zwingen Unternehmen dazu, den Energiebedarf künftiger Datenzentren völlig neu zu kalkulieren.

Das Forschungspapier ist bislang zwar noch nicht durch das sogenannte Peer-Review-Verfahren gelaufen – sprich: Es wurde noch nicht von unabhängigen Wissenschaftlern überprüft. Die Ergebnisse erscheinen zwar beeindruckend, aber es ist wichtig, sie einzuordnen.

Die Tests liefen bisher etwa mit einem vergleichsweise einfachen Puzzle, nicht mit großen Sprachmodellen wie ChatGPT oder Google Gemini. Ob sich die Einsparungen von 99 Prozent auch auf Modelle mit Milliarden Parametern übertragen lassen, muss sich erst zeigen. Trotzdem liefert der Ansatz einen vielversprechenden Denkanstoß – gerade weil er zeigt, dass nicht jedes KI-Problem mit roher Rechenpower gelöst werden muss.

Auch interessant:

Der Beitrag Neuro-symbolische KI senkt Energiebedarf beim Training um bis zu 99 Prozent erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Macht uns ChatGPT zu Egoisten? Stanford-Studie liefert Belege

05. April 2026 um 06:06

Der Beitrag Macht uns ChatGPT zu Egoisten? Stanford-Studie liefert Belege erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI Egoismus Studie Künstliche Intelligenz

ChatGPT, Gemini und Claude sagen dir fast immer, was du hören willst. Eine neue Stanford-Studie belegt, dass Sprachmodelle Nutzer im Schnitt 49 Prozent häufiger bestätigen als Menschen. Die Forscher warnen, dass diese systematische Zustimmung uns egoistischer macht und unsere Fähigkeit für schwierige Gespräche untergräbt.

Eine neue Stanford-Studie hat das Phänomen der sogenannten KI-Sykophantie untersucht. Die Arbeit erschien in der Fachzeitschrift Science und analysierte elf verschiedene Sprachmodelle. Darunter: ChatGPT, Gemini, Claude und DeepSeek. Die Ergebnisse zeigen, dass die Systeme dazu neigen, die Meinungen von Nutzern zu bestätigen.

Professor Dan Jurafsky sieht in dieser programmierten Bestätigung ernsthafte Risiken für die menschliche Psyche. Die Interaktion mit solchen Modellen macht Menschen laut seiner Einschätzung moralisch dogmatischer und selbstzentrierter. Diese Entwicklung verstärkt die Überzeugung, im Recht zu sein, und mindert gleichzeitig die Empathie für andere Standpunkte.

Wie oft gibt dir die KI recht?

In den Tests validierten die Modelle das Verhalten der Anwender im Durchschnitt 49 Prozent häufiger als menschliche Vergleichsgruppen. Selbst bei der Abfrage von schädlichen oder illegalen Handlungen bestätigten die KIs die Eingaben in 47 Prozent der Fälle. Ein Beispiel zeigt eine KI, die das Verschweigen von Arbeitslosigkeit über zwei Jahre als Versuch deutet, die Beziehungsdynamik jenseits von materiellen Beiträgen zu verstehen.

Die Informatiker nutzten für die Untersuchung zudem 2.000 Datensätze aus der Reddit-Community „Am I the Asshole“. Obwohl die Community die Verfasser als Verursacher identifizierte, stimmten die Chatbots ihnen in 51 Prozent der Fälle zu. Die Systeme verwenden dabei oft eine akademisch wirkende Sprache, um ihre Zustimmung zu verpacken.

Warum Unternehmen kein Interesse an ehrlicher KI haben

Die über 2.400 Teilnehmenden der Studie bevorzugten die sykophantischen Antworten und hielten diese für vertrauenswürdig. Anwender erkannten die Manipulation nicht und hielten beide KI-Typen für gleich objektiv. Die Modelle verstecken ihre Zustimmung dabei hinter einer neutralen und fachsprachlichen Formulierung.

Die Studie warnt vor „perversen Anreizen“, da die schädliche Bestätigung gleichzeitig das Nutzer-Engagement steigert. Da die Bestätigung die Bindung an das System erhöht, haben Unternehmen wenig Interesse daran, die Sykophantie zu drosseln. Firmen verspüren daher eher die Motivation, dieses Verhalten zu verstärken, anstatt es zum Schutz der Nutzer zu reduzieren.

Anwender senken diese Tendenz zur Bestätigung durch eine gezielte Anweisung im Chat. Die sprachliche Einleitung „Warte mal kurz“ am Anfang eines Prompts verbessert die Objektivität der Antworten nachweislich. Diese simple Anweisung versetzt das Modell in einen kritischeren Zustand und liefert somit neutralere Ergebnisse.

So schützt du dich vor einer Ja-Sager-KI

Die Studienleiterin Myra Cheng äußert die Sorge, dass eine ständige Nutzung dieser Systeme die sozialen Fähigkeiten schwächen könnte. Sie schätzt ein, dass Menschen durch die Vermeidung von Reibung wichtige Kompetenzen im Umgang mit realen Konflikten verlieren. Laut Myra Cheng ist Reibung für gesunde Beziehungen essenziell.

Cheng empfiehlt daher für den Moment, künstliche Intelligenz nicht als Ersatz für Menschen in persönlichen Angelegenheiten zu nutzen. Diese Empfehlung basiert auf der Annahme, dass das Ausweichen vor schwierigen Gesprächen die persönliche Entwicklung hemmt. Echte Gespräche bleiben laut Cheng unverzichtbar für die persönliche Entwicklung.

Auch interessant:

Der Beitrag Macht uns ChatGPT zu Egoisten? Stanford-Studie liefert Belege erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Die hartnäckigsten KI-Mythen – und was an ihnen dran ist

04. April 2026 um 20:47

Der Beitrag Die hartnäckigsten KI-Mythen – und was an ihnen dran ist erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI Mythen Künstliche Intelligenz

Künstliche Intelligenz ist das Thema der Stunde und scheint sich in fast alle unsere Lebensbereiche einzuschleichen. Trotzdem ist KI für viele Menschen noch immer „Neuland“, über das sie bis auf ein paar Basics relativ wenig wissen. Aus diesem Grund haben wir in zehn der hartnäckigsten KI-Mythen unter die Lupe genommen.

Bei künstlicher Intelligenz handelt es sich um keine neue Erfindung. Die Wurzeln der Technologie reichen zurück bis ins Jahr 1956, als Forscher erstmals die Vision von Maschinen skizzierten, die menschliches Lernen nachahmen können.

70 Jahre später nutzen unzählige Unternehmen KI für die Automatisierung einfacher und komplexer Prozesse. Trotzdem ranken sich in der Bevölkerung viele Halbwahrheiten und Mythen um das Thema, mit denen wir an dieser Stelle (teilweise) aufräumen wollen.

KI-Mythen offenbaren Komplexität der Technologie

Die westliche Gesellschaft tendiert momentan dazu, schwarz-weiß zu denken. Das zeigt sich auch beim Thema KI. Die einen halten die Technologie für den Teufel und verurteilen jegliche Nutzung, während die anderen denken, jedes Problem mit künstlicher Intelligenz lösen zu können. Die Wahrheit liegt wie so oft irgendwo in der Mitte.

Nicht jeder junge Mensch braucht eine Ausbildung im Bereich KI, und nicht jedes Unternehmen benötigt eine designierte Strategie, um alle Arbeitsbereiche umzustellen. Stattdessen sollte die neue Technik – wenn überhaupt – besonnen und gezielt eingesetzt werden. Das Gleiche gilt für Privatpersonen, die KI nicht als Ersatz für den Hausarzt oder selbstständiges Denken nutzen sollten.

Die schiere Masse an verfügbaren Daten und potente Rechenleistungen haben künstlicher Intelligenz den Durchbruch ermöglicht. Und die Technologie ist hier, um zu bleiben. Jeder Mensch sollte sich früher oder später mit den Fähigkeiten und Limitierungen auseinandersetzen. Deshalb werfen wir im Folgenden einen Blick auf zehn der hartnäckigsten KI-Mythen.

Mythos 1: Gibt es überhaupt „die“ KI?

Es gibt nicht „die“ KI, auch wenn der Begriff von Laien oft pauschal für alle möglichen Dinge verwendet wird. In Wahrheit verbergen sich hinter der Terminologie völlig unterschiedliche Methoden des maschinellen Lernens, die sich in Aspekten wie Datenquellen, Einsatzgebieten und Risiken grundlegend unterscheiden. Sprachmodelle basieren zum Beispiel auf Textvorhersagen, während Systeme für die Analyse von Bildern völlig andere Algorithmen nutzen.

Der Beitrag Die hartnäckigsten KI-Mythen – und was an ihnen dran ist erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Ladesäulen als Mehrfachsteckdose: General Motors Patent für neue Ladeparks

04. April 2026 um 06:00

Der Beitrag Ladesäulen als Mehrfachsteckdose: General Motors Patent für neue Ladeparks erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

General Motors GM Patent Mehrfachsteckdose Ladesäule Elektroauto laden E-Auto

Eine neue Idee von General Motors könnte das Laden von Elektroautos grundlegend verändern: Statt einzelner Säulen verteilt ein System die Leistung auf mehrere Fahrzeuge gleichzeitig. Das verspricht weniger Wartezeit und effizientere Nutzung bestehender Infrastruktur.

Automobilhersteller General Motors hat ein Patent für eine neuartige Ladeinfrastruktur erarbeitet. Es wurde bereits 2024 eingereicht und im Februar 2026 veröffentlicht. Der Ansatz verteilt Strom wie eine Mehrfachsteckdose und soll die Kapazität bestehender Ladeparks erhöhen.

Das Hauptziel ist es, überlastete Standorte durch eine effiziente Energieverteilung zu entzerren. Da Ladeparks trotz wachsender Infrastruktur oft an ihre Grenzen stoßen, könnte der Entwurf einen technischen Lösungsansatz bieten. Bei dem Konzept verteilt ein zentraler Gleichstrom-Schnelllader (DC) die verfügbare Leistung auf mehrere Module.

Diese Low-Power Access Points (LPAP) dienen als zusätzliche Anschlüsse für die Elektroautos. Durch den modularen Aufbau laden mehrere Fahrzeuge zeitgleich an einer einzigen Basisstation. Das System setzt gezielt auf die Technologie der DC-Schnelllader und könnte Engpässe an Autobahnen beseitigen.

Mehrfachsteckdose für Ladesäulen: So funktioniert das neue Ladesystem von General Motors

Die Vernetzung zwischen dem Hauptlader und den Modulen basiert auf einer speziellen Reihenschaltung. Techniker bezeichnen die Methode als Daisy Chain. An jedem dieser zusätzlichen Module dockt ein Elektroauto an, wodurch die Hardware eine optimale Auslastung erreicht. Anstatt eines isolierten Ladepunkts entsteht ein Netzwerk aus mehreren Zugriffspunkten.

Die Besonderheit bildet die Kommunikation zwischen den Modulen und den angeschlossenen Fahrzeugen. Das System analysiert kontinuierlich:

  • Ladezustand der Fahrzeuge
  • Batteriespannung und Anforderungen
  • aktuelle Auslastung aller angeschlossenen Autos

Auf Basis dieser Daten entscheidet das System in Echtzeit über die Zuteilung der Ladeleistung. Die Energie soll genau dorthin fließen, wo der Bedarf am höchsten ist.

Intelligente Energieverteilung statt fixer Ladeleistung

Die Module analysieren die Bedürfnisse aller verbundenen Fahrzeuge und passen die Stromabgabe dynamisch an. Das System berücksichtigt dabei unterschiedliche Batterietechnologien und Spannungsniveaus der Fahrzeuge.

Es steuert die Energieflüsse, um Überlastungen zu verhindern und die Ladezeit zu optimieren. Dieser intelligente Prozess verwandelt eine einfache Säule in einen vernetzten Knotenpunkt.

In der Praxis bedeutet das, dass die verfügbare Gesamtleistung nicht mehr starr an einen einzelnen Nutzer gebunden bleibt. Ein einzelnes Fahrzeug blockiert den Schnelllader somit nicht mehr exklusiv, da die Steuerung eine ganze Gruppe parallel bedient.

Damit will GM potenziell mehr Ladevorgänge in der gleichen Zeit als mit herkömmlichen Systemen abwickeln. Das System arbeitet Fahrzeuge im Team ab, statt sie nacheinander in eine Warteschlange zu schicken.

Mehr Effizienz in überlasteten Ladeparks

Für Nutzer verspricht diese Technologie eine spürbare Verbesserung des Komforts auf Reisen. Mehrere Fahrzeuge könnten sich sofort anschließen, sobald sie am Standort eintreffen, ohne auf einen freien Punkt zu warten. Das Ausharren in einer Warteschlange würde durch die höhere Anzahl an physischen Anschlüssen entfallen. Die Zeit am Ladepark ließe sich so wesentlich effizienter nutzen.

Die Priorisierungsfunktion würde besonders Fahrern mit einem sehr niedrigen Akkustand helfen. Außerdem könnte das System ein fast leeres Fahrzeug bevorzugen, damit dieses schnell eine Basisreichweite für die Weiterfahrt erhält. Währenddessen würden andere Autos mit höherem Füllstand parallel mit einer reduzierten Leistung weiter aufladen. Am Ende zählt für Autofahrer die tatsächliche Zeitersparnis und nicht nur die maximale Ladeleistung auf dem Papier.

Das sagen Elektroauto-Fahrer

Eine aktuelle Umfrage unter 2.341 Teilnehmern zeigt, wie vielfältig die Ladegewohnheiten der E-Auto-Besitzer sind. Während ein Teil der Befragten noch auf die Haushaltssteckdose setzt, nutzen viele bereits eine eigene Wallbox. Öffentliche Ladesäulen spielen ebenfalls eine zentrale Rolle im Alltag der Fahrer. Interessanterweise gaben einige Teilnehmer an, noch kein Elektroauto zu besitzen.

Das Prinzip der Leistungsverteilung existiert in der Branche bereits für das Laden mit Wechselstrom (AC). Ein Beispiel liefert das Münchner Unternehmen ChargeX, das die Energie eines Anschlusses modular verteilt. Diese Lösungen zielen primär auf Standorte wie Firmenparkplätze oder Wohnanlagen mit geringeren Leistungen ab. Dort steht das Laden über längere Zeiträume mit elf oder 22 Kilowatt im Fokus.

Wird das neue Ladekonzept von GM Realität?

Das Patent von General Motors konzentriert sich hingegen auf das Schnellladen mit deutlich höheren Leistungen. Laut der Patentschrift setzt das System dort an, wo heute die meisten Engpässe entstehen: an Schnellladeparks entlang der Autobahnen.

Hier ist eine hohe Energieabgabe in kurzer Zeit entscheidend, um den Verkehrsfluss stabil zu halten. Eine Verteilung der DC-Leistung stellt somit eine konsequente Weiterentwicklung für den Fernverkehr dar. Bisher liegt diese Entwicklung ausschließlich als theoretische Darstellung in einer Patentschrift vor. Ob und wann ein solches System die Marktreife für eine Serienproduktion erreicht, bleibt derzeit völlig offen.

Die tatsächlichen Vorteile für die künftige Mobilität hängen zwingend davon ab, ob General Motors das System jemals in die Realität umsetzt. Der Trend entwickelt sich jedoch weg von der Suche nach der stärksten Einzelsäule hin zur intelligenten Verteilung der vorhandenen Leistung.

Auch interessant:

Der Beitrag Ladesäulen als Mehrfachsteckdose: General Motors Patent für neue Ladeparks erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Die größten Denkfehler bei ChatGPT: Warum fast alle KI falsch nutzen

03. April 2026 um 13:00

Der Beitrag Die größten Denkfehler bei ChatGPT: Warum fast alle KI falsch nutzen erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI Mensch, Künstliche Intelligenz, ChatGPT, Gemini, Perplexity, Prompt, Prompting, Large Language Model, LLM

ChatGPT antwortet teilweise so überzeugend, dass viele Nutzer es unbewusst wie einen menschlichen Experten behandeln – mit Meinung, Haltung und Weltwissen. Genau das führt zu Denkfehlern, die die Qualität der Ergebnisse massiv verschlechtern.

Du hast das sicherlich schon selbst erlebt: Du fragst ein LLM (Large Language Model) wie ChatGPT etwas und bekommst eine überzeugend formulierte Antwort. Dann fragst du nach dem Gegenteil und wieder ist die Antwort überzeugend. Sind LLMs also widersprüchlich, unzuverlässig und beliebig? Gibt es ein anderes Problem, das nicht in dem LLM liegt?

LLMs erscheinen wie jemand, der eine Meinung hat, vielleicht sogar eine Überzeugung. Ein LLM ist aber kein menschlicher Kollege oder Experte, insbesondere nicht mit Charakter. Es ist ein System, das Antworten erzeugt und menschliche Kommunikation imitiert.

Deshalb jedoch schreiben wir diesen nicht-menschlichen Systemen menschliche Eigenschaften zu. In der Folge führt das dazu, dass wir bei der Nutzung von LLMs Denkfehler begehen, die sich gravierend auf die Ergebnisse auswirken.

KI ist kein Mensch, also hör auf sie so zu behandeln

Es ist naheliegend, ChatGPT und andere LLMs wie ein menschliches Gegenüber zu behandeln, denn so sind sie konstruiert: Die Kommunikation ist dialogisch und die Antworten wirken ruhig, höflich, strukturiert und klingen extrem selbstbewusst, als ob es keinen Zweifel an den gemachten Antworten gibt. LLMs klingen nicht wie Maschinen, sondern wie „jemand, der Bescheid weiß“. Aber genau dies führt zu fehlerhaften Schlussfolgerungen.

Wenn ein Mensch überzeugend spricht, unterstellen wir ihm meist eine gewisse innere Haltung. Bei einem Sprachmodell führt das zu einer fehlerhaften Nutzung. Denn es hat keine Überzeugungen, die es verteidigt. Es hat auch kein Weltbild, an dem es hängt.

Der erste Denkfehler, den es bei LLMs zu vermeiden gilt, ist deshalb erstaunlich simpel: Hör auf, in der Antwort eines LLM eine Meinung zu suchen. Frag stattdessen, welche Perspektive das Sprachmodell dir gerade erzeugt.

KI hat keine Meinung – und das ist auch gut so

Viele Nutzer machen in der Folge aus KI unbewusst so etwas wie ein digitales Gegenüber mit Charakter. Sie äußern dann Sätze wie: „Die KI findet das gut“, „Die KI hat ihre Meinung geändert“ oder „Die KI versteht doch, was ich meine“.

Das klingt harmlos. Ist es aber nicht. Denn diese Art zu sprechen verschiebt die Erwartung. Plötzlich soll KI so funktionieren wie ein Mensch. Aber dafür ist ein Sprachmodell nicht gebaut. Ein LLM erzeugt lediglich wahrscheinliche und Kontextpassende Antworten.

Das ist großartig, um menschliche Schwächen zu umgehen, denn weil LLMs keine eigenen Überzeugungen verteidigen, können sie etwas, das Menschen oft schlecht können: schnell die Perspektive wechseln.

Es kann also für deine Idee argumentieren, gegen deine Idee argumentieren, sie aus Kundensicht prüfen, aus Sicht eines Skeptikers zerlegen oder in eine nüchterne Risikoanalyse verwandeln. Ein LLM entwickelt aber (noch) keinen Charakter, wie es ein Mensch kann.

Wahrheit entsteht nicht durch gute Sprache

Der zweite große Denkfehler ist noch tückischer: Wir verwechseln Sprachqualität mit Kompetenz. Menschen reagieren stark auf sprachliche Sicherheit. Wer klar formuliert und strukturiert argumentiert, klingt glaubwürdig und wirkt dadurch kompetent. Und Glaubwürdigkeit und Kompetenz führt zu Vertrauen, was nur allzu menschlich ist. Bei der Nutzung von LLMs ist das jedoch gefährlich.

Denn LLMs sind gerade darin stark, plausibel klingende Formulierungen zu erzeugen. Sie können insbesondere Unsicherheiten in Sätze verpacken, die wie Gewissheiten klingen und Fehler so formulieren, dass man sie erst bemerkt, wenn man genau hinsieht. Genau deshalb sind Halluzinationen und faktisch falsche, aber sprachlich überzeugende Antworten von LLMs ein zentrales Risiko generativer KI.

Das Problem liegt nun in der Weise, wie du die Antworten von LLMs nutzt. Für Tatsachenbehauptungen, juristische Aussagen, Zahlen, Quellen oder belastbare Einordnungen reicht allein gute Sprache nicht aus. Dort sind Prüfungen erforderlich.

Denn Menschen glauben einer Antwort zu früh, weil sie sprachlich schon „fertig“ aussieht. Wenn du aber die Antworten von LLMs als Entwürfe für Ideen, für Varianten, für Formulierungsvorschläge oder neue Perspektiven betrachtest, sind sie wertvoll.

So holst du mehr aus einen Prompts

Ein weiterer Denkfehler liegt dann darin, dass Nutzer die erste Antwort eines LLM wie eine Art „endgültiges Ergebnis“ behandeln. Sie stellen eine Frage, lesen die Antwort und urteilen sofort: gut, schlecht, brauchbar, unbrauchbar. Damit ordnen sie jedoch fehlerhaft ein, wie LLMs in der Praxis am besten funktionieren: Der erste Output ist regelmäßig nicht das endgültige Ergebnis, sondern nur das erste Rohmaterial.

Es wirkt nämlich ein menschlicher Mechanismus, der Ankereffekt. Was wir zuerst sehen und im Falle von LLMs als Antwort bekommen, prägt unser Urteil übermäßig stark. Wenn die erste Antwort mittelmäßig ist, halten viele das Sprachmodell für schlecht. Wenn sie glänzend ist, überschätzen sie es. Beides ist falsch. LLMs reagieren auf Formulierung, Kontext und Prompt-Struktur. Schon kleinere Änderungen können deshalb Ausgaben deutlich verändern.

Deshalb zeigen sich gute Ergebnisse von LLMs selten im ersten Prompt. Sie zeigt sich vielmehr erst in den Schleifen danach. Wer deshalb gut mit LLMs arbeiten möchte, muss nachfragen und verschiedene Perspektiven abfragen.

Du musst deshalb umformulieren lassen, verdichten, zuspitzen, angreifen, vereinfachen, neu sortieren. Die Antwort von LLMs darfst du nicht wie ein Urteil, sondern wie einen Werkstoff behandeln.

KI besser als Mensch? Was LLMs gut können

Menschen mögen Bestätigung. Wir suchen Informationen, die zu unseren Annahmen passen, und wir verteidigen Ideen, in die wir schon, und sei es nur gedanklich, „investiert“ haben. Dies wird als „Confirmation Bias“ bezeichnet.

Im Umgang mit KI wird daraus aber ein Problem. Denn wenn du tendenziös fragst, liefert dir ein Sprachmodell oft brauchbare Antworten in genau dies Richtung der Frage. Nicht, weil es die Wahrheit gefunden hat, sondern weil es auf den von dir gesetzten Rahmen reagiert.

Daraus ergibt sich aber im Umkehrschluss ein oft unterschätzter Nutzen: Du kannst dir von einem LLM Gegenargumente liefern lassen, ohne dass jemand beleidigt ist, ein Ego verletzt wird oder eine Situation eskaliert.

Viele Nutzer erkennen nicht, dass LLMs regelmäßig nur bestätigen, was sie ohnehin schon dachten. Klüger jedoch wäre das Gegenteil: LLMs dazu zu benutzen, die eigene Komfortzone und die eigene Gedankenwelt anzugreifen.

Nicht die Qualität von LLMs, sondern die der Frage entscheidet

Ein damit verbundener Denkfehler ist dann schließlich, dass die Qualität der Antwort in den Eigenschaften, im Algorithmus und den Trainingsdaten eines LLMs liegen wird. Ein erstaunlich großer Teil des Ergebnisses hängt jedoch daran, wie du fragst.

LLMs reagieren auf Framing, Rollenbeschreibung, Zielsetzung, Beispiele, Kontext und Formulierungsnuancen. Sprache ist bei LLMs Steuerung. Wenn du unklar fragst, bekommst nicht einfach eine etwas schlechtere Antwort, sondern vielmehr eine Antwort auf eine unsauber gestellte Frage.

Das bedeutet aber: Bessere KI-Nutzung beginnt oft nicht mit „besserer“ KI, sprich mit besseren Modellen, sondern mit klarerem Denken in Form von klareren Fragestellungen und Aufgaben. Sobald du Zielgruppe, Zweck, Ton, Tiefe, Ausschlüsse und Erfolgskriterien für die Antwort klarer formulierst, verändert sich die Qualität der Antwort oft spürbar.

Das Sprechen mit LLMs, das sogenannte „Prompting“, ist deshalb nicht nur eine zu vernachlässigende Banalität. Gute Prompts erstellst du dann, wenn dir klar ist, was du eigentlich willst.

Sprachmodelle laden zu Missverständnissen ein

Natürlich sollte man nun noch erwähnen, dass die Art, wie LLMs entwickelt sind, nicht ganz unschuldig an unseren Denkfehlern sind. LLMs klingen freundlich, kohärent und selbstsicher.

Sie wirken oft so, als verstehen sie, was man von ihnen will. Genau dadurch entsteht fast automatisch der Eindruck, man habe es mit einem klar denkenden „digitalen Menschen“ zu tun.

Das Problem liegt also nicht nur beim Nutzer. Es liegt auch an der Art, wie LLMs erstellt werden und so Menschlichkeit simulieren.

Inzwischen wird dieses Phänomen unter dem Begriff „Anthropomorphisierung von LLMs“ diskutiert. Gerade deshalb jedoch braucht der Umgang mit LLMs ein klares Verständnis dafür, was sie können und was nicht.

Bessere Ergebnisse beginnen mit besseren Fragen

Am Ende läuft alles auf eine unbequeme, aber in meinen Augen wichtige Einsicht hinaus: Wenn du mit LLMs besser arbeiten willst, musst du deinen Umgang mit ihnen besser verstehen und anpassen.

Du musst aufhören, in flüssiger Sprache automatisch Wahrheit zu sehen, die erste Antwort für das schlussendliche Ergebnis zu halten und Bestätigung deiner Ansichten durch LLMs mit guten Gedanken zu verwechseln. Und vor allem musst du aufhören, ein Sprachmodell wie einen Menschen mit Haltung und Überzeugung zu betrachten.

Ein LLM ist im besten Fall ein Gedankenverstärker, ein Beschleuniger bei der Erstellung von Antworten, ein Perspektivengenerator und ein Widerspruchswerkzeug. Ein LLM ist kein digitaler Kollege mit Weisheit und Weltbild. Deshalb musst du aufhören, ein LLM an menschlichen Maßstäben zu messen. Wenn du das verstehst, bist du gegen Denkfehler besser gewappnet.

Auch interessant: 

Der Beitrag Die größten Denkfehler bei ChatGPT: Warum fast alle KI falsch nutzen erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Kupfer statt Stahl: Freiburger Forscher machen E-Bike-Akkus leichter

03. April 2026 um 05:45

Der Beitrag Kupfer statt Stahl: Freiburger Forscher machen E-Bike-Akkus leichter erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Kupfer Zellverbinder Akkus E-Bikes E-Scooter

Kupfer könnte die Batteriemodule von E-Bikes und E-Scootern deutlich leichter und effizienter machen. Doch bislang kam das Metall trotz seiner starken Leitfähigkeit kaum zum Einsatz. Nun zeigt ein neues Verfahren, wie sich Kupfer ohne teure Anlagen verarbeiten lässt.

Akkus für E-Bikes oder E-Scooter stehen vor einer technischen Hürde. Bisher verschalten Hersteller die einzelnen Zellen meist mit Verbindern aus Stahl. Da Stahl Strom jedoch vergleichsweise schlecht leitet, müssen die Bauteile bei leistungsstarken Batterien immer dicker und schwerer werden.

Das schränkt die Effizienz der mobilen Energiespeicher zunehmend ein. Kupfer bietet in der Batteriebranche schon lange eine bessere Performance für die Verschaltung einzelner Module. Denn das Metall leitet elektrischen Strom rund sechsmal besser als Stahl.

Durch diese physikalische Eigenschaft ermöglichen deutlich dünnere Verbinder eine Gewichtseinsparung, was das gesamte Batteriemodul am Ende leichter macht. Trotz des höheren Eigengewichts von Kupfer führt die Materialersparnis zu einer Gewichtsreduktion des Gesamtsystems.

Akkus für E-Bikes: Technische Hürden bei der Kupferverarbeitung

Bisher bremsten die hohen Anforderungen der Fertigungstechnik den flächendeckenden Einsatz von Kupfer aus. Denn das herkömmliche Buckelschweißen, das in der Industrie für Stahlverbinder weitverbreitet ist, funktioniert bei Kupfer nicht zuverlässig genug.

Da das Metall Wärme optimal leitet, transportiert es die beim Schweißen erzeugte Hitze sofort in alle Richtungen ab. Das verhindert die notwendige lokale Energiekonzentration, sodass keine stabile Schweißverbindung entstehen kann. Als Alternative zum klassischen Verfahren bietet sich zwar das Laserschweißen an, doch die Kosten für solche Anlagen sind sehr hoch.

Für mittelständische Batteriehersteller in Deutschland bedeutet das oft eine zu hohe Investitionshürde. Viele Unternehmen müssten ihre gesamte Fertigungslinie für dieses Verfahren komplett umbauen. Ein Forscherteam am Fraunhofer ISE hat nun jedoch eine Lösung präsentiert, die ohne teure neue Maschinen auskommt.

Kupfer-Zellverbinder: Ein neues Verfahren durch Sublimation

Projektleiter Christian Schiller vom Fraunhofer ISE setzt auf ein Kurzzeitschweißen mit einer besonders hohen Wärmestromdichte. Bei diesem ultraschnellen Prozess schmilzt das Metall nicht wie üblich auf, sondern es sublimiert direkt.

Sublimation bedeutet, dass der Feststoff unmittelbar in einen gasförmigen Zustand übergeht. Die Anlage stellt den Schweißpunkt dabei in weniger als 0,6 Sekunden fertig, noch bevor die erzeugte Wärme überhaupt in das umliegende Material abfließen kann.

Besonders erfolgreich testete das Team das Verfahren bereits im industriellen Zellenformat 21700. Nano-Computertomografie-Aufnahmen belegen, dass die unbeschichteten Kupferverbinder sauber auf dem Gehäuseboden sitzen.

Das Verfahren schont dabei die darunterliegende Struktur der Zelle und verhindert gefährliche Beschädigungen während der Produktion. In der automatisierten Schweißzelle übernimmt ein kollaborativer Roboter die präzise Positionierung der Bauteile.

Inline-Messmethoden für die Massenproduktion

Ein wesentliches Alleinstellungsmerkmal des Forschungsprojekts sind die neu entwickelten, nicht invasiven Inline-Messmethoden zur Qualitätskontrolle. Diese Systeme bewerten jeden einzelnen Schweißpunkt automatisch und ohne Zeitverlust direkt in der laufenden Fertigungslinie.

Beim Sublimationsmechanismus gelten andere physikalische Kriterien als beim herkömmlichen Schmelzschweißen. Daher war diese Neuentwicklung für die industrielle Anwendung unverzichtbar. So sichern Hersteller die Zuverlässigkeit der Verbindung, ohne das Bauteil zu zerstören.

Die Forschungsarbeiten finden seit Juni 2023 im Rahmen des Projekts „BatCO₂tiv“ statt und erhalten Fördergelder vom Bundeswirtschaftsministerium. Bis zum geplanten Projektende im Mai 2027 entstehen zudem umfassende Designregeln für Zellverbinder und Zellhalter. Diese Regeln sollen sicherstellen, dass die parallel verschalteten Zellen in einem Modul eine gleichmäßige Bestromung erfahren.

Wirtschaftliche Vorteile für deutsche Hersteller

Das Projekt verfolgt das Ziel, die Effizienz und Lebensdauer der Batteriemodule durch die optimierte Kupferverschaltung weiter zu steigern. Der geringere elektrische Widerstand sorgt dafür, dass weniger Energie als Wärme verloren geht. Davon profitieren vor allem Anwendungen mit hohen Strömen, in denen das Modul effizienter arbeiten muss.

Ein entscheidender Vorteil dieser Innovation liegt in der Weiternutzung bestehender Infrastrukturen. Batteriehersteller müssen ihre vorhandenen Buckelschweißanlagen nicht ersetzen, sondern arbeiten mit angepassten Prozessparametern einfach weiter. Dies senkt die Einstiegshürden erheblich und hilft deutschen Unternehmen dabei, gegenüber dem asiatischen Wettbewerb konkurrenzfähig zu bleiben.

Hersteller nutzen Kupfer so ohne das Risiko teurer Neuinvestitionen in Laserschweißanlagen. Das bayerische Unternehmen Smart Battery Solutions integriert den neuen Prozess als erster Hersteller in seine Fertigungslinie. Die kupferverschalteten Batterien erweitern zukünftig die hauseigene UniPower-Produktfamilie. Diese Module treiben unter anderem E-Bikes und Sharing-Systeme für die städtische Paketzustellung auf der letzten Meile an.

Auch interessant:

Der Beitrag Kupfer statt Stahl: Freiburger Forscher machen E-Bike-Akkus leichter erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Neue Balkonkraftwerke-Norm erlaubt 7.000 Watt – aber nur 800 Einspeisung

02. April 2026 um 19:42

Der Beitrag Neue Balkonkraftwerke-Norm erlaubt 7.000 Watt – aber nur 800 Einspeisung erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Balkonkraftwerk Norm Regeln 7000 Watt 800

Eine neue VDE-Richtlinie für Steckersolargeräte erlaubt erstmals Modulleistungen von bis zu 7.000 Watt für Balkonkraftwerke. Doch die Einspeisegrenze bleibt bei 800 Watt. Gleichzeitig gelten ab bestimmten Schwellenwerten neue Melde- und Steuerungspflichten. Wir erklären, welche Regeln jetzt gelten, wo es in der Praxis noch hakt und für wen sich eine große Anlage tatsächlich lohnt.

Die neue VDE-Richtlinie für Steckersolargeräte schafft erstmals klare Rahmenbedingungen für den regelkonformen Betrieb sehr starker Balkonkraftwerke. Sie erweitert den Anwendungsbereich und ermöglicht Haushalten eine rechtssichere Nutzung größerer Anlagen. Damit erleichtert die Norm die private Energiewende und senkt langfristig die Stromkosten.

Die neuen Regeln erlauben theoretisch eine Modulleistung von bis zu 7.000 Watt. Trotzdem bleibt die tatsächliche Einspeiseleistung für den Wechselrichter oder Speicher auf 800 Watt begrenzt. Ab einer installierten Modulleistung von 2.000 Watt müssen Nutzer die Anlage zudem beim jeweiligen Netzbetreiber anmelden.

Ab wann darf der Netzbetreiber ein Balkonkraftwerk abregeln?

Ab einer Leistung von 7.000 Watt wird die Installation eines Smart-Meter-Gateways zur Pflicht. Dieses Gerät gibt dem Netzbetreiber die technische Möglichkeit, die Anlage bei Bedarf aus der Ferne zu steuern oder abzuregeln. Damit kann der Betreiber bei Netzproblemen die Einspeisung unmittelbar unterbrechen beziehungsweise den Stecker ziehen.

Die überarbeitete Norm lässt nun auch eigenständige Wechselstrom-Batteriespeicher als zulässige Komponente zu. Nutzer können damit gezielt günstigen Netzstrom aus variablen Tarifen zwischenspeichern beziehungsweise „tanken“. Für diese Speicher gilt ein striktes Verbot, die Einspeiseleistung lediglich per Software zu drosseln.

7.000 Watt klingen gut – doch daran scheitert es noch

In der Praxis scheitert die Umsetzung von 7.000-Watt-Systemen derzeit noch an fehlenden Speicherlösungen für diese hohe Leistungsklasse. Viele Speichereinheiten besitzen nur an der Haupteinheit Anschlüsse für die Solarmodule, was die Kapazität stark einschränkt. Da pro Gerät oft nur maximal 2.000 Watt PV-Eingangsleistung möglich sind, hakt es bei der Einbindung großer Modulfelder.

Die Wirtschaftlichkeit solcher Anlagen hängt massiv vom Nutzungsverhalten ab, da der Eigenverbrauch deutlich lukrativer als die Einspeisung ist. Der Netzbetreiber vergütet überschüssigen Strom derzeit lediglich mit rund 7 Cent pro Kilowattstunde. Wer die hohe Leistung nicht unmittelbar selbst verbraucht, verschenkt somit bares Geld an den Energieversorger.

Windrad und Brennstoffzelle: Was die neue Norm sonst noch erlaubt

Zusätzlich zum Solarstrom erlaubt die Norm nun auch die Integration anderer Quellen wie kleiner Windkraftanlagen oder Wasserstoff-Brennstoffzellen. Auch Kraft-Wärme-Kopplungsanlagen können künftig als Teil eines kombinierten Energiesystems betrieben werden. Solche Systeme müssen ebenfalls die Grenze von 800 VA bei der Einspeisung einhalten.

Besonders sinnvoll bleibt der erzeugte Strom vor allem für dauerhaft laufende Verbraucher im Haushalt. Dazu zählen etwa Kühlgeräte, Heizungssysteme oder Computer, die eine konstante Grundlast benötigen. Leistungsintensive Anwendungen wie das Laden von Elektroautos lassen sich mit der begrenzten Einspeiseleistung hingegen nur eingeschränkt betreiben.

Fazit; Für die meisten Haushalte ist eine Anlage in dieser Größenordnung derzeit noch überdimensioniert. Wer keinen passenden Speicher hat und tagsüber wenig Strom verbraucht, verschenkt den Großteil der erzeugten Energie zum Schleuderpreis.

Sinnvoll sind große Modulleistungen vor allem für Haushalte mit hoher Grundlast, etwa durch Wärmepumpe oder Homeoffice-Betrieb. Unser Rat: Wer heute einsteigt, fährt mit 1.500 bis 2.000 Watt Modulleistung und einem kleinen Speicher am wirtschaftlichsten – und bleibt zudem unter der Anmeldepflicht.

Auch interessant:

Der Beitrag Neue Balkonkraftwerke-Norm erlaubt 7.000 Watt – aber nur 800 Einspeisung erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Europa im KI-Dilemma: Was passiert, wenn die Blase platzt?

02. April 2026 um 11:00

Der Beitrag Europa im KI-Dilemma: Was passiert, wenn die Blase platzt? erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI Europa Dilemma USA Künstliche Intelligenz Zurückhaltung KI-Blase

Europa strebt in den Bereichen KI, Software und Rechenzentren eigentlich mehr Souveränität an. Die Abhängigkeit von den USA trügt jedoch die Bilanz. In puncto KI ist die vergleichsweise zurückhaltende Haltung Europas aber Fluch und Segen zugleich. Einerseits besteht unausgeschöpftes Potenzial. Andererseits wird Europa deutlich weicher fallen, wenn die KI-Blase eines Tages platzt. Eine kommentierende Analyse.

133 Millionen KI-Nutzer in Europa – doch wem gehören die Modelle?

  • Laut einem Report der niederländischen Internet-Beteiligungsgesellschaft Prosus gibt es in Europa mehr KI-Nutzer als in den USA. Demnach nutzen rund 133 Millionen Europäer Sprachmodelle wie ChatGPT und Co. – fast doppelt so viele wie in den USA. Zudem stammen drei der zehn weltweit meistzitierten KI-Wissenschaftler aus EU-Ländern. Doch: Fast jedes KI-Modell, das in Europa genutzt wird, wurde in den USA oder China entwickelt. Laut einer Analyse der Universität Bonn ist die Digitalhandelsbilanz Europas zwar stabil, doch die Abhängigkeit von den USA, China sowie US-Unternehmen mit europäischem Sitz in Irland trügt das Bild.
  • Mit Mistral AI aus Frankreich gibt es bislang nur ein einziges europäisches KI-Unternehmen, das ein halbwegs konkurrenzfähiges Sprachmodell zu ChatGPT, Gemini und Claude entwickelt hat. Das KI-Modell Le Chat wurde vor allem auf Datenschutz und Effizienz getrimmt. Mistral AI verspricht etwa, dass Daten standardmäßig innerhalb der EU gespeichert werden. Es gibt aber Ausnahmen. Denn wenn US-Dienstleister genutzt werden, können Daten teilweise oder zwischenzeitlich auch in die Vereinigten Staaten abfließen. Das Unternehmen richtet sich mittlerweile mehr an Unternehmenskunden als an Privatnutzer.
  • Die USA sind führend, was den Umfang und die Intensität der Nutzung von KI am Arbeitsplatz angeht. Zu diesem Ergebnis kommt eine Studie des Wissenschaftszentrums Berlin für Sozialforschung (WZB). Deutschland liegt demnach im Mittelfeld der europäischen Länder. Die Unterschiede seien jedoch gewachsen und würden die Produktivität der Beschäftigten in vielen Unternehmen beeinflussen. Den Ergebnissen zufolge ist die geringere Nutzung von KI ein wichtiger Erklärungsfaktor für das geringere Produktivitätswachstum in Europa im Vergleich zu den USA.

Was Europa bei KI richtig macht – und wo es scheitert

Europa ist Europas bester Freund und schlimmster Feind zugleich – zumindest, wenn es um KI und Digitalisierung geht. Nicht, weil wir zwangsläufig zu viel regulieren. Im Gegensatz zu den USA oder China schert man sich in Europa noch um Daten- und Verbraucherschutz. Und das ist auch gut so.

Doch: Wir haben auch deutlichen Nachholbedarf. Etwa, wenn es darum geht, KI sinnvoll in Unternehmen, dem Gesundheitswesen oder in Behörden zu integrieren, um Land, Wirtschaft und Gesellschaft anzukurbeln. Denn richtig eingesetzt kann Künstliche Intelligenz die Welt zum Positiven verändern – ohne zwangsläufig Arbeitsplätze zu vernichten.

KI kann etwa dabei helfen, Behörden und das Gesundheitssystem zu entlasten, oder in einigen Branchen dem privatwirtschaftlichen Fachkräftemangel entgegenwirken. Statt den Menschen mehr Arbeit aufzubürden, wie es derzeit viele fordern, könnten Beschäftigte produktiver arbeiten. Etwa, indem sie sich auf Dinge konzentrieren können, für die zuvor nicht die nötige Zeit da war.

Künstliche Intelligenz könnte währenddessen die Drecksarbeit erledigen und dadurch Prozesse und Produktivität effizienter und schneller gestalten. Die Zwickmühle: KI ist für Europa Fluch und Segen zugleich. Denn KI ist eine Wette auf die Zukunft, die einem Glücksspiel gleichkommt. Beim Roulette weiß man wenigstens, wie das Rad funktioniert. Doch auch im Gegensatz zu Dampfmaschinen, Immobilien oder der Eisenbahn weiß man bei KI nicht, wohin die Reise führt.

Dass sich KI-Anwendungen rasend schnell weiterentwickeln, lässt sich aber nicht wegdiskutieren. Der Kosten-Nutzen-Faktor von Chatbots im Privatbereich erschließt sich mir vor dem Hintergrund von Fake News, KI-Betrug und einem massiven Ressourcenverbrauch mit Blick auf die Umwelt aber immer weniger. Stattdessen sollte KI nur dort eingesetzt werden, wo sie einen sinnvollen Beitrag leisten kann.

Das sagten Ökonomen und KI-Experten

  • Ökonomie-Nobelpreisträger Joseph Stiglitz in einem Interview mit dem Handelsblatt (€) zur ungebrochenen Dynamik der US-Wirtschaft: „Ein erheblicher Teil des Wachstums ist auf den Boom rund um Künstliche Intelligenz und den Bau von Rechenzentren zurückzuführen. Trump hatte schlicht Glück, während dieses Booms Präsident zu sein. (…) Der Aufschwung beschränkt sich auf eine Handvoll Technologiegiganten. Die gigantischen Bewertungen dieser Unternehmen sind letztlich Ausdruck der Erwartung langfristiger Monopolgewinne, die möglicherweise nie realisiert werden. Vieles deutet auf eine gigantische KI-Blase hin. Und wenn diese platzt, wird die zugrunde liegende Schwäche der US-Wirtschaft sehr deutlich sichtbar werden.“
  • Fabricio Bloisi, Chef der Internet-Beteiligungsgesellschaft Prosus, in einem Statement: „Europa steht im globalen Wettlauf um die KI am Scheideweg, doch wir sind zu langsam. Wir verfügen über Talente von Weltklasse, doch ohne rasche, umfangreiche Investitionen in unsere eigenen Rechenkapazitäten und Open-Source-Modelle laufen wir Gefahr, von anderen abhängig zu werden. Die Länder und Unternehmen, die jetzt handeln, werden das nächste Jahrzehnt prägen. Europa verändert sich, doch die Dinge gehen nicht schnell genug voran. Lasst uns so vorgehen, als hinge die Zukunft Europas davon ab – denn das tut sie.“
  • Auch Nicola Fuchs-Schündeln, Präsidentin des Wissenschaftszentrums Berlin für Sozialforschung (WZB), warnt: „Mit dem jetzt schon bestehenden Abstand in der KI-Nutzung ist daher eine noch wachsende Produktivitätslücke zu erwarten, wenn in Europa nicht gegengesteuert wird. Gerade angesichts der demografischen Entwicklung wird es entscheidend sein, unser Produktivitätswachstum in den nächsten Jahren zu erhöhen.“

Wie Europa von einer platzenden KI-Blase profitieren könnte

Mit Blick auf die KI-Branche sind Prognosen derzeit selbst für Experten schwierig. Was sich aber mit großer Sicherheit prophezeien lässt: Die KI-Blase wird eines Tages platzen. Denn: Künstliche Intelligenz wird massiv überbewertet. Wenn es zum großen Knall kommt, wird sich Europa im Gegensatz zu den USA unter den aktuellen Umständen ins Fäustchen lachen.

Doch Crash ist nicht gleich Crash und Europa ist nicht die USA. Denn selbst wenn die Aktienkurse von Google, Meta, Apple oder Amazon einbrechen, ist das nicht deren unmittelbarer Untergang. Alle vier Konzerne haben nämlich profitable Standbeine fernab vom KI-Hype.

Bei Unternehmen wie OpenAI, Anthropic und Mistral AI sieht es aber anders aus. Denn diese setzen ausschließlich auf KI, während sie ihre Milliardeninvestments bislang nicht mal annähernd amortisiert haben. Ein mögliches Ende von OpenAI ist zwar nicht apodiktisch, wäre aber auch kein Systemcrash.

Trotz großer Abhängigkeiten von US-Technologien wird sich Europas vergleichsweise zurückhaltende Haltung im Falle einer platzenden KI-Blase aber wie ein Airbag erweisen. Die USA und China würden hingegen die gigantischen Fehlinvestitionen schmerzhaft verdauen müssen.

Die eigentliche Frage lautet deshalb nicht, ob Europa zu langsam ist. Vielmehr geht es darum, aus der aktuellen Zurückhaltung die richtigen Schlüsse zu ziehen. KI wird nämlich nicht verschwinden. Die Chance für Europa, einen Mehrwert zu schaffen, ist aber da. Etwa, wenn Pflegekräfte Dokumentationen nur noch prüfen statt schreiben müssen, um sich vermehrt den Pflegebedürftigen widmen zu können.

Wenn Industrieprozesse intelligent automatisiert werden, um Beschäftigte zu entlasten, anstatt ihnen Mehrarbeit aufzubürden. Oder: Wenn Anträge in der Verwaltung nicht mehr in Monaten, sondern nur noch in Wochen oder gar Tagen bearbeitet werden können. Chatbots für jedermann, die auf Knopfdruck Bilder, Videos oder Texte generieren, erscheinen jedoch mehr und mehr als Irrweg.

Auch interessant: 

Der Beitrag Europa im KI-Dilemma: Was passiert, wenn die Blase platzt? erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

WhatsApp öffnet sich: So nutzt du Chats mit anderen Messengern

02. April 2026 um 05:45

Der Beitrag WhatsApp öffnet sich: So nutzt du Chats mit anderen Messengern erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

WhatsApp Drittanbieter-Chats aktivieren Meta Digital Markets Act EU Smartphone

Bei WhatsApp kannst du künftig auch Drittanbieter-Chats integrieren und so Nachrichten aus verschiedenen Apps gebündelt an einem Ort finden. Wir erklären dir, wie du die neue Funktion aktivieren kannst und welche Dienste dabei alles unterstützt werden.

WhatsApp vereint auf seiner Plattform mehr als drei Milliarden Menschen in über 180 Ländern und ist damit der beliebteste Messenger weltweit. Doch die enorme Marktmacht der Meta-Tochter erhöht auch den regulatorischen Druck.

Mit dem Digital Markets Act will beispielsweise die EU einen faireren Wettbewerb stärken und sogenannte „Gatekeeper“ einschränken. Besonders dominante Dienste müssen sich deshalb nun für Drittanbieter öffnen – und das gilt auch für WhatsApp.

Aus diesem Grund kannst du künftig auch Drittanbieter-Chats in WhatsApp aktivieren und so verschiedene Messenger in einer App nutzen. Wir erklären dir, wie das funktioniert.

So kannst du Drittanbieter-Chats bei WhatsApp aktivieren

Drittanbieter-Chats kannst du bei WhatsApp ganz einfach in deinen Einstellungen aktivieren. Klicke dafür in der App auf deinem iPhone auf dein Profilbild in der unteren rechten Ecke des Bildschirms oder auf deinem Android-Smartphone auf die drei Punkte.

Wähle hier nun in den Einstellungen den Menüpunkt „Konto“ aus. Hier findest du die Option „Drittanbieter-Chats“. Über den Button „Aktivieren“ kannst du es Personen erlauben, dir aus Drittanbieter-Apps Nachrichten zu senden.

Hast du den Button „Aktivieren“ angeklickt, erhältst du noch einmal Informationen zu der neuen Funktion. WhatsApp weist hier auch noch einmal darauf hin, dass die neue Funktion nur für „zulässige Drittanbieter-Messaging-Apps“ gilt.

Diese kannst du nach einer Bestätigung über den „Weiter“-Button im nächsten Fenster in einer Übersicht sehen und auswählen. Aktuell sind hier allerdings nur die beiden Apps „BirdyChat“ und „Haiket“ zu finden. Ob Signal, Telegram und Co. hier noch Einzug halten, ist bisher nicht bekannt.

In einem nächsten Schritt musst du nun noch auswählen, ob du die Chats kombiniert in einem Postfach oder in einem getrennten Postfach bei WhatsApp anordnen willst. Mit einem abschließenden Klick auf „Aktivieren“ kannst du die neue Funktion nutzen.

WhatsApp-Chats mit anderen Messengern

In deinen Einstellungen kannst du außerdem auswählen, dass WhatsApp dich benachrichtigen soll, wenn du über einen Drittanbieter-Chat kontaktiert wirst. Willst du selbst einen Drittanbieter-Chat starten, kannst du das über das Plus in der oberen rechten Ecke deines Bildschirms im Bereich Chats machen.

Tippe auf das Plus und wähle dann „Neuer Drittanbieter-Chat“ aus. Wähle dann die jeweilige App aus und gib die Benutzer-ID des Empfängers ein.

Das kann laut WhatsApp je nach App eine E-Mail-Adresse, eine Telefonnummer oder ein Benutzername sein. Am Ende bestätigst du noch mit „Chat erstellen“ und kannst nun Nachrichten, Bilder, Videos, Sprachnachrichten und Dokumente versenden und empfangen. Diese werden bei der Übermittlung laut WhatsApp verschlüsselt.

Das solltest du bei der Nutzung von Drittanbieter-Chats bei WhatsApp beachten

Trotz der Integration der Drittanbieter-Chats sind einige Einstellungen anders als für herkömmliche WhatsApp-Chats. So werden beispielsweise dein Name und dein Profilbild nicht über die Drittanbieter-Chats geteilt, deine Telefonnummer hingegen schon.

WhatsApp weist außerdem darauf hin, dass dich jede Person über eine Drittanbieter-App anschreiben kann, die deine Telefonnummer kennt. Das gilt auch für Personen, die du auf WhatsApp blockiert hast. Erhältst du allerdings eine Nachricht von einer unerwünschten Person über einen Drittanbieter-Chat, kannst du diese auch ganz normal blockieren.

Aktuell ist die neue Funktion nur für iPhones und Android-Smartphones verfügbar. Auf Tablets, im Web oder in der Desktop-Version kannst du das Feature nicht nutzen.

Auch interessant:

Der Beitrag WhatsApp öffnet sich: So nutzt du Chats mit anderen Messengern erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Spritpreise auf Rekordhoch: So viel kosten E-Auto und Verbrenner pro 100 km

01. April 2026 um 20:07

Der Beitrag Spritpreise auf Rekordhoch: So viel kosten E-Auto und Verbrenner pro 100 km erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Spritpreise Spritkosten 2027 vergleich E-Auto Verbrenner Elektroauto 100 Kilometer

Der Krieg im Iran treibt die Spritpreise 2026 weiter in die Höhe. Viele Menschen in Deutschland fragen sich deshalb: Was ist günstiger? Wir verraten dir, was E-Auto und Verbrenner pro 100 Kilometer Strecke kosten. 

Wer aktuell an der Tankstelle stoppt, braucht starke Nerven: Der Krieg im Iran treibt die Spritpreise immer weiter nach oben. Wer Ende März 2026 sein Auto auftankt, fühlt sich schnell ins Jahr 2022 zurückversetzt, dem teuersten Tankjahr überhaupt.

Laut einer ADAC-Erhebung kletterte Super E10 am 30. März 2026 im Schnitt auf 2,087 Euro je Liter. Das entspricht dem höchsten Stand seit Mai 2022. Diesel lag mit 2,295 Euro nur knapp unter dem historischen Allzeithoch von 2,321 Euro.

Wie viel spart ein E-Auto bei den aktuellen Spritpreisen?

Autofahrer könnten nun darüber nachdenken, vom Verbrenner zum E-Auto zu wechseln. Dass die Bundesregierung private Käufer von Elektroautos mit bis zu 6.000 Euro fördert, dürfte dem ein oder anderen ein weiterer Anreiz sein. Doch vor der Entscheidung lohnt sich ein Blick auf die Energiekosten. Denn Ladestation ist nicht gleich Ladestation.

Während das Laden an der heimischen Wallbox pro 100 Kilometer preislich am günstigsten ist, verpufft dieser Vorteil beim spontanen Schnellladen an der Autobahn fast vollständig. Wer ohne Vertrag für über 0,75 Euro pro Kilowattstunde lädt, zahlt pro 100 Kilometer ähnlich viel wie für eine vergleichbare Strecke mit dem Verbrenner.

Was Benziner, Diesel und E-Auto pro 100 Kilometer kosten

Eines steht fest: Wer 2026 günstig wegkommen will, muss genau überlegen, wie, wo und wie lang er tanken möchte. Damit du einen Anhaltspunkt hast, haben wir dir die Spritkosten der drei Haupt-Autotypen auf 100 Kilometern berechnet:

  • Verbrenner: Ein typischer Benziner schluckt durchschnittlich 7,7 Liter E10 pro 100 Kilometer. Bei 2,087 Euro pro Liter kostet die Fahrt 16,07 Euro. Ein Diesel mit einem Realverbrauch von 6,7 Litern landet trotz Effizienzvorteil aufgrund des Preises von durchschnittlich 2,295 Euro bei 15,38 Euro.
  • Elektroauto: Der Verbrauchsmittelwert über verschiedene Modelle liegt bei etwa 15 Kilowattstunden inklusive Ladeverlusten. An der heimischen Wallbox kostet die Strecke bei einem Durchschnittspreis von 0,28 Euro pro Kilowattstunde etwa 4,20 Euro. Öffentliches AC-Laden kostet bei etwa 0,48 Euro pro Kilowattstunde für 100 Kilometer etwa 7,20 Euro. Wer am DC-Schnelllader ohne Tarifbindung für 0,75 Euro lädt, zahlt etwa 11,25 Euro.
  • Plug-in-Hybrid: Im rein elektrischen Betrieb liegen die Ladekosten per Wallbox bei einem Realverbrauch von etwa 17 Kilowattstunden bei 4,76 Euro. Fährt man ihn jedoch mit leerem Akku im Verbrennermodus, brauchen Plug-in-Hybride durchschnittlich etwa sechs Liter Kraftstoff. Das ergibt beim Fahren mit Benzin einen aktuelle Verbrauch von rund 12,50 Euro.

Fazit: Lohnt sich der Umstieg aufs E-Auto?

Wer eine eigene Wallbox hat und regelmässig pendelt, fährt im Vergleich zum Verbrenner mit dem E-Auto so günstig wie nie. 4,20 Euro gegenüber 15 Euro pro 100 Kilometer sprechen eine klare Sprache.

Aber: Der Kostenvorteil schmilzt, sobald man regelmässig auf öffentliche Schnelllader angewiesen ist.

Wer vor der Kaufentscheidung steht, sollte deshalb ehrlich prüfen, wie oft er zu Hause laden kann. Erst dann wird aus dem Preisvergleich auf dem Papier ein echter Vorteil im Alltag.

Auch interessant: 

Der Beitrag Spritpreise auf Rekordhoch: So viel kosten E-Auto und Verbrenner pro 100 km erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Woher weißt du, ob ein Stuhl wirklich ergonomisch ist?

01. April 2026 um 16:00

Der Beitrag Woher weißt du, ob ein Stuhl wirklich ergonomisch ist? erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Stuhl ergonomisch

Beendest du deine Arbeit mit Rückenschmerzen oder einem steifen Nacken? Bevor du lange Arbeitszeiten dafür verantwortlich machst, solltest du einmal über deinen Stuhl nachdenken. Ein wirklich ergonomischer Stuhl passt sich deinem Körper an und hilft dir, eine bessere Haltung einzunehmen. Aber wie kannst du feststellen, ob er wirklich ergonomisch ist? 

Hier sind 5 Merkmale, die einen Stuhl bequem und stützend für deinen Körper machen. 

Du kannst ihn auf unterschiedliche Weise anpassen

Nur einen Teil zu verstellen, reicht nicht aus. Denn ein guter ergonomischer Stuhl lässt sich nicht nur in der Höhe anpassen. Du solltest den Sitz, die Rückenlehne, die Lendenwirbelstütze und die Armlehnen separat verstellen können. Wenn du jeden Teil einzeln verstellen kannst, passt sich der Stuhl besser an deinen Körper und deinen Schreibtisch an. 

Er unterstützt die natürliche Krümmung deines Rückens 

Deine Wirbelsäule hat eine natürliche Krümmung. Daher sollte dein verstellbarer Bürostuhl sie nicht zwingen, gerade zu sein. Die unteren Rückenwirbel sind nach innen gewölbt. Ohne Unterstützung neigt diese Wölbung dazu, sich beim Sitzen abzuflachen. Ein guter Support für den unteren Rücken füllt sanft die Lücke in deinem unteren Rücken aus. Das hilft dir, aufrecht zu sitzen, und verringert die Wahrscheinlichkeit, dass du dich beim längeren Sitzen nach vorne beugst. 

Du kannst deine Haltung leicht ändern und bist nicht auf eine Position festgelegt

Wenn du lange in derselben Position sitzt, bekommen immer dieselben Bereiche deiner Wirbelsäule ständigen Druck. Das kann zu Beschwerden führen und deine Muskeln ermüden. Ein guter ergonomischer Stuhl ermöglicht dir, dich ein wenig zu bewegen, ohne dass du dabei auf Komfort verzichten musst. Wenn du dich zurücklehnst, stützt dich der Stuhl, statt es dir schwerer zu machen. 

Er unterstützt eine ausgeglichene Sitzposition

Wie du sitzt, kann sich darauf auswirken, wie sich dein unterer Rücken im Laufe des Tages anfühlt. Wenn deine Knie deutlich höher als deine Hüften sind, ist es schwieriger, bequem zu sitzen. Ein verstellbarer Stuhl ermöglicht es dir, deine Hüften auf gleicher Höhe mit deinen Knien oder etwas höher zu positionieren. Das hilft dir, gleichmäßiger zu sitzen und macht es leichter, aufrecht zu bleiben, ohne ständig deine Position zu verändern. 

Deine Schultern und Handgelenke bleiben entspannt 

Wie komfortabel sich dein Oberkörper anfühlt, hängt oft davon ab, wie du deine Arme stützt. Sind die Armlehnen zu hoch eingestellt, heben sich möglicherweise deine Schultern. Sind sie zu niedrig, neigst du dich möglicherweise nach vorne. Verstellbare Armlehnen helfen dabei, deine Arme in einer natürlichen Position zu halten. Dadurch fühlen sich deine Schultern und Handgelenke beim Arbeiten besser an. 

Zusammenfassung 

Ein Stuhl ist wirklich ergonomisch, wenn er sich an dich anpasst und nicht umgekehrt. Wenn Dinge wie die Höhe verändern, eine gute Rückenstütze, gleichmäßiges Sitzen und deine Arme bequem ablegen zusammenwirken, kannst du dich ganz ohne Anstrengung komfortabel fühlen. 

Der Beitrag Woher weißt du, ob ein Stuhl wirklich ergonomisch ist? erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Google Maps zeigt Spritpreise entlang deiner Route – so geht’s

01. April 2026 um 15:00

Der Beitrag Google Maps zeigt Spritpreise entlang deiner Route – so geht’s erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Google Maps Spritpreise vergleichen Tankstelle

Wer regelmäßig tankt, kennt das Problem: An der einen Tankstelle kostet der Liter Super 2,07 Euro und zwei Kilometer weiter nur 2,02 Euro. Google Maps zeigt Spritpreise inzwischen direkt entlang der geplanten Route an. Wir verraten dir, wie du die Funktion nutzen kannst und welche Alternativen es gibt. 

Die mobile Navigations-App Google Maps zeigt aktuelle Spritpreise verschiedener Tankstellen direkt in der Anwendung an. Nutzer können verschiedene Anbieter miteinander vergleichen und gezielt günstige Optionen für ihren Tankstopp auswählen. Vor allem für Menschen mit hoher Fahrleistung lohnt sich ein solcher digitaler Preisvergleich im Alltag. Die Suche lässt sich unkompliziert durch die Eingabe des Begriffs „Tankstelle“ in das Suchfeld starten. 

Bereits die schnelle Suche liefert Standorte in der näheren Umgebung mitsamt ihren aktuellen Preisen. Auf diesem Weg lässt sich eine preiswerte Möglichkeit für die Fahrt finden. Das Feature macht Kostenunterschiede zudem bereits vor dem Erreichen der Zapfsäule deutlich sichtbar.

Wie du günstige Tankstellen auf deiner Route findest

Wähle bei einer aktiven Route die Option für Zwischenstopps. Google Maps listet dann alle Tankstellen direkt entlang der berechneten Strecke auf. In dieser Übersicht zeigt dir das Tool zunächst nur den Preis für einen Liter Superbenzin an.

Wenn du die gewünschte Station antippst, erscheint die vollständige Übersicht mit den Kosten für Super E10, Diesel oder Super+ 98. Die Daten weisen etwa Kosten von 2,07 Euro für Super 95 und 2,06 Euro für Super E10 aus (Stand: 30. März 2026)

Bei der Nutzung musst du jedoch zwei wesentliche Einschränkungen beachten. Zunächst können sich die Preise bis zur Ankunft an der Zapfsäule ändern. In der Zeit zwischen der Suche und dem Erreichen des Ziels passen Tankstellen ihre Kosten oft an – wobei das mit den neuen Spritpreisregeln in Deutschland künftig nur noch einmal täglich sein soll.

Wäge zudem genau ab, ob sich ein Umweg wirtschaftlich lohnt. Denn ein zu langer, zusätzlicher Fahrweg verursacht einen Mehrverbrauch an Kraftstoff. Dieser Mehrverbrauch hebt den Preisvorteil unter Umständen vollständig wieder auf.

Spritpreisvergleich: 3 Alternativen zu Google Maps

Die Funktion steht in der neuesten Google-Maps-App bereit. Fahrer, die die Preise am PC vergleichen möchten, können stattdessen die Benzinpreissuche des ADAC im Webbrowser nutzen. Neben Google Maps gibt es spezialisierte Apps wie „Mehr-Tanken“ (für Android) oder „Clever Tanken“ (für Android). Letztere findet auch Elektrotankstellen in der Umgebung.

Die Anwendung „ADAC Drive“ verknüpft hingegen eine Routenplanung mit einem umfangreichen Preisvergleich. Nutzer eines ADAC-Kontos können von einer personalisierten Nutzung durch das Anlegen von Favoriten profitieren. Dieser Service beschleunigt den Vergleichsprozess auf häufig gefahrenen Strecken deutlich. Nutzer behalten dadurch ihre bevorzugten Tankstellen dauerhaft und schnell im Blick.

Fazit: Für den schnellen Preischeck unterwegs ist Google Maps die praktischste Lösung, weil die meisten Fahrer die App ohnehin zur Navigation nutzen. Wer allerdings regelmäßig dieselben Strecken fährt und Favoriten speichern will, ist mit ADAC Drive besser bedient. Clever Tanken lohnt sich vor allem dann, wenn du auch Ladesäulen für E-Autos im Blick behalten möchtest.

Auch interessant:

Der Beitrag Google Maps zeigt Spritpreise entlang deiner Route – so geht’s erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

KI-Müll ohne Endlager: 19 Prozent des Internets sind absoluter Schrott

01. April 2026 um 11:00

Der Beitrag KI-Müll ohne Endlager: 19 Prozent des Internets sind absoluter Schrott erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI-Müll Endlager KI-Schrott AI Slop Künstliche Intelligenz

Bereits 19 Prozent aller Websites im Google-Index sind KI-generiert – Tendenz steigend. Was nach einem technischen Problem klingt, bedroht Vertrauen, Diskurs und die Glaubwürdigkeit des gesamten Internets. Denn KI-Müll wirkt, weil er geglaubt werden will und geglaubt wird. Doch das Netz darf nicht als Endlager dienen. Eine kommentierende Analyse.

Von 2 auf 19 Prozent: Wie KI-Müll das Netz überflutet

  • Ob halbnackte Promis, Jesus als Shrimp oder reißerische Sensationsmeldungen: Seitdem KI-Modelle für nahezu jedermann kostenlos nutzbar sind, kursiert immer mehr Müll im Internet. Der Content-Detektor Originality.ai hat etwa dokumentiert, dass der Anteil KI-generierter Websites im Google-Index Anfang 2020 bei 2,27 Prozent lag. Drei Jahre später hat er sich verdreifacht. Wiederum ein Jahr danach stieg die Kurve drastisch an. Ende 2025 hatte sich der Anteil KI-generierter Inhalte von 8,5 Prozent auf 19 Prozent mehr als verdoppelt.
  • Aktuell fluten vor allem immer mehr KI-generierte Videos das Internet. Das gilt nicht nur für digitale Medien, sondern vor allem für Portale wie YouTube, von wo aus solche Clips weiterverbreitet werden. Das Problem: Statt handgemachter Unterhaltung, nerdigen Inhalten oder hochwertigen Dokumentationen landen immer mehr KI-Schrott und Fake-Videos im Netz. Oder kurzum: Beiträge, die nur darauf abzielen, Klicks zu erzielen oder manipulative Inhalte zu verbreiten.
  • Die viel größere Gefahr geht zwar von sogenannten Deepfakes aus. Also: Von Audio- und Videoaufnahmen, die mithilfe von Künstlicher Intelligenz erstellt wurden. Gesichter und Personen können so beispielsweise ausgetauscht oder in andere Aufnahmen eingefügt werden. Allerdings ist auch KI-Müll nicht ungefährlich. Denn: In der zunehmenden Schrottflut drohen wichtige und relevante Inhalte unterzugehen.

Warum das Internet zum Endlager für KI-Müll wird

Das Internet verwandelt sich still und heimlich zu einem Endlager für KI-Müll. Denn Künstliche Intelligenz generiert nicht nur Text und Bilder, sondern auch eine Endlosschleife aus Inhalten, die sich gegenseitig referenzieren, kopieren und verdichten.

Diese unsägliche Schrottlawine verschüttet nicht nur Relevanz. Sie untergräbt Diskurs, Demokratie und Fakten. Die traurige Folge: Was im Netz sichtbar ist, ist nicht mehr zwangsläufig relevant oder wertvoll, sondern auch nur algorithmisch anschlussfähig.

Der Preis, den wir für diese Entwicklung zahlen, ist jedoch horrend. Denn er wird nicht nur kulturell und gesellschaftlich sondern auch physisch spürbar. Rechenzentren und Serverfarmen sprießen beispielsweise schneller aus dem Boden als jede Müllkippe, fressen so viel Energie wie ganze Metropolen und saufen Wasser zur Kühlung, das in manchen Regionen zunehmend zu einem knappen Gut wird. Alles zulasten des Klimas.

Zeitgleich verkaufen Großkonzerne und die Politik Zukunftsversprechen wie die Kernfusion oder Mini-Atomkraftwerke als Alibi für einen Energiehunger, den sie nicht nur selbst entfacht haben, sondern der teilweise Verschwendung gleichkommt. Was ich damit meine: KI-Müll erscheint oftmals harmlos. Doch sowohl Deepfakes als auch Fantasiewelten oder Katzenvideos sind gezielt platziert, um Ängste, Unterhaltung oder Emotionen zu triggern.

Wer glaubt, dass in einem dringend benötigten KI-Müll-Endlager nur belangloser Abfall landen würde, übersieht die Gefahr, dass dieser Müll wirkt, weil er geglaubt werden will – und geglaubt wird.

Reaktionen und Stimmen

  • Akhil Bhardwaj, Professor an der School of Management der University of Bath, gegenüber dem Guardian: „KI-Schrott überschwemmt das Internet mit Inhalten, die im Grunde genommen Müll sind. Diese Verschrottung ruiniert Online-Communities. Eine Möglichkeit, KI-Schrott zu regulieren, besteht darin, sicherzustellen, dass er nicht monetarisiert werden kann, wodurch der Anreiz für seine Erstellung wegfällt.“
  • Moderator, Schauspieler und Komiker John Oliver in seiner wöchentlichen HBO-Show: „Es geht nicht nur darum, dass wir uns von gefälschten Inhalten täuschen lassen können, sondern dass deren bloße Existenz es böswilligen Akteuren ermöglicht, echte Videos und Bilder als Fälschungen abzutun. Ich sage nicht, dass es nicht Spaß macht, sich manche dieser Dinge anzusehen, aber ich sage, dass manche davon potenziell sehr gefährlich sind.“
  • Sowohl YouTube als auch Meta setzen auf automatisierte Systeme, um KI-Inhalte zu identifizieren. Während die Videoplattform vor allem gegen minderwertige Inhalte vorgehen will, hat Meta einem Statement zufolge KI-Betrug im Visier: „Zwar werden wir weiterhin Mitarbeiter haben, die Inhalte prüfen, doch diese Systeme werden Aufgaben übernehmen, die sich besser für den Einsatz von Technologie eignen, wie zum Beispiel die wiederholte Überprüfung grafischer Inhalte, in denen böswillige Akteure ihre Taktiken ständig ändern, etwa beim Verkauf illegaler Drogen oder bei Betrugsfällen.“

Lässt sich die KI-Müll-Flut noch stoppen?

Das Problem, ein Endlager für KI-Müll zu finden, ist nicht Folge eines Naturereignisses, sondern menschengemacht. Will heißen: Es ist prinzipiell steuerbar. KI ist zwar zweifellos ein praktisches Werkzeug, wenn sie dabei hilft, Prozesse zu beschleunigen, Diagnosen zu verbessern oder Recherchen zu erleichtern; und zwar auch im Privatbereich.

Doch solange Quantität über Qualität triumphiert, droht das Werkzeug stumpf zu werden. Das gilt auch für den Vertrauensvorschuss vieler Nutzer. Das Problem: Die eigentliche Erosion findet in unseren Köpfen statt. Denn wenn alles potenziell fake ist, verliert auch das Echte an Gewicht, da man schlichtweg kaum noch Inhalten trauen kann.

Diese Unsicherheit sickert längst in klassische Medien durch und stellt deren Glaubwürdigkeit infrage. Doch falls Zweifel zu einer Grundhaltung werden, erreichen wir einen Zustand, in dem Desinformation florieren kann, indem sie Zweifel sät. Die Verantwortung liegt jedoch nicht nur bei Otto Normalnutzern, KI-Spielereien zu unterlassen, sondern vor allem bei den digitalen Plattformen und ihren Betreibern. Denn sie entscheiden, was sichtbar wird und was verschwindet.

Das Problem dabei ist nur, dass die sogenannten sozialen Medien mitunter von KI-Müll und Desinformation profitieren. Nämlich dann, wenn solche Inhalte große Aufmerksamkeit erreichen, was den Betreibern wiederum Werbeeinnahmen beschert. Ohne klare Regeln, transparente Kennzeichnung und echte Konsequenzen bleibt das KI-Müll-Endlager jedoch ein profitabler Dauerzustand.

Auch interessant:

Der Beitrag KI-Müll ohne Endlager: 19 Prozent des Internets sind absoluter Schrott erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

In 11 Minuten vollgeladen: BAIC zeigt neuen Natrium-Akku für E-Autos

01. April 2026 um 05:45

Der Beitrag In 11 Minuten vollgeladen: BAIC zeigt neuen Natrium-Akku für E-Autos erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Natrium-Ionen-Akku

Das chinesische Unternehmen BAIC hat einen Natrium-Ionen-Akku für Elektroautos vorgestellt, der sich in gerade einmal elf Minuten komplett aufladen lassen soll. 

BAIC hat einen neuen Natrium-Ionen-Akku entwickelt. Die Forschungsabteilung des Pekinger Konzerns schloss damit die Entwicklung eines universellen Akkutechnologiesystems ab. Das Unternehmen stuft den Speicher laut Informationen von IT-Home als bereit für die Massenfertigung ein.

Die Batterie soll sich bei entsprechender Starkstrom-Versorgung innerhalb von nur elf Minuten vollständig aufladen lassen. Diese Geschwindigkeit ermöglicht Tankstopps, die zeitlich an herkömmliche Verbrenner mit Benzin oder Diesel herankommen. BAIC verspricht durch die kurze Ladedauer eine hohe Alltagstauglichkeit für den Langstreckeneinsatz.

Natrium-Ionen-Akku: BAIC nutzt modulare Technik

Die technologische Plattform dient als Grundlage für verschiedene Arten von Batterien. Das System unterstützt neben Natrium-Zellen auch klassische Lithium-Ionen-Varianten sowie Solid-State-Akkus. BAIC reagiert mit diesem modularen Ansatz auf unterschiedliche Anforderungen im Fahrzeugmarkt.

Die Ingenieure des Unternehmens schlossen die Prozesse für die Herstellung und die Testung der einzelnen Zellen ab. Aktuell setzt BAIC den gesamten Produktionsprozess industriell um. Der Konzern sicherte sich die Rechte an dieser Technologie durch 20 angemeldete Patente.

Tochtermarke Stelato zeigt, wie das System in der Praxis funktioniert. Das Unternehmen entwickelte gemeinsam mit Huawei das Fahrzeugmodell S9. Während BAIC das Akkutechnologiesystem liefert, fungiert Huawei als Partner bei der Entwicklung des Gesamtfahrzeugs.

Huawei-Partner im Praxistest

Das Batteriepaket erreicht eine Energiedichte von mehr als 170 Wattstunden pro Kilogramm. Herkömmliche Lithium-Ionen-Akkus bieten mit 200 bis 250 Wattstunden pro Kilogramm zwar mehr Kapazität, doch die Natrium-Batterie gleicht dies durch den Zeitgewinn aus. Käufer tauschen somit Reichweite gegen die extrem kurze Ladedauer von elf Minuten ein.

BAIC liefert den Akku als fertiges Paket inklusive Ladeelektronik und Ummantelung aus. Diese Bauweise erlaubt eine zügige Integration in bestehende Fahrzeugplattformen. Das Unternehmen legt damit die Basis für eine breite Anwendung der Natrium-Technik in der Elektromobilität.

Natrium ist ein wesentlicher Bestandteil von gewöhnlichem Speisesalz und daher leichter verfügbar als Lithium. Hersteller gewinnen diesen Rohstoff unkompliziert und kostengünstig. Im Alltag profitieren Nutzer von einer Technik, die unabhängig von teuren Importen knapper Ressourcen funktioniert. Wie hoch genau die Reichweite des neuen Akkus ist, ist nicht ganz klar. Vergleichbare Natrium-Batterien wie von CATL kommen an die 400 Kilometer heran.

Natrium-Ionen-Akku von BAIC: Leistung bei Kälte

Die neuen Batterien arbeiten in einem Temperaturbereich zwischen minus 40 und plus 60 Grad Celsius. Selbst bei Kälte von minus 20 Grad soll der Speicher noch 92 Prozent seiner Kapazität bereitstellen. Damit verspricht das System eine verlässliche Lösung für den Einsatz in winterlichen Regionen.

Zusätzlich weisen die Zellen eine hohe physikalische Sicherheit gegenüber äußeren Einwirkungen auf. Die Batterie übersteht mechanische, elektrische oder thermische Belastungen ohne Brandentwicklung. Damit positioniert der Konzern das System als sicherere Option gegenüber klassischen Lithium-Speichern.

Der Fortschritt könnte den weltweiten Wettbewerb um effiziente Speicherlösungen beschleunigen. In diesem Umfeld präsentierten der Akkuriese CATL und der Autokonzern Changan bereits den ersten serienreifen Elektro-Pkw mit dieser Technik. BAIC bereitet nun die industrielle Umsetzung vor, um die eigene Lösung zeitnah zu verbauen.

Auch interessant:

Der Beitrag In 11 Minuten vollgeladen: BAIC zeigt neuen Natrium-Akku für E-Autos erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

5 Aufgaben, die KI-Agenten eigenständig erledigen – oft unbemerkt

31. März 2026 um 20:18

Der Beitrag 5 Aufgaben, die KI-Agenten eigenständig erledigen – oft unbemerkt erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI-Agenten Aufgaben

In vielen Unternehmen sind KI-Systeme längst mehr als digitale Assistenten. Sie greifen in Prozesse ein, treffen Vorentscheidungen und übernehmen eigenständig Aufgaben, für die früher teilweise ganze Teams zuständig waren.

Die Diskussion um Künstliche Intelligenz hat in vielen Unternehmen eine neue Phase erreicht. Nach der ersten Welle experimenteller Anwendungen wie Textgenerierung, Automatisierung von E-Mails oder einfachen Analyseprozesse geht es nun um deutlich mehr. Nämlich um autonome Systeme, die Entscheidungen eigenständig vorbereiten und ausführen können.

KI-Agenten markieren dabei einen entscheidenden Übergang. Sie reagieren nicht mehr nur auf Eingaben, sondern handeln innerhalb definierter Systeme eigenständig. Bereits 2025 belegte eine Analyse etwa, dass rund ein Drittel der Unternehmen KI-Tools einsetzt.

Rund neun Prozent hatten die Technologie damals vollständig in ihre Prozesse integriert. Was neu ist: Der Deutsche Mittelstands-Index zeigt, dass die Nutzung von Künstlicher Intelligenz mittlerweile deutlich gestiegen ist.

Wie stark nutzen Unternehmen bereits KI-Agenten?

Mehr als jedes zweite mittelständische Unternehmen nutzt oder testet inzwischen KI-Lösungen. Das entspricht einem Plus von 54 Prozent gegenüber dem Vorjahr.

Besonders dynamisch entwickele sich der Einsatz von KI-Agenten: 16,6 Prozent der befragten Unternehmen setzen bereits auf die Technologie, die eigenständig Aufgaben übernimmt und Prozesse orchestriert. Damit habe sich dieser Anteil fast verdoppelt.

Trotz dieses Booms bleibt ein Spannungsfeld bestehen. Während Vorreiter durch Agenten massive Effizienzsprünge verzeichnen, kämpft ein Drittel der Unternehmen noch mit der strategischen Orientierung.

Der Grund: Datenschutzbedenken, Fachkräftemangel und isolierte Datensilos, die KI-Agenten keinen echten Kontext bieten. Doch auch ohne Profi für Künstliche Intelligenz zu sein, kann die Technologie einige Aufgaben automatisch übernehmen.

Diese Aufgaben können KI-Agenten automatisch übernehmen

Das Fraunhofer-Institut hat eine Studie veröffentlicht, die sich mit dem Verständnis von KI-Agenten und deren gezielten Einsatz beschäftigt. Mit dem Konzept des „Agentic Level“ können Unternehmen bewerten, ob ein System als KI-Agent gilt und welche Risiken und Potenziale damit verbunden sind.

Die Analyse beschäftigt sich außerdem mit den unterschiedlichen Einsatzbereichen und liefert praxisnahe Handlungsempfehlungen für den erfolgreichen Einsatz.

Basierend auf den Anwendungsfeldern, die das Fraunhofer IAO als besonders geeignet für KI-Agenten identifiziert hat, zeigen wir dir fünf konkrete Aufgabenbereiche, in denen Agenten 2026 das Ruder übernommen haben.

1. Technischer Support ohne klassische Eskalation

KI-Agenten im Kundenservice agieren heute weit über die Fähigkeiten klassischer Chatbots hinaus. Ihr entscheidender Vorteil liegt in der Kopplung von Sprachverständnis mit aktiver Werkzeugnutzung.

Ein Agent nimmt eine Störungsmeldung nicht nur entgegen, sondern greift über Schnittstellen direkt auf die System-Logs des Kunden zu. Er führt eigenständig Diagnosen durch, prüft Konfigurationen und leitet Reparaturprozesse oder Resets ein, ohne dass ein menschlicher Techniker intervenieren muss.

Das senkt die Wartezeiten für Kunden massiv und entlastet Personal durch geringere Bearbeitungszeiten.

2. Ein Vertrieb, der Chancen erkennt, bevor sie sichtbar werden

Im modernen Vertrieb übernehmen KI-Agenten bereits Recherchephase. Der Vorteil dieser autonomen Systeme ist ihre Fähigkeit zur „Perzeption“: Sie scannen das Web nach Signalen wie aktuellen Firmennews, Social-Media-Aktivitäten oder Quartalsberichten potenzieller Kunden.

Durch den Abgleich dieser Echtzeit-Daten mit dem internen CRM-Profil bewerten sie selbstständig die Abschlusswahrscheinlichkeit. Das Sales-Team erhält so eine vorqualifizierte Liste und kann seine Energie ausschließlich auf den persönlichen Abschluss konzentrieren, anstatt Stunden mit der Datenpflege zu verschwenden.

3. Marketing als Echtzeit-System

Die Stärke von KI-Agenten im Marketing liegt in der Orchestrierung komplexer Kampagnen über mehrere Kanäle hinweg. Ein Agent kann kontinuierlich das Klick- und Kaufverhalten der Nutzer analysieren und passt darauf basierend die Content-Distribution in Echtzeit an.

Er erstellt nicht nur individuelle Teaser oder Grafiken für verschiedene Zielgruppen, sondern entscheidet auch autonom über den optimalen Ausspielungszeitpunkt und das Budget-Shifting zwischen den Plattformen. Für Unternehmen bedeutet das eine Steigerung der Konversionsraten bei sinkendem Steuerungsaufwand.

4. Multi-Agenten-basiertes Projektmanagement

Innerhalb der internen Organisation können KI-Agenten als proaktive Koordinatoren fungieren. Der Vorteil liegt darin, dass Agenten Ticketsysteme, Fristen und Mitarbeiterkapazitäten simultan überwachen können.

Droht eine Verzögerung in einem Teilprojekt, kommuniziert der Agent direkt mit den betroffenen Schnittstellen-Agenten, berechnet alternative Szenarien und passt die Ressourcenplanung in den Management-Tools autonom an.

5. Risiken KI-gestützt managen

KI-Agenten transformieren die Rechts- und Compliance-Abteilung von einer reaktiven in eine präventive Einheit. Ein spezialisierter Agent kann permanent regulatorische Veröffentlichungen und Gesetzesänderungen auf globaler Ebene scannen.

Durch die Fähigkeit zur logischen Schlussfolgerung erkennt er sofort, welche internen Richtlinien oder Lieferketten-Prozesse von einer neuen Regelung betroffen sind. Er erstellt eigenständig Entwürfe für notwendige Anpassungen und schlägt konkrete Handlungsanweisungen vor.

Die Entwicklung zeigt: KI-Agenten sind 2026 keine bloßen Werkzeuge mehr, sondern digitale Teammitglieder. Wie das Fraunhofer IAO betont, liegt der Schlüssel zum Erfolg in der Fähigkeit der Systeme, Probleme zu verstehen und eigenständig Lösungswege über Schnittstellen zu gehen.

Um vom Potenzial der KI-Agenten zu profitieren, müssen Unternehmen allerdings in eine saubere Datenarchitektur investieren und ihre Mitarbeiter durch gezielte Weiterbildung in die Rolle von fähigen KI-Managern versetzen.

Fazit: KI-Agenten in Unternehmen

Von den fünf Einsatzbereichen dürfte der technische Support für den deutschen Mittelstand den schnellsten Return liefern. Der Grund: Support-Prozesse sind oft standardisiert, datenreich und wiederholbar  und damit eine ideale Voraussetzungen für den Einsatz von KI-Agenten. Wer hier ansetzt, kann Beschäftigte spürbar entlasten, ohne gleich die gesamte Unternehmensstruktur umbauen zu müssen.

Deutlich komplexer wird es beim Compliance-Einsatz. Denn gerade für kleinere Unternehmen ohne eigene Rechtsabteilung klingt ein KI-Agent, der regulatorische Änderungen automatisch erkennt, verlockend. Doch genau hier ist das Risiko am größten. Wer blind auf die Einschätzung eines Agenten vertraut, riskiert teure Fehler. Unsere Empfehlung: Klein starten, im Support Erfahrung sammeln und erst dann in sensiblere Bereiche skalieren.

Auch interessant:

Der Beitrag 5 Aufgaben, die KI-Agenten eigenständig erledigen – oft unbemerkt erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Börsenreif um jeden Preis: OpenAI vollzieht radikalen Strategiewechsel

31. März 2026 um 11:00

Der Beitrag Börsenreif um jeden Preis: OpenAI vollzieht radikalen Strategiewechsel erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

OpenAI Börse Strategiewechsel ChatGPT

OpenAI hat einen radikalen Kurswechsel vollzogen. Das Unternehmen hat nicht nur mehrere ChatGPT-Funktionen eingestampft, sondern auch seine pompös angekündigte Video-KI Sora. Hintergrund sind nicht nur aus dem Ruder gelaufene Kosten, sondern offenbar auch interne Differenzen. Zudem strebt OpenAI an die Börse. Eine kommentierende Analyse.

Strategiewechsel: Was ist bei OpenAI passiert – und warum jetzt?

  • OpenAI hat überraschend seine Video-KI Sora eingestampft. Laut Financial Times (€) sind relativ hohe Verluste von bis zu einer Million US-Dollar pro Tag dafür verantwortlich. Hinzu dürfte der gigantische Ressourcenverbrauch kommen. Denn Videogeneratoren benötigen weitaus mehr Rechenpower sowie Strom und Kühlung als Sprachmodelle. Mit dem Aus von Sora dürfte auch ein Milliarden-Deal mit Disney Geschichte sein, das Futter in Form von Disney-Videos liefern wollte.
  • Mit einem sogenannten Erotikmodus wollte OpenAI einen Chatbot für Erwachsene etablieren, in dem es heiß hergeht. Doch bereits unmittelbar nach der Vorstellung im Oktober 2025 geriet das Vorhaben massiv in die Kritik. Eigentlich sollte der Erotikmodus im Februar 2026 starten. Doch wie das Wall Street Journal (€) berichtet, gab es nicht nur technische Probleme mit der Alterskontrolle sowie eine hohe Fehlerrate. Auch interne Differenzen und ein drohender Imageverlust haben nun dafür gesorgt, dass das Projekt zunächst einmal auf Eis liegt.
  • Bereits seit Oktober 2025 kursieren Gerüchte, dass OpenAI einen Börsengang anstrebt. Die Anzeichen dafür verdichten sich aktuell immer mehr. Doch aufgrund der komplizierten Struktur des Unternehmens sowie der eigenen ethischen Ansprüche droht ein Drahtseilakt. Im Gegensatz zu Einnahmen durch Werbeanzeigen oder dem Versuch, weitere zahlende Abonnenten zu gewinnen, verspricht ein Gang an die Börse deutlich mehr und schneller Kapital. Und das wird dringend benötigt.

OpenAI hat sich mit seiner Funktionsflut selbst geschadet

OpenAI hat sich in seiner eigenen Funktionsflut verheddert und viel ausprobiert, aber nichts wirklich zu Ende gedacht. Die bittere Folge: ChatGPT konnte dadurch zwar viel, aber nichts wirklich richtig. Hinzu kommt, dass sowohl Sora als auch zahlreiche neue Funktionen wie der Erotikmodus viel Geld verschlungen haben.

Mit seinen Werbemodellen kommt OpenAI zudem nicht aus den Startlöchern. Im Gegenteil: Erste Versuche wurden von Nutzern als absolut nervig empfunden. Da die KI-Branche ein wirtschaftlich noch relativ unerschlossenes Feld ist, sind neue Ansätze und Versuche zwar verständlich und in gewissem Maß sogar löblich. Doch OpenAI hat es schlichtweg übertrieben – zumal das Unternehmen nach wie vor keinen Gewinn verzeichnet.

Das Aus von Sora und das Einfrieren des Erotikmodus markieren mehr als nur gescheiterte Experimente. Sie stehen sinnbildlich für eine strategische Zersplitterung, mit der sich OpenAI letztlich selbst geschadet hat – vom mehr als fraglichen Deal mit dem US-Militär ganz zu schweigen.

Heißt unterm Strich: Während OpenAI an einem Funktionsflickenteppich gebastelt hat, ist die Konkurrenz um Anthropic und Google im Kerngeschäft enteilt. Der nun erfolgte Kurswechsel hin zu einem leistungsstärkeren GPT ist daher weniger Vision als Notbremse. Doch die Rückbesinnung auf essentielle Kernkompetenzen kommt spät, vielleicht sogar zu spät. Denn mit seinen zahlreichen Fehltritten hat OpenAI nicht nur Zeit verloren, sondern auch Vertrauen verspielt.

Stimmen und Reaktionen

  • In einem Beitrag auf X (ehemals Twitter) ließ das Sora-Team im Namen von OpenAI verlauten: „Wir verabschieden uns von Sora. An alle, die mit Sora etwas geschaffen, es geteilt und eine Community darum herum aufgebaut haben: Vielen Dank. Was ihr mit Sora geschaffen habt, war wichtig, und wir wissen, dass diese Nachricht enttäuschend ist. Wir werden bald weitere Informationen veröffentlichen, darunter Zeitpläne für die App und die API sowie Details zur Sicherung eurer Arbeiten.“
  • Fidji Simo, CEO of Applications bei OpenAI, in einem All-Hands-Meeting, das CNBC transkribiert hat: „Unsere Chance besteht nun darin, diese 900 Millionen Nutzer zu Anwendern mit hohem Rechenbedarf zu machen. Das werden wir erreichen, indem wir ChatGPT in ein Produktivitätswerkzeug verwandeln. Was für uns im Moment wirklich zählt, ist, konzentriert zu bleiben und unsere Leistung absolut perfekt umzusetzen.“
  • Ein Disney-Sprecher erklärte, das Unternehmen respektiere „die Entscheidung von OpenAI, sich aus dem Geschäft mit der Videogenerierung zurückzuziehen und seine Prioritäten anderweitig zu setzen. Wir schätzen die konstruktive Zusammenarbeit zwischen unseren Teams und die Erkenntnisse, die wir daraus gewonnen haben. Und wir werden weiterhin mit KI-Plattformen zusammenarbeiten, um neue Wege zu finden, unsere Fans dort abzuholen, wo sie sind – und gleichzeitig neue Technologien verantwortungsbewusst einzusetzen, die geistiges Eigentum und die Rechte der Urheber respektieren.“

OpenAI plant größten Börsengang aller Zeiten

Hinter dem Strategiewechsel von OpenAI zeichnet sich vor allem eines ab: die Börsenreife um jeden Preis. Doch ein IPO, der Ende 2026 oder Anfang 2027 kommen könnte, verlangt klare Zahlen, skalierbare Modelle und Nutzerwachstum. Spielereien wie ein Erotikmodus oder die Video-KI Sora, die technisch zwar beeindruckend war, jedoch hinsichtlich Urheberrecht, Datenschutz und Monetarisierung undurchdacht war, passen nicht in dieses Bild.

Stattdessen will OpenAI künftig auf Nützlichkeit und Monetarisierung mit System setzen. Heißt konkret: neue Tarife, sinnvolle Werbeformate und die Transformation von ChatGPT zu einer Plattform, die nützlich und weniger unterhaltend ist. Die bittere Wahrheit: OpenAI hätte all das schon haben können.

Doch statt zu überlegen, was wirklich sinnvoll ist, hat das Unternehmen ausprobiert, was technisch möglich ist – und damit Millionen verbrannt. Dennoch könnte man gerade noch so die Kurve bekommen. Allem Anschein nach will OpenAI ChatGPT nämlich nicht nur (wieder) zu einem nützlichen Assistenten machen, sondern als Betriebssystem etablieren.

Denn: Während das Unternehmen auf der einen Seite innerhalb seines Chatbots aufräumt, erschließt man bereits andere Bereiche. Das Sora-Team soll sich dem Vernehmen nach künftig etwa auf Robotik-Anwendungen konzentrieren.

Mit der Verpflichtung des OpenClaw-Entwicklers Peter Steinberger hat OpenAI zudem bereits nötige Expertise für komplexe und praktische Anwendungen eingekauft, um im Wettbewerb mit Google und Anthropic Unternehmenskunden für sich zu gewinnen.

Fazit: OpenAI hat sich mit seinem Strategiewechsel eine letzte Chance erkauft. Die Idee, ChatGPT als eine Art Betriebssystem zu etablieren, hat zwar Potenzial. Doch nach vielen kostspieligen Irrwegen muss das Unternehmen jetzt liefern. Nicht mit Ankündigungen, sondern mit einem Produkt, das den Alltag der Nutzer tatsächlich besser macht.

Auch interessant: 

Der Beitrag Börsenreif um jeden Preis: OpenAI vollzieht radikalen Strategiewechsel erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

❌