Normale Ansicht

Received yesterday — 09. April 2026BASIC thinking

Echt oder KI? Wenn die Realität unter Gemeralverdacht gerät

09. April 2026 um 13:30

Der Beitrag Echt oder KI? Wenn die Realität unter Gemeralverdacht gerät erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI Realität NO AI Künstliche Intelligenz Wahrnehmung

Ist das echt oder KI? Inhalte von Künstlicher Intelligenz zerstören nach und nach unser Vertrauen in Bilder, Videos, Stimmen und Artikel. Müssen Inhalte also wieder menschlicher werden? So einfach ist es nicht.

Vielleicht kennst du das: Du scrollst durch Social Media-Kanäle und dir gehen nicht nur die schlechten Inhalte auf die Nerven, sondern es wächst auch der Verdacht, dass überhaupt nichts mehr echt sein könnte.

Man könnte voreilig die immer stärker werdende Skepsis gegenüber KI-erzeugten Inhalten als pessimistische Überreaktion abzutun: „Von Menschen erzeugte Inhalte sind halt doch besser, das haben wir ja schon immer gewusst!“

Wer jedoch heute irritiert oder sogar ablehnend auf künstlich erzeugte Bilder, Videos oder Stimmen reagiert, ist nicht automatisch technikfeindlich. Er oder sie reagiert meiner Ansicht nach vielmehr auf eine Veränderung der digitalen Umwelt, die viele Menschen längst spüren, auch wenn sie sie noch nicht genau benennen können.

Echt vs. KI: Was ist das Problem?

Das Problem liegt nicht nur darin, dass KI inzwischen täuschend echte Inhalte erzeugen kann. Das größere Problem besteht darin, dass sich durch diese KI-erzeugten Inhalte unser Blick auf digitale Inhalte insgesamt verschiebt.

Wo früher ein gewisses Grundvertrauen vorhanden war, besteht heute immer häufiger ein stilles Misstrauen: Ist der Inhalt echt? Ist er bearbeitet? Ist er inszeniert? Ist er vielleicht gar nicht mehr von einem Menschen erstellt worden?

Das ist deshalb so bemerkenswert, weil die Stärke von KI lange Zeit ganz woanders verortet wurde. Es ging um Effizienz, um Produktivität, um neue kreative Möglichkeiten, um Entlastung des Menschen.

All das ist nicht falsch. Aber diese Perspektive greift zu kurz. Denn KI verändert eben nicht nur, wie Inhalte entstehen. Sie verändert auch, wie wir Inhalte wahrnehmen und einordnen.

Nicht jede KI ist das Problem

Bevor ich jedoch weiter ausführe, ist ein Wort der Warnung erforderlich. Mir geht es nicht darum zu sagen, dass jeder Einsatz von KI problematisch ist. Das wäre seltsam, bin ich doch in meinen Vorträgen und Workshops fast schon ein an dem deutschen Veränderungsunwillen verzweifelnder KI-Optimist.

Wenn KI also hilft, Informationen zu strukturieren, Texte sprachlich zu glätten, Prozesse zu beschleunigen oder Wissen schneller zugänglich zu machen, ist das ausgesprochen nützlich.

Viele der aktuellen Anwendungen liegen ja auch heute genau in diesem Bereich und unterstützen so menschliches Arbeiten. Der Eindruck von Wirklichkeit wird dabei gerade nicht untergraben.

Kritisch wird es vielmehr dort, wo KI nicht mehr nur Werkzeug im Hintergrund ist, sondern sichtbar an die Stelle menschlicher Wirklichkeit tritt. Wenn Gesichter, Stimmen, Szenen oder ganze Stimmungen künstlich erzeugt werden, dann geht es nicht mehr nur um Unterstützung. Dann geht es um Simulation. Und genau an diesem Punkt – so kommt es mir derzeit vor – kippt für viele Menschen das Gefühl.

Denn ein sprachlich verbesserter Text und ein künstlich erzeugter Mensch, sind in meinen Augen nicht dasselbe. Eine KI, die im Hintergrund sortiert, ist etwas anderes als eine KI, die im Vordergrund Realität imitiert. Wer diese Unterscheidung macht, versteht besser, warum manche Anwendungen kaum Widerstand auslösen, während andere sofort Unbehagen erzeugen.

Bitte keine KI: Warum das Echte plötzlich wieder wichtig wird

Ich glaube, wir erleben derzeit eine Gegenbewegung zur Austauschbarkeit, wenn über KI lamentiert wird. Viele KI-Inhalte sehen wir nicht deshalb als problematisch an, weil sie technisch schlecht wären.

Im Gegenteil: Sie sind oft erstaunlich gut gemacht. Aber genau darin liegt oftmals das Problem. Sie wirken glatt, generisch und zu mühelos. Ihnen fehlt also nicht Qualität im technischen Sinn, wohl aber Reibung, Eigenheit, und „Kante“.

Das Echte wird in der Umgebung von einer Vielzahl von KI-Inhalten nicht deshalb attraktiver, weil es immer schöner oder besser wäre. Das Gegenteil ist inzwischen häufig der Fall. Es wird attraktiver, weil es knapper wird.

Wenn künstliche Produktion in nahezu unbegrenzter Menge möglich ist, dann gewinnt dasjenige an Wert, was nicht beliebig skalierbar ist: menschliche Erfahrung, echte Perspektive, konkrete Handschrift, Unschärfe, Widerspruch, Haltung.

Genau deshalb halte ich den Ausspruch „Bitte keine KI“ nicht für rückwärtsgewandt. Er zeigt vielmehr, dass Menschen sehr wohl spüren, wann Technik ihnen hilft und wann sie beginnt, den Charakter eines Inhalts zu verändern. Vielleicht ist das ein Zeichen von Übersättigung, vielleicht sogar von wachsender digitaler Reife.

Das eigentliche Problem ist der Vertrauensverlust

Noch wichtiger erscheint mir aber ein anderer Punkt. Die eigentliche Gefahr liegt nicht darin, dass Menschen von einzelne KI-Inhalte getäuscht werden. Sie liegt meiner Ansicht nach darin, dass das Misstrauen über den einzelnen Inhalt hinauswächst.

Wenn Menschen anfangen, nicht nur Künstliches kritisch zu betrachten, sondern auch Reales reflexhaft unter Verdacht zu stellen, von KI erstellt worden zu sein, dann verändert sich im Kern die ganze Wahrnehmung von digitaler Öffentlichkeit.

Das erinnert mich an ein anderes Problem, über das ich schon geschrieben habe, nämlich der digitalen Bildung und dem Umgang mit Informationen: Wissen ist heute in großer Menge verfügbar, aber vielen fällt es schwer, Informationen einzuordnen, in ihrer Gesamtheit zu erfassen und sich dabei nicht von Lautstärke oder Emotionen treiben zu lassen.

KI verschärft dieses Problem nun noch einmal. Jetzt geht es nicht mehr nur um die Einordnung von Informationen, sondern zunehmend auch um die Einordnung von „Wirklichkeit“, also ob etwas unverfälscht oder künstlich geschaffen wurde.

Geht diese Entwicklung weiter, dann könnten wir ein Umfeld bekommen, in dem Echtheit nicht mehr – wie bisher – vorausgesetzt wird, sondern begründet werden muss. Das ist eine erhebliche Veränderung.

Denn Vertrauen ist digital ohnehin schon fragil. Wenn nun auch noch die visuellen, akustischen und sprachlichen Ebenen flächendeckend synthetisierbar werden, dann wächst der Druck auf den einzelnen Nutzer, immer prüfen zu müssen, was er da eigentlich an Inhalten vor sich hat.

Auch die Rückkehr zur Echtheit ist nicht unschuldig

Ich will jetzt aber auch nicht in eine Romantisierung des Echten verfallen. Denn auch die neue Lust auf Echtheit ist nicht frei von Inszenierung. Schon jetzt lässt sich beobachten, dass „ohne KI“ selbst zu einem Label wird, das Aufmerksamkeit schafft und sich vermarkten lässt.

Das zeigt, dass das Thema komplizierter ist, als es auf den ersten Blick wirkt. Nicht jede Distanzierung von KI ist Ausdruck einer tiefen Haltung. Manches davon ist Strategie. So wie „mit KI“ vor kurzem noch als Innovationsbeweis galt, wird „ohne KI“ nun als Qualitätssiegel verwendet.

Meiner Ansicht nach müssen wir also vorsichtig sein bei der Einordnung. Weder ist KI pauschal der Feind des Menschlichen, noch ist alles Menschliche automatisch wertvoller. Entscheidend ist vielmehr, ob Inhalte und Technologien in einer Weise eingesetzt werden, die Vertrauen stärken oder untergraben.

Echt oder KI? Worauf es jetzt ankommt

Nach meinem Dafürhalten brauchen wir zukünftig weniger pauschale KI-Begeisterung und weniger pauschale KI-Abwehr. Stattdessen brauchen wir die Fähigkeit, Unterschiede zu erkennen.

Wo unterstützt KI sinnvoll? Wo ersetzt sie etwas, das besser nicht ersetzt werden sollte? Wo erweitert sie menschliche Möglichkeiten? Und wo produziert sie vor allem Masse und Oberflächenreize?

Das alles sind Fragen, die auf Medienkompetenz und Urteilsvermögen abzielen. Wenn wir uns nicht bewusst machen, wie KI-generierte Inhalte auf unser Vertrauen in Inhalte im Allgemeinen wirken, dann reden wir zu oberflächlich über den Nutzen von KI.

Vielleicht ist genau das die unbequeme Pointe dieser Entwicklung: KI zwingt uns nicht nur dazu, über Maschinen nachzudenken. Sie zwingt uns dazu, neu über das Menschliche nachzudenken und darüber, was wir eigentlich meinen, wenn wir etwas für echt halten.

Und vielleicht liegt gerade darin die eigentliche Herausforderung der kommenden Jahre, nämlich ob wir es schaffen, in einer Welt voller synthetischer Möglichkeiten die Maßstäbe nicht zu verlieren, nach denen wir Wirklichkeit erkennen, bewerten und ihr vertrauen. Genau daran wird sich entscheiden, ob KI unseren digitalen Alltag wirklich verbessert oder ihn nur noch künstlicher macht.

Auch interessant: 

Der Beitrag Echt oder KI? Wenn die Realität unter Gemeralverdacht gerät erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

E-Autojahr 2026: Lohnt sich ein gebrauchtes Elektroauto jetzt wirklich?

09. April 2026 um 11:00

Der Beitrag E-Autojahr 2026: Lohnt sich ein gebrauchtes Elektroauto jetzt wirklich? erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

gebrauchte Elektroautos E-Autos 2026

Der E-Automarkt erlebt 2026 einen spürbaren Aufschwung. Das gilt sowohl für neue als auch gebrauchte Elektroautos. Doch wer glaubt, dass allein die hohen Spritpreise dafür verantwortlich sind, der irrt. Eine kommentierende Analyse. 

Warum das Interesse an gebrauchten Elektroautos explodiert

  • Die aktuell relativ hohen Spritpreise bringen den Markt für Elektroautos in Schwung. Viele große Autoportale in Europa berichten etwa seit Beginn des Iran-Kriegs von einem deutlich höheren Interesse an neuen und gebrauchten E-Autos. Laut mobile.de würden etwa 43 Prozent der Deutschen bei anhaltend hohen Benzinpreisen zur Elektromobilität wechseln. Händler erhielten 66 Prozent mehr Anfragen nach gebrauchten Elektroautos. 36 Prozent sehen in der langfristigen Ersparnis das stärkste Argument für ein E-Auto.
  • Elektroautos waren auf dem Gebrauchtwagenmarkt bislang eher Ladenhüter. Viele Händler weigerten sich sogar, die Fahrzeuge in ihr Portfolio aufzunehmen. Der Grund: Sorgen vor geringen Reichweiten und Batterien, die frühzeitig an Leistung verlieren und dann teuer ausgetauscht werden müssen. Solche Sorgen sind mittlerweile jedoch eher Vorurteile und überwiegend unbegründet. Denn: Nicht nur die Reichweite von E-Autos steigt immer weiter. Die Batterien der meisten Stromer haben auch nach vielen Jahren noch eine hohe Kapazität von 80 bis 90 Prozent.
  • Wer eine eigene Wallbox hat und regelmäßig pendelt, fährt im Vergleich zum Verbrenner mit dem E-Auto aktuell so günstig wie nie. 4,20 Euro gegenüber 15 Euro pro 100 Kilometer sprechen etwa eine klare Sprache. Aber: Der Kostenvorteil schmilzt, sobald man vermehrt auf öffentliche Schnelllader angewiesen ist. Elektroautos lohnen sich finanziell deshalb vor allem für Eigenheimbesitzer. Ein neues Förderprogramm der Bundesregierung verspricht jedoch den Aufbau von erschwinglichen E-Ladesäulen in und an Mehrparteienhäusern.

Spritpreise oder Strukturwandel: Was den Boom wirklich antreibt

Der aktuelle Elektroauto-Boom wirkt auf den ersten Blick vielleicht wie eine direkte Reaktion auf schmerzhafte Tankquittungen. Doch der Aufschwung bei den Neuzulassungen von E-Autos ist vielmehr Ergebnis eines längeren Strukturwandels, der sich bereits zuvor angebahnt hatte.

Während weltweit lautstark über die aktuellen Spritpreise diskutiert wird, hat sich im Hintergrund still und leise eine Dynamik entwickelt, die mehr Modelle, mehr Wettbewerb und mehr technische Reife hervorgebracht hat. Dass plötzlich auch chinesische Anbieter mit Kampfpreisen auf dem europäischen Markt auftauchen, dürfte bei so manchen Herstellern in Europa den Puls stärker hochtreiben als jeder geopolitische Konflikt.

Gerade auf dem Gebrauchtwagenmarkt zeigt sich, wie sehr sich Wahrnehmung und Realität verschoben haben. Denn was lange als Risiko galt – Stichwort Reichweitenangst –, wird zunehmend zu einer kalkulierbaren Alternative. Hinzu kommen immer mehr Lademöglichkeiten und Förderprämien, die auf den ersten Blick zwar nur neue Stromer begünstigen. Auf den zweiten aber auch die Preise gebrauchter Elektroautos drücken.

Stimmen und Expertenmeinungen

  • Experten zufolge hängt der aktuelle E-Autoboom allenfalls bedingt mit den Folgen des Iran-Kriegs zusammen. Eine Sprecherin des Verbands der Automobilindustrie (VDA) sagte gegenüber ZDF heute: „Es besteht ein zeitlicher Verzug von teils mehreren Monaten zwischen Bestellung und Zulassung eines Autos, Effekte durch den Krieg im Nahen Osten können sich deshalb heute noch nicht im Markt zeigen.“
  • Thomas Peckruhn, Präsident des Deutschen Kraftfahrzeuggewerbes (ZDK), prognostiziert ein E-Autojahr 2026: „Die politischen Impulse, das breitere Modellangebot und die wachsende Alltagstauglichkeit elektrischer Antriebe greifen endlich ineinander. 2026 wird zum Jahr, in dem die Elektromobilität im Markt wirklich ankommen kann, wenn die Weichen richtig gestellt werden. (…) Der Gebrauchtwagenmarkt zeigt einmal mehr seine Stärke: Er federt Preissprünge ab und hält Deutschland mobil.“
  • Wolf-Peter Schill, Forschungsbereichsleiter der Abteilung Energie, Verkehr und Umwelt vom Deutschen Institut für Wirtschaftsforschung (DIW), gegenüber rbb24: „Im letzten Jahr ist die Elektromobilität jetzt im PKW-Bereich so ein bisschen wieder angezogen, nachdem das Jahr davor ein ziemliches Katastrophenjahr war. Das heißt aber auch, vier von fünf neuen Autos hatten wirklich noch einen Verbrennungsmotor. Da ist also noch eine Menge Luft nach oben.“

Bleibt der E-Auto-Boom?

Trotz des aktuellen Aufschwungs steht dem E-Automarkt die eigentliche Bewährungsprobe erst noch bevor. Denn die Elektromobilität muss nicht nur technisch überzeugen, sondern vor allem ökonomisch im Alltag bestehen. Doch solange öffentliches Laden preislich an den Spritpreisen kratzt, bleibt das E-Auto ein Privileg für Eigenheimbesitzer.

Trotz Förderprogrammen sind deshalb sowohl die Politik als auch die Wirtschaft gefragt, um das öffentliche Laden attraktiver zu gestalten. Außerdem spielen Transparenz und Vertrauen eine Rolle. Neue Standards zur Bewertung der Batteriegesundheit, wie aktuell von Dekra und TÜV geplant, könnten zu einem echten Gamechanger werden.

Denn: Überprüfbare und standardisierte Daten können Kunden Gewissheit liefern und dem E-Auto seinen Ruf als technisches Risiko nehmen. Die von den Spritpreisen getriebene, aktuell hohe E-Auto-Nachfrage könnte mit sinkenden Preisen an der Zapfsäule aber wieder verdunsten. Nachhaltig wird der Boom erst, wenn er unabhängig vom Ölpreis funktioniert – wenn also nicht mehr die Krise den Markt bewegt, sondern die Überzeugung.

Auch interessant:

Der Beitrag E-Autojahr 2026: Lohnt sich ein gebrauchtes Elektroauto jetzt wirklich? erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

PayPal-Alternativen aus Europa: 4 Zahlungsanbieter im Vergleich

09. April 2026 um 05:45

Der Beitrag PayPal-Alternativen aus Europa: 4 Zahlungsanbieter im Vergleich erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

PayPal Alternativen EU Zahlungsanbieter Europa

Immer mehr EU-Bürger wollen auf US-Dienste verzichten – auch beim Bezahlen. Doch wer PayPal ersetzen will, braucht Alternativen, die in puncto Funktionsumfang und Sicherheit mithalten. Europa hat in den letzten Jahren aufgeholt: Vier Zahlungsanbieter aus Dänemark, Schweden, Deutschland und den Niederlanden zeigen, dass es auch ohne US-Tech geht. 

Über Jahrzehnte hinweg war die Abhängigkeit Europas von amerikanischer Technologie akzeptiert und bildete das Fundament unserer modernen IT-Infrastruktur. Doch neben der in den letzten Jahren gewachsenen Abneigung gegen digitale Services aus China werden inzwischen auch Produkte aus den Vereinigten Staaten in Frage gestellt.

Unternehmen wie Apple, Microsoft, Amazon, Google und Meta haben nicht nur eine enorme Marktmacht, sondern nutzen diese auch aus – teilweise mit wettbewerbswidrigen Praktiken. Viele Nutzer hegen zudem Bedenken, dass sensible Daten in den Händen von US-Unternehmen nicht gut aufgehoben sind.

Seit dem erneuten Amtsantritt von US-Präsident Donald Trump hat das Thema wieder an Bedeutung gewonnen, da sich zunehmend die Frage stellt, ob die USA noch ein verlässlicher Partner für Europa sind. Trumps außen- und handelspolitische Entscheidungen wie seine Zollpolitik nähren zumindest die Zweifel.

Alternativen zu PayPal: Zahlungsanbieter aus Europa immer gefragter

Kritiker sehen in den USA eine immer engere Verflechtung von Politik und Wirtschaft, denn Trump scheint eng mit vielen Tech-CEOs zu kooperieren. Geld und Fortschritt stehen an erstere Stelle, Nutzerinteressen und Datenschutz müssen hinten anstehen. Zum Glück hat Europa in den letzten Jahren technologisch deutlich aufgeholt.

Viele Alternativen „Made in Europe“ sehen sich als Gegenmodell zu amerikanischen Technologien. Die Anbieter setzen häufig auf Nachhaltigkeit, Datenschutz und klare Nutzungsbedingungen. Deshalb präsentieren wir an dieser Stelle vier europäische Zahlungsanbieter. Zuvor haben wir uns bereits europäische Suchmaschinen und E-Mail-Anbieter angeschaut.

1. Quickpay

Aus Dänemark kommt eine Lösung, die sich besonders durch ihre Flexibilität und Integrationsfähigkeit auszeichnet. Quickpay unterstützt alle gängigen Kreditkarten sowie Apple Pay und Google Pay und kann problemlos in nahezu jedes relevante CMS-System eingebunden werden. Ein Highlight ist die Funktion „Omnichannel“, durch die Online-Zahlungen und Transaktionen in Läden über ein einziges, einheitliches System abgewickelt werden. Quickpay bietet mit SoftPOS zudem eine moderne Alternative zu klassischen Terminals an, dank der ein einfaches Android-Gerät zur mobilen Kasse wird. Für eine Grundgebühr von sieben Euro im Monat und eine Transaktionsgebühr von 0,10 Euro erhalten kleine und mittlere Unternehmen eine professionelle Lösung. Für Großkunden gibt es individuelle Tarife.

2. Klarna

Klarna ist vermutlich der bekannteste Name im europäischen E-Commerce. Der schwedische Anbieter hat sich als Alternative zu PayPal etabliert, indem er den Fokus auf die Nutzererfahrung legt. Klarna ist vor allem für seine flexiblen Zahlungsmethoden bekannt, die es Kunden erlauben, zwischen Rechnungskauf und Ratenzahlung zu wählen. Klarna beschäftigt über 150 Experten, die sich ausschließlich mit dem Thema Betrugsprävention beschäftigen. Zudem setzt Klarna auf eine ausgefeilte Verschlüsselung und eine strikte Zwei-Faktor-Authentisierung (2FA). Nutzer können dank der App auf Funktionen wie Käuferschutz und Cashback-Deals zugreifen.

3. Unzer

Auch in Deutschland wird ein Zahlungsanbieter entwickelt. Wer Wert auf eine nahtlose Integration und volle Kontrolle über das eigene Branding legt, sollte sich Unzer näher ansehen. Das Unternehmen hat sich darauf spezialisiert, die „Conversion“, also die Kaufabschlussrate, in Onlineshops zu steigern. Statistiken zeigen, dass Shops, die flexible Zahlungsarten wie Rechnung oder Ratenkauf anbieten, bis zu 40 Prozent vollere Warenkörbe und bis zu 18 Prozent mehr Umsatz generieren können. Unzer lässt sich so integrieren, dass für den Endkunden kein Drittanbieter sichtbar ist, und es findet keine unnötige Datenweitergabe an externe Firmen statt. Unzer hebt sich zudem durch sein starkes Engagement im Bereich ESG (Umwelt, Soziales und Governance) ab.

4. Adyen

Wenn man sich die Kundenliste von Adyen ansieht, wird schnell klar, dass es sich hier um einen Global Player handelt. Zalando, Spotify, eBay und Uber vertrauen alle auf die Technik aus Amsterdam. Adyen wurde 2006 mit dem Ziel gegründet, die veraltete Infrastruktur der Finanzwelt durch eine moderne Plattform zu ersetzen. Adyen ist eine reine Plattform für Finanztechnologie, die Zahlungsabwicklung, Datenoptimierung und Finanzprodukte in einer einzigen Lösung vereint. Mit über 28 Büros weltweit und einem verarbeiteten Volumen von fast einer Billion Euro zeigt Adyen, dass europäische Technik marktführend sein kann.

Fazit: Zahlungsanbieter aus Europa als Alternative zu PayPal

Wer als Privatnutzer eine echte Alternative zu PayPal sucht, kommt an Klarna kaum vorbei. Die App ist intuitiv, der Käuferschutz solide und Funktionen wie Ratenzahlung oder Cashback machen den Alltag beim Online-Shopping spürbar einfacher. Klarna ist der einzige Anbieter in dieser Liste, der sich direkt an Endverbraucher richtet – und das auf einem Niveau, das PayPal in vielen Punkten ebenbürtig ist.

Für Händler und Unternehmen hängt die Wahl vom Geschäftsmodell ab. Kleine und mittlere Shops, die eine unkomplizierte Lösung mit fairen Gebühren suchen, sind mit Quickpay gut beraten. Wer maximale Kontrolle über das Branding und höhere Conversion-Raten will, sollte sich Unzer ansehen.

Und für Unternehmen, die international skalieren wollen, führt an Adyen kein Weg vorbei – nicht ohne Grund setzen Konzerne wie Zalando und Spotify auf die Plattform aus Amsterdam. Eines zeigen alle vier Anbieter: Europa muss sich beim digitalen Bezahlen längst nicht mehr hinter den USA verstecken.

Auch interessant:

Der Beitrag PayPal-Alternativen aus Europa: 4 Zahlungsanbieter im Vergleich erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Wasserstoff-Faktencheck: Wo sich der Einsatz lohnt – und wo nicht

08. April 2026 um 20:12

Der Beitrag Wasserstoff-Faktencheck: Wo sich der Einsatz lohnt – und wo nicht erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Wasserstoff Faktencheck Mythen

Wasserstoff gilt als Hoffnungsträger der Energiewende. Doch wie realistisch sind die Erwartungen? Das Fraunhofer ISI hat über 100 Quellen ausgewertet und einen Faktencheck veröffentlicht, der die wichtigsten Mythen aufdröselt und Tatsachen zusammenfasst.

Die öffentliche Wasserstoff-Debatte weckt oft enorme Erwartungen. Doch die technologische und wirtschaftliche Realität hinkt den politischen Ambitionen hinterher. Das Fraunhofer-Institut für System- und Innovationsforschung (ISI) hat in einem Meta-Faktencheck über 100 Quellen ausgewertet, um Klarheit zu schaffen. Das Papier liefert damit eine sachliche Basis für die hitzige Debatte.

Experten bezeichnen Wasserstoff aufgrund seiner Kostbarkeit und des hohen Produktionsaufwands häufig als „Champagner unter den Energieträgern“. Die Fraunhofer-Studie empfiehlt deshalb einen gezielten Einsatz dort, wo keine effizienteren Alternativen existieren. Stadtplaner und Behörden planen für den Pkw-Bereich oder den Gebäudesektor überwiegend keinen flächendeckenden Infrastrukturausbau. Dort erweist sich die direkte Elektrifizierung meist als effizienter und kostengünstiger.

Wasserstoff im Faktencheck

Die Stahlindustrie dient laut Fraunhofer ISI als zentrale Leitanwendung für den Markthochlauf. Hersteller testen bereits in Pilotanlagen die wasserstoffbasierte Direktreduktion von Eisen. Für die Produktion von einer Tonne Stahl benötigt man dabei etwa 47 bis 68 Kilogramm Wasserstoff. Die International Energy Agency (IEA) rechnet ab Mitte der 2030er Jahre mit einem großtechnischen Einsatz dieses Verfahrens.

Ohne gewaltige Mengen an zusätzlichem Ökostrom lässt sich der industrielle Wandel jedoch kaum realisieren. Allein Deutschland müsste bis zum Jahr 2030 etwa 160 Terawattstunden mehr Grünstrom bereitstellen. Ohne diese Kapazitäten lässt sich Wasserstoff nicht vollständig regenerativ produzieren. Es besteht damit eine deutliche Diskrepanz zwischen den ambitionierten Ausbauzielen und der aktuellen Verfügbarkeit.

Was kostet grüner Wasserstoff – und woher kommt er?

Derzeit bleibt grüner Wasserstoff teuer und kostet voraussichtlich bis 2030 mindestens doppelt so viel wie Erdgas. Doch technologische Lernkurven könnten die Preise künftig drücken. Die IEA erwartet beispielsweise, dass die Kosten für die Herstellung aus erneuerbarem Strom bis zum Jahr 2030 um rund 30 Prozent sinken könnten.

Heimische Quellen werden den deutschen Bedarf laut Experten aber kaum allein decken können. Schätzungen gehen davon aus, dass internationale Partnerschaften langfristig bis zu 80 Prozent des Bedarfs liefern müssten. Experten beziffern den Importanteil für das Jahr 2030 auf bis zu 74 Prozent. Das erfordert den Aufbau robuster und geopolitisch resilienter Lieferketten.

9.040 Kilometer Pipeline: So entsteht das Wasserstoff-Netz

Ein spezialisiertes Pipelinenetz soll das Rückgrat der künftigen Wasserstoffwirtschaft bilden. Das geplante Kernnetz in Deutschland könnte bis 2032 eine Länge von etwa 9.040 Kilometern erreichen. Rund 60 Prozent davon entstehen durch die Umstellung bestehender Erdgasleitungen. Für die saisonale Speicherung gelten unterirdische Salzkavernen als einzig praktikable Lösung im industriellen Maßstab.

Der globale Wasserbedarf für die Elektrolyse erscheint im makroskopischen Maßstab handhabbar. Er macht weltweit weniger als drei Prozent des Bedarfs der Nahrungsmittelproduktion aus. Die Herstellung von Wasserstoff verbraucht damit deutlich weniger Wasser als die heutige Förderung fossiler Energieträger. An trockenen Standorten könnte die Wasserknappheit jedoch Genehmigungen verzögern.

Auch interessant:

Der Beitrag Wasserstoff-Faktencheck: Wo sich der Einsatz lohnt – und wo nicht erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Received before yesterdayBASIC thinking

Klimageld: 320 Euro pro Person gestrichen – was stattdessen kommt

08. April 2026 um 11:00

Der Beitrag Klimageld: 320 Euro pro Person gestrichen – was stattdessen kommt erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Klimageld Bundesregierung Deutschland Auszahlung CO2 Preis

Der Bundestag hat einen Antrag auf 320 Euro Klimageld pro Person abgelehnt. Dabei steht die Zahlung sogar im Koalitionsvertrag von Union und SPD. Statt auf eine direkte Entlastung setzt die Regierung stattdessen auf Stromsteuersenkungen und Netzentgelte, die bei vielen Haushalten erst verzögert ankommen.

Was ist das Klimageld – und wem steht es zu?

  • Die ursprüngliche Idee des Klimageldes war es, Kohlenstoffdioxid-Einsparungen zu belohnen. Wer weniger des Treibhausgases verursacht, muss etwa weniger Abgaben in Form des sogenannten CO2-Preises zahlen, der unter anderem auf Heizöl, Erdgas, Benzin und Diesel erhoben wird. Das Konzept des Klimageldes sieht vor, dass alle den gleichen Geldbetrag als Ausgleich erhalten. Heißt konkret: Es sollte eine Umverteilung stattfinden. Menschen mit geringerem Einkommen, deren Verhalten im Alltag oftmals weniger klimaschädlich ist, würden davon profitieren.
  • In Deutschland fragen sich viele Menschen seit Jahren, wann das versprochene Klimageld ausgezahlt wird. Obwohl der CO2-Preis weiter steigt und viele Haushalte durch steigende Lebenshaltungskosten belastet sind, wird es auch 2026 keine Auszahlung geben. Die Bundesregierung verzichtet damit erneut auf eine indirekte Rückerstattung des CO2-Preises und verweist auf andere Maßnahmen, die die aktuellen Mehrbelastungen im Alltag vieler Menschen ausgleichen sollen. Ursprünglich wurde das Klimageld von der Ampelregierung eingeführt, konnte aufgrund von Haushaltsdefiziten und des Koalitionsbruchs aber nicht umgesetzt werden.
  • Im Gegensatz zum eigenen Parteiprogramm sprach sich Bundeskanzler Friedrich Merz im Wahlkampf für ein Klimageld aus. Auch der gemeinsame Koalitionsvertrag mit der SPD sieht eine Auszahlung vor. Am 20. März 2026 stimmten jedoch CDU/CSU, AfD und SPD gegen einen Klimageld-Antrag der Linken. Darin ist von einem jährlichen Klimageld in Höhe von 320 Euro pro Person die Rede – rückwirkend zum 1. Januar 2025. Der Direktauszahlungsmechanismus sollte langfristig so weiterentwickelt werden, dass die Auszahlung sozial gestaffelt nach Einkommen erfolgen kann.

Unehrliche Kommunikation

Mit dem Klimageld ist es der deutschen Politik einmal mehr mit Bravour gelungen, die Menschen in Deutschland zu verunsichern. Pompös von der Ampel angekündigt hat Ex-Finanzminister Christian Lindner es zunächst verzögert und dann verschoben. Im Wahlkampf wurde es von der Union dann umetikettiert und neu verpackt, bis irgendwann kaum noch jemand nachvollziehen konnte, wer nun wann und mit welchem Geld in welcher Form entlastet werden soll. Transparenz? Fehlanzeige!

Dabei ist der Konflikt weniger technisch als politisch. Im Kern geht es der Bundesregierung darum, die Einnahmen aus dem CO2-Preis nicht als gleich hohe Einmalzahlung an alle auszuschütten, sondern über Umwege zu entlasten, beispielsweise durch geringere Netzentgelte oder eine reduzierte Stromsteuer.

Das Problem: Im Wahlkampf wurden von keinem Geringeren als Bundeskanzler Friedrich Merz sowohl ein Klimabonus als auch Senkungen der Netzentgelte sowie Stromsteuer kommuniziert. Was die Union aber nicht kommuniziert hat, ist die Frage nach der Finanzierbarkeit.

Gleiches gilt für die neue Strategie, die zwar nicht per se falsch, aber auch nicht ehrlicher geworden ist. Hinzu kommt, dass viele Menschen in Deutschland ein einkommensabhängiges Klimageld aktuell wirklich gut gebrauchen könnten. Denn unabhängig davon, ob sich jemand eine Wärmepumpe oder ein E-Auto anschaffen möchte oder kann, hätten alle direkt profitiert.

Stimmen und Parteipositionen

  • Jakob Blankenburg, Sprecher für Umwelt, Klimaschutz und Naturschutz der SPD-Bundestagsfraktion, in der Bundestagsdebatte zum Klimageld: „Das Klimageld entschädigt, aber es verändert nicht. Es lindert den Schmerz, aber es behandelt nicht die Ursachen. Denn was Menschen brauchen, ist kein jährlicher Check. Es braucht Bedingungen, unter denen der Umstieg zu klimafreundlichen Alternativen tatsächlich schaffbar ist. Ermöglichung statt Entschädigung: Das ist der Unterschied.“
  • Lorenz Gösta Beutin, Vorsitzender des Ausschusses für Umwelt, Klimaschutz und Naturschutz von der Linken-Fraktion, konterte in einer Zwischenfrage: „Wir sagen nicht, das Klimageld soll das Einzige sein. Es ist versprochen worden mit dem CO2-Preis. Man muss doch Versprechen auch mal einhalten. Deswegen sagen wir: Wir brauchen Klimageld, aber wir brauchen auch die Förderung bei der Wärmepumpe, die Förderung beim E-Auto und wir brauchen den Ausbau von Bus und Bahn.“
  • Thomas Gebhart, CDU-Obmann im Ausschuss für Umwelt, Klimaschutz, Naturschutz und nukleare Sicherheit, sprach sich für andere Maßnahmen aus: „CO2-Einnahmen dürfen kein Einnahmeinstrument des Staates sein. Sondern das Geld, das der Staat aus der CO2-Abgabe einnimmt, muss zurück an Bürger und Unternehmen. Wir geben aktuell Jahr für Jahr viele Milliarden Euro zurück – beispielsweise über Strompreiskompensationen, Zuschussnetzentgelte und eine reduzierte Stromsteuer für das Gewerbe. Ein entscheidender Schritt der steht noch aus: die reduzierte Stromsteuer für alle.“

Benzingeld statt Klimageld: Droht eine fossile Fehlsteuerung?

Der Kurs der Bundesregierung ist klar, auch wenn ihn niemand wirklich ausspricht: weg von direkten Zahlungen, hin zu einem Flickenteppich aus Prämien, Steuertricks und Preisbremsen. Das meiste davon entlastet jedoch allenfalls mittel- bis langfristig, löst aber weder das soziale noch das klimapolitische Problem.

Vor allem viele Menschen mit geringen oder mittleren Einkommen müssten steigende Sprit- oder Lebensmittelkosten deshalb zunächst weiter schlucken – trotz oder vor allem aufgrund diffuser Entlastungen. Denn wer wenig hat, spürt finanzielle Belastungen sofort, während andere sie besser abfedern und obendrein sogar von Förderprogrammen profitieren können.

Der versprochene Ausgleich über das Klimageld droht damit zu einer sozialen Schieflage zu verkommen. Die größte Ironie aber ist, dass der geschaffene Direktauszahlungsmechanismus für das Klimageld ein Werkzeug der klimapolitischen Transformation sein sollte. Nun könnte er missbraucht werden, um fossile Abhängigkeiten zu subventionieren.

Denn: Innerhalb der Bundesregierung denkt man nicht nur über eine Spritpreisbremse, sondern offenbar auch über ein Benzingeld nach. Dabei fließen jedes Jahr über 80 Milliarden Euro aus Deutschland in ausländisches Öl und Gas. Doch fossile Importe erzielen keine Wertschöpfung. Denn: Einmal verbrannt, sind sie weg. Die ursprüngliche Idee des Klimageldes über den CO2-Preis wäre hingegen klimapolitisch sinnvoll gegenfinanziert gewesen ohne direkt in Preismechanismen einzugreifen.

Auch interessant: 

Der Beitrag Klimageld: 320 Euro pro Person gestrichen – was stattdessen kommt erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Mietpreisexplosion: Was kostet das Leben in Berlin wirklich?

08. April 2026 um 05:45

Der Beitrag Mietpreisexplosion: Was kostet das Leben in Berlin wirklich? erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Lebenshaltungskosten Mieten Berlin

Berlin ist eine der beliebtesten Städte Deutschlands. Doch wie viel Geld braucht man dort tatsächlich zum Leben? Aktuelle Daten zeigen, wo die Hauptstadt im nationalen und internationalen Vergleich steht. Wir schlüsseln die Kosten für Singles und Familien auf – von der Miete bis zu den Lebenshaltungskosten. 

In deutschen Großstädten müssen Mieter oder Wohnungssuchende trotz Mietpreisbremse heute im Schnitt 44 Prozent mehr zahlen als noch vor zehn Jahren. Das geht aus einer Antwort der Bundesregierung auf eine Anfrage der Linken-Abgeordneten Caren Lay hervor.

Demnach sind die Mietpreise in Berlin in den vergangenen zehn Jahren sogar um 69 Prozent gestiegen. Das entspricht dem bundesweit höchsten Zuwachs. Das Bauministerium beruft sich in seiner Antwort auf Angebotsmieten von im Internet inserierten Wohnungen in 14 Großstädten ohne Nebenkosten.

Doch: Nicht nur die Mieten sind in den deutschen Großstädte geradezu explodiert. Auch die Preise für viele Lebensmittel, Sprit und Dienstleistungen befinden sich auf einem Rekordniveau. Aber wie teuer ist eigentlich das Leben in den deutschen Großstädten wirklich? Heute: die Mieten und Lebenshaltungskosten in Berlin.

Lebenshaltungskosten: Wie teuer ist Berlin im Vergleich zu anderen Großstädten?

Der sogenannte „Cost of Living Index – zu deutsch „Lebenshaltungskostenindex“ – ist ein theoretischer Preisindex, der die Kosten für verschiedene Produkte und Dienstleistungen in unterschiedlichen Ländern oder Städten miteinander vergleicht. Mittlerweile gibt es zahlreiche Websites, die einen solchen Preisvergleich versprechen.

Die Plattform Numbeo gilt jedoch als eine der größten datenbasierten Plattformen in Sachen Lebenshaltungskosten. Der „Cost of Living Index by City 2026“ vergleicht dabei die Lebenshaltungskosten in Hunderten Großstädten weltweit. Den Maßstab und allgemeinen Vergleichswert bildet dabei die Stadt New York City, die gemeinhin als eine der teuersten Städte der Welt gilt.

Die Lebenshaltungskosten in Berlin liegen laut Numbeo demnach bei einem Wert von 70,0 (New York City: 100,00). Damit belegt die deutsche Hauptstadt Platz 113 im weltweiten Ranking (Stand: 6. April 2026). Im Vergleich dazu: Hamburg mit einem Wert von 71,9 auf Platz 84, München auf Platz 52 mit einem Preisindex von 76,1 und Köln mit einem Cost of Living Index von 71,4 auf Platz 94.

Wie hoch sind die Mieten in Berlin wirklich?

In puncto Lebenshaltungskosten liegt Berlin laut Numbeo auf Platz 13 der teuersten Großstädte Deutschlands. Im internationalen Vergleich ist die deutsche Hauptstadt 30 Prozent günstiger als New York City (ohne Mieten).

Unter Berücksichtigung der Mietpreise (Cost of Living Index Plus Rent Index) ist Berlin sogar 45,1 Prozent preiswerter als die US-amerikanische Millionenmetropole. Im nationalen Vergleich belegt die Bundeshauptstadt in Sachen Lebenshaltungskosten plus Mieten den fünften Platz.

Die Mietpreise für einen Single-Haushalt sehen laut Numbeo – Stand: 6. April 2026 – dabei wie folgt aus: 1.291,25 Euro für eine Wohnung im Stadtkern und 924,60 Euro Miete für eine Wohnung außerhalb des Zentrums. Für eine vierköpfige Familie: 2.366,67 Euro im Stadtkern und 1.764,24 Euro außerhalb des Zentrums.

Der Index-Plattform Numbeo zufolge liegen die Lebenshaltungskosten in Berlin für einen Singlehaushalt inklusive Miete bei 2.298,28 Euro (im Stadtkern) und bei 1.931,90 Euro außerhalb des Zentrums. Insgesamt umfasst die Auswertung dabei sämtliche Lebenshaltungskosten: Miete, Nebenkosten, Restaurantbesuche, Kleidung, Lebensmittel, Auto, Reisen, Sparen und weitere. Je nach Konsumverhalten und Lebensverhältnissen, kann der Schnitt jedoch variieren.

Fazit: Mieten und Lebenshaltungskosten in Berlin

Die Zahlen zeigen, dass Berlin im internationalen Vergleich zwar günstiger als New York ist. Doch für viele Menschen wird das Leben in der Hauptstadt zunehmend zu einer finanziellen Belastung. Ein Berufseinsteiger mit einem Bruttoeinstiegsgehalt von rund 2.800 Euro netto muss allein für eine Wohnung im Stadtkern bereits knapp die Hälfte seines Einkommens aufwenden.

Experten empfehlen jedoch maximal Mietkosten in Höhe von einem Drittel des Nettoeinkommens. Wer in Berlin lebt, sollte die eigenen Ausgaben deshalb regelmäßig prüfen und Preise vergleichen, um die persönliche Kostensituation realistisch einzuschätzen.

Hinweis: Die Zahlen von „Numbeo“ sind hier und da mit Vorsicht zu genießen. Denn: Die unglaubliche Masse an Daten, die die Plattform erfasst, sind im Detail nicht überprüfbar. Weltweit kann etwa jeder die Datenbank mit Preisinformationen füllen. Parallel dazu greift die Website zwar auch auf andere Daten zurück, bereinigt Zahlen mithilfe von Filtern und errechnet Durchschnittswerte.

Doch die Datenlage ist für einige Städte, Regionen und Länder besser als bei anderen. Mit Blick auf Metropolen und Großstädte erscheint sie jedoch stabil. Aus Aktualitätsgründen greift Numbeo nur auf Zahlen zu, die nicht älter als 18 Monate sind.

Auch interessant:

Der Beitrag Mietpreisexplosion: Was kostet das Leben in Berlin wirklich? erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Deutschlands beste Raststätten: Der Osten dominiert die Top 10

07. April 2026 um 20:14

Der Beitrag Deutschlands beste Raststätten: Der Osten dominiert die Top 10 erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

besten Raststätten Deutschland Autobahn Tankstelle Rasthof

Autobahnraststätten haben keinen guten Ruf. Doch manche verdienen ihn offenbar nicht. Eine Auswertung von 1,8 Millionen Google-Bewertungen zeigt, wo Autofahrer in Deutschland am liebsten Pause machen. Überraschend: Vor allem der Osten schneidet stark ab. Wir zeigen die zehn bestbewerteten Raststätten im Überblick.

Egal ob man Verwandte besuchen möchte, auf dem Weg in den Urlaub ist oder sich auf Geschäftsreise befindet – die meisten von uns sind auf die ein oder andere Weise auf die Autobahn angewiesen. Sie ist so etwas wie das zentrale Nervensystem der Bundesrepublik. Doch bei längeren Fahrten erfolgt früher oder später die obligatorische Pause.

Das sind Deutschlands beste Raststätten

Wer rausfahren muss, um eine Pause einzulegen, landet nicht selten an einem Ort, den man schnell wieder verlassen möchte. Überteuertes Essen, dreckige Sanitäranlagen und eine lieblose Atmosphäre sind an Autobahnraststätten eher die Regel als die Ausnahme.

Besonders schlimm ist es häufig an Standorten in der Nähe großer Ballungsräume wie Hamburg, Köln oder München. Das Schlusslicht bildet allerdings der Autohof Schnaittach in Bayern mit lediglich 1,6 Sternen.

Grundlage der Untersuchung von Tripz sind rund 1,8 Millionen Google-Bewertungen von insgesamt 633 Standorten in ganz Deutschland. Dabei wurden nicht nur klassische Autobahnraststätten unter die Lupe genommen, sondern auch Autohöfe und Rasthöfe an Bundesstraßen. Mit einem bundesweiten Durchschnitt von 3,9 von 5 Sternen schneiden die meisten Kandidaten positiver ab als gedacht.

Vor allem im Osten des Landes sieht es rosig aus. Sachsen führt das Bundesländer-Ranking mit einem Schnitt von 4,13 Sternen an, gefolgt von Thüringen und Mecklenburg-Vorpommern. An dieser Stelle interessiert uns aber, welche einzelnen Raststätten am besten abschneiden. Die Top Ten präsentieren wir im folgenden Ranking.

Platz 10: 24-TOTAL Autohof Wörrstadt (Rheinland-Pfalz)

Mit 4,6 Sternen bei 1.733 Bewertungen eröffnet dieser Autohof in Rheinhessen unsere Liste der Gewinner. Hier können Fahrer auf der A63 zwischen Mainz und Kaiserslautern eine Pause einlegen. Neben Pizza, Döner und Burgern gibt es frisch zubereitete Produkte zum Mitnehmen. Ein mobiles Hotel und wechselnde Kunstausstellungen im Innenbereich sorgen zudem für ein einzigartiges Ambiente.

Der Beitrag Deutschlands beste Raststätten: Der Osten dominiert die Top 10 erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Niantic baut mit Pokémon-Go-Daten KI-Karten für Roboter

07. April 2026 um 11:00

Der Beitrag Niantic baut mit Pokémon-Go-Daten KI-Karten für Roboter erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Niantic Spatial Gamification Roboter Datenmissbrauch Pokémon Go

Millionen Menschen jagten jahrelang virtuelle Pokémon durch echte Straßen. Was kaum jemand wusste: Dabei sammelten sie 30 Milliarden Bilder mit exakten Geodaten für ihren App-Entwickler Niantic. Das Unternehmen hat seine Spielesparte inzwischen verkauft und baut unter dem Namen Niantic Spatial KI-Karten für autonome Roboter.

Von Pokémon Go zu KI-Karten: Der Weg von Niantic Spatial

  • Am 6. Juli 2016 konnten Spieler in Deutschland erstmals selbst Pokémon sammeln. Alles, was dafür notwendig war: ein einigermaßen leistungsfähiges Smartphone mit Kamera und die App „Pokémon Go“ des Spieleentwicklers Niantic. Die Erinnerungen aus der eigenen Kindheit lockten Millionen Menschen über Jahre hinweg auf die Straßen dieser Welt – Downloads und Umsatzerlöse in Milliardenhöhe waren die Belohnung.
  • Begonnen hatte alles in den Geburtsstätten von Google in Kalifornien. Dort wurde Niantic Labs 2010 von John Hanke gegründet, ehe es 2015 im Zuge der Alphabet-Umstrukturierung eine eigenständige Firma wurde. Nach zehn überaus erfolgreichen Jahren folgt dann die überraschende Abspaltung: Niantic verkauft seine Spielesparte an Scopely für 3,5 Milliarden US-Dollar und verwandelt sich in ein Unternehmen zur digitalen Vermessung der Welt.
  • Unter neuem Namen konzentriert sich Niantic Spatial auf die Zusammenführung von Augmented Reality (AR) und Künstlicher Intelligenz (KI) in Form von Geodaten-Modellen – den sogenannten Large Geospatial Models (LGM). Dahinter verstecken sich Modelle, die mit Hilfe von KI Daten und Bilder mit exakten Koordinaten in der Welt verbinden. Sie übersetzen die physische Welt in eine maschinenlesbare Sprache.

Wurden Pokémon-Go-Spieler zu willfährigen Datensammlern?

Die Trainingsgrundlage für das LGM-System von Niantic Spatial sind nicht etwa frei verfügbare Aufzeichnungen. Nein, sie stammen von den unzähligen Pokémon-Go-Spielern. Laut eigenen Angaben verfügt Niantic Spatial über 30 Milliarden Bilder mit exakten Geodaten von Millionen von Standorten rund um den Globus. Diese Daten stammen direkt aus den AR-Scans von PokéStops und Arenen.

Durch diese Informationen erstellt Niantic Spatial eine intelligente 3D-Karte der Welt, die auch dort funktioniert, wo GPS-Tracking aufgrund von Reflexionen und Gebäuden an Präzision verliert. Die Echtwelt-Daten ermöglichen es Systemen, zentimetergenau vorherzusagen, wo sich ein Gegenstand befindet. Aufgrund der KI-Kombination ist das System darüber hinaus in der Lage, den Kontext auf den Bildern (Baum, Parkbank, Bordstein) zu erkennen und Gefahren so zu umgehen.

Wer sich jetzt denkt „Wollt ihr mich verarschen“, der ist wohl nicht allein. Unter dem Deckmantel von Pikachu, Taubsi und Glumanda wurden Milliarden Menschen zu willfährigen Datensammlern für eine KI-Firma umfunktioniert. Gewusst hat das offiziell natürlich niemand, weshalb man durchaus von einem gigantischen Datenmissbrauch sprechen könnte. Andererseits: Jeder Nutzer hat die AGB gelesen und damit der Datenerhebung und Verarbeitung zugestimmt. Selbst schuld – könnte man also auch sagen.

Stimmen

  • Am ersten Tag seines frisch aus der Taufe gehobenen Unternehmens sagte Niantic-Spatial-Chef John Hanke: „Obwohl Large Language Models (LLMs) für sich genommen revolutionär sind, findet der Großteil des menschlichen Lebens und wirtschaftlichen Handelns nach wie vor in der physischen Welt statt. Wir hatten bei der Entwicklung von Niantic das Glück, ein erstklassiges Forschungs- und Entwicklungsteam aufzubauen, einzigartige räumliche Modelle zu entwerfen und frühe Versionen unserer Technologie für Millionen von Menschen zugänglich zu machen. Jetzt sind wir bereit für die nächste Phase der KI-Revolution: den Sprung vom Bildschirm hinein in die reale Welt.“
  • Die rund 1.000 Last-Mile-Lieferroboter von Coco Robotics liefern Waren in fünf Städten aus. Die Firma von Mitbegründer und CEO Zack Rash hat im März 2026 eine Kooperation mit Niantic Spatial bekanntgegeben: „Die Entwicklungspartnerschaft verschafft uns verlässlichen Zugang zu Lokalisierungsdiensten, die die Navigation unserer Roboter weiter verbessern. Wir werden gemeinsam neue Wege erforschen, um Coco-Robotern ein noch höheres Maß an Sicherheit und Autonomie in jeder beliebigen Stadt zu ermöglichen.“
  • Drew Smith vergleicht in seinem unabhängigen Portal The Liberty Line die Arbeit von Niantic mit dem Lösen von ReCaptchas, deren Daten auch zum KI-Training verwendet wurden, und lässt seinem Unmut freien Lauf: „Wir sind die unbezahlten Forschungsassistenten. Die KI wird mit jeder Nutzung schlauer; das Unternehmen erfasst diese Interaktion, verbessert das Produkt und verkauft uns den Zugang dazu anschließend teuer über ein Abonnement-Modell zurück. Wir erstellen die Inhalte. Ihnen gehören die Inhalte. Sie trainieren die Modelle mit diesen Inhalten. Sie verkaufen uns die Modelle zurück. Wir zahlen.“

Physical AI: Warum Daten künftig noch wertvoller werden

Was können wir aus dieser einerseits so kuriosen und andererseits so überhaupt nicht kuriosen Geschichte lernen? Für uns Nutzer gilt: Wir müssen endlich aufhören, naiv-leichtgläubig wie ein neugeborenes Schaf durch die Welt zu stolpern. Es gibt keine lustige Spielerei im digitalen Kontext, bei der es wirklich um Spaß geht. Es geht immer um Daten und deine persönlichen Informationen – manchmal als Pokémon verkleidet und manchmal in Form von sprechenden Früchten.

Wenn wir die professionelle Brille aufsetzen, müssen wir festhalten, dass sich Niantic Spatial mit seinen detaillierten Karten aus Fußgängerzonen und Innenstädten rund um den Globus in eine herausragende Position gebracht hat. Das Zauberwort lautet: Physical AI.

Wenn immer mehr autonome Systeme – von humanoiden Robotern bis hin zu selbstfahrenden Autos – durch unsere Straßen laufen oder fahren, wird ein Google Maps für KI immer wichtiger. Und das ist genau das, was Niantic Spatial schon ist.

Ein schwacher Trost für uns: Vielleicht erkennen uns künftig KI-Roboter bei der Auslieferung unserer Amazon-Pakete und danken uns dafür, dass wir so fleißig Kilometer in Pokémon Go zurückgelegt haben.

Auch interessant: 

Der Beitrag Niantic baut mit Pokémon-Go-Daten KI-Karten für Roboter erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Warum die meisten Amazon-Agenturen scheitern und was gute Agenturen anders machen

07. April 2026 um 09:30

Der Beitrag Warum die meisten Amazon-Agenturen scheitern und was gute Agenturen anders machen erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Amazon-Agenturen

Der Markt für Amazon-Agenturen hat sich in den letzten Jahren vervielfacht. Wo vor fünf Jahren eine Handvoll spezialisierter Dienstleister stand, tummeln sich heute hunderte Anbieter, die Amazon-Sellern Wachstum, Umsatzsteigerung und optimierte Werbekampagnen versprechen. Die Einstiegshürde ist niedrig: ein paar Fallstudien auf der Website, ein Dashboard-Tool und ein Pitch-Deck mit beeindruckenden Prozentzahlen reichen oft aus, um Kunden zu gewinnen.

Das Problem: Viele dieser Agenturen liefern nicht. Seller zahlen monatlich vierstellige Retainer und bekommen dafür automatisierte Reports, generische Optimierungsvorschläge und Ansprechpartner, die sich mit dem eigenen Account kaum auskennen. Für Seller ist das ein Problem: Wie unterscheidet man eine Full-Service Amazon Agentur, die tatsächlich Performance liefert, von einer, die vor allem gut pitchen kann? Denn die Unterschiede zwischen guten und schlechten Agenturen sind erheblich, aber von außen nicht immer sofort erkennbar.

Was trennt also Agenturen, die echte Ergebnisse liefern, von solchen, die vor allem gut verkaufen können?

Das Kernproblem: Skalierung auf Kosten der Qualität

Die meisten Amazon-Agenturen starten mit einem kleinen Team und einer Handvoll Kunden. In dieser Phase ist die Betreuung oft tatsächlich gut. Der Gründer selbst sitzt an den Accounts, kennt jedes Produkt und optimiert Kampagnen händisch. Das funktioniert bei fünf Kunden. Bei fünfzig nicht mehr.

Der typische Wachstumspfad einer Agentur sieht so aus: Mehr Kunden bringen mehr Umsatz, also wird skaliert. Neue Account Manager werden eingestellt, oft mit wenig Amazon-Erfahrung. Die Betreuungsquote steigt von fünf auf fünfzehn, manchmal zwanzig Accounts pro Person. Um das zu bewältigen, werden Prozesse standardisiert und automatisiert. Klingt effizient, führt aber dazu, dass jeder Account die gleiche Behandlung bekommt, unabhängig von Produktkategorie, Wettbewerbsumfeld oder Wachstumsphase.

Das Ergebnis: Der Seller zahlt für individuelle Betreuung und bekommt standardisierte Massenabfertigung. Die Kampagnenstruktur ist bei jedem Kunden identisch, die Optimierung beschränkt sich auf wöchentliche Bid-Anpassungen nach Schema und der strategische Input fehlt komplett.

Warnsignal Nummer eins: Intransparenz bei Daten und Ergebnissen

Gute Agenturen arbeiten transparent. Das klingt selbstverständlich, ist es aber nicht. Ein häufiges Muster bei schwachen Agenturen: Der Seller hat keinen direkten Zugang zu seinen Werbekonten. Stattdessen bekommt er monatlich ein PDF mit ausgewählten Kennzahlen, die isoliert betrachtet positiv aussehen. ACoS gesunken? Steht im Report. Dass gleichzeitig der Umsatz eingebrochen ist, weil die Agentur profitable Keywords pausiert hat, um den ACoS zu drücken? Steht nicht drin.

Agenturen, die ernsthaft arbeiten, geben ihren Kunden vollen Zugang zu allen Daten. Werbekonten, Search Term Reports, Kampagnenstruktur. Nicht weil der Seller das alles selbst auswerten soll, sondern weil Transparenz Vertrauen schafft und eine ehrliche Diskussion über Strategie und Ergebnisse ermöglicht.

Wer als Seller keinen Zugang zu seinen eigenen Daten hat oder nur gefilterte Ausschnitte sieht, sollte das als ernstes Warnsignal betrachten.

Warnsignal Nummer zwei: Keine echte Strategie

„Wir optimieren Ihre Kampagnen“ ist kein Strategieangebot. Es ist eine Tätigkeit. Trotzdem beschreiben viele Agenturen ihre Arbeit genau so. Sie verwalten Budgets, passen Gebote an und erstellen gelegentlich neue Kampagnen. Was fehlt, ist die übergeordnete Frage: Wohin soll der Account sich entwickeln?

Gute Agenturen beginnen nicht mit Kampagnen, sondern mit einer Analyse. Wie sieht das Wettbewerbsumfeld aus? Welche Produkte haben Skalierungspotenzial, welche sind Margenkiller? Wie verteilt sich der Umsatz zwischen organisch und bezahlt? Wo liegt der TACoS, und wie sollte er sich entwickeln? Erst auf Basis dieser Bestandsaufnahme entsteht eine Strategie, die über „Keywords optimieren“ hinausgeht.

Der Unterschied zeigt sich in der Praxis daran, ob eine Agentur proaktiv Empfehlungen gibt oder nur reagiert. Schlägt sie neue Produktlaunches vor? Empfiehlt sie die Expansion in neue Märkte? Identifiziert sie Probleme bevor der Seller nachfragt? Oder wartet sie auf Anweisungen und arbeitet dann ab?

Warnsignal Nummer drei: Kein echtes PPC-Handwerk

Amazon PPC ist handwerklich anspruchsvoll. Kampagnenstruktur, Match Types, Placement-Bidding, Dayparting, Budget-Allokation zwischen Formaten. Die Details entscheiden darüber, ob ein Werbebudget profitabel arbeitet oder verbrennt.

Schwache Agenturen setzen auf Automatisierungstools, die Kampagnen nach simplen Regeln steuern: „Wenn ACoS über 20%, dann Bid senken. Wenn ACoS unter 15%, dann Bid erhöhen.“ Das ist besser als gar keine Optimierung, aber es ist kein PPC-Management. Es ist regelbasierte Gebotsverwaltung, die die Komplexität eines wachsenden Accounts nicht abbilden kann.

Gute Agenturen kombinieren Automatisierung mit manueller Expertise. Sie nutzen Tools für das Monitoring und die Bid-Optimierung auf Keyword-Ebene, treffen aber strategische Entscheidungen weiterhin manuell. Welcher Kampagnentyp für einen Produktlaunch? Wie verteilt sich das Budget zwischen Sponsored Products und Sponsored Brands? Wann lohnt sich der Einstieg in DSP? Das sind Fragen, die kein Algorithmus beantworten kann.

Was gute Agenturen anders machen

Die Unterschiede lassen sich auf drei Punkte verdichten. Erstens: Gute Agenturen haben eine klare Spezialisierung. Sie machen nicht alles für jeden, sondern kennen den Amazon-Kanal in der Tiefe. Zweitens: Sie arbeiten mit echten Spezialisten statt mit angelernten Generalisten. PPC, SEO, Design und Strategie werden von unterschiedlichen Personen verantwortet, die in ihrem jeweiligen Bereich tiefes Know-how mitbringen. Drittens: Sie messen sich an den Ergebnissen ihrer Kunden, nicht an der Länge ihrer Reportings.

Fazit: Die Agenturwahl ist eine strategische Entscheidung

Der Markt für Amazon-Agenturen wird nicht kleiner werden. Für Seller bedeutet das: Die Fähigkeit, gute von schlechten Agenturen zu unterscheiden, ist selbst eine wettbewerbsrelevante Kompetenz. Wer die richtigen Fragen stellt, auf Transparenz besteht und Strategie statt nur Verwaltung erwartet, findet Partner, die echten Mehrwert liefern. Wer sich von schönen Pitch-Decks und pauschalen Erfolgsversprechen überzeugen lässt, zahlt im Zweifel teures Lehrgeld.

Der Beitrag Warum die meisten Amazon-Agenturen scheitern und was gute Agenturen anders machen erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Windkraft um 22 Uhr: Warum drei Gigawatt Strom in Sekunden verschwinden

07. April 2026 um 05:45

Der Beitrag Windkraft um 22 Uhr: Warum drei Gigawatt Strom in Sekunden verschwinden erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Frequenzschwankungen Abends Stromnetz Windrakft

Jeden Abend um Punkt 22 Uhr passiert im europäischen Stromnetz etwas Ungewöhnliches: Die Frequenz gerät bis an kritische Grenzen ins Schwanken. Hintergrund sind tausende Windräder, die wegen Lärmschutzregeln gedrosselt werden. Das ging bisher gut, könnte aber zum Problem werden. Doch es gibt eine einfache Lösung. 

In den vergangenen Tagen häuften sich laut einem Bericht der taz starke Frequenzschwankungen im europäischen Stromnetz. Diese Abweichungen erreichten beinahe die kritische Grenze von 0,2 Hertz. Ab diesem Wert erfolgen teilweise automatische Sicherheitsabschaltungen, die die allgemeine Netzstabilität gefährden. Das Phänomen tritt insbesondere an windreichen Tagen auf.

Besonders auffallend ist der exakte Zeitpunkt des Auftretens jeweils um 22 Uhr. Grund dafür sind die in vielen Regionen geltenden Lärmschutzbestimmungen für technische Anlagen. Denn zu dieser Stunde führen die Betreiber die Nachtabsenkung von Windkraftanlagen durch.

Frequenzschwankungen im Stromnetz: 3 Gigawatt weniger in Sekunden – was um 22 Uhr passiert

Heißt korrekt: Die Leistung der Anlagen wird um ein Fünftel reduziert, damit die Geräuschemissionen für Anwohner sinken. Die beinahe zeitgleiche Drosselung tausender Windräder senkt aber die eingespeiste Leistung im Stromnetz nahezu augenblicklich.

In Deutschland deckt die Windkraft bei viel Wind fast den gesamten Bedarf. Dieser Moment führt zu einem unmittelbaren Defizit von knapp drei Gigawatt. Diese Menge entspricht der Leistung zweier großer Kohlekraftwerke oder moderner Atomreaktoren.

Auch die verfügbare Reserve im Stromnetz liegt auf diesem Niveau. Diese Reserve gleicht normalerweise Schwankungen im System aus. Die Frequenzschwankung könnte gefährlich werden, wenn parallel an anderer Stelle ein weiteres Problem auftritt.

Reichen 15 Minuten, um das Problem zu lösen?

Der Einbruch könntekünftig noch größer ausfallen, da Europa die Windkraft weiter ausbauen will. Das Problem bleibt jedoch beherrschbar, sofern eine zeitnahe Regelanpassung erfolgt. Grundlegend sinkt der Strombedarf bereits vor 22 Uhr.

Daher hat die Nachtabsenkung keinen negativen Einfluss auf die generelle Versorgungssicherheit. Nur das gleichzeitige Abschalten verursacht die unnötige Schwankung. Schon eine Streckung der Drosselung auf 15 Minuten würde genügen, um die Netzstabilität zu wahren und gleichzeitig den Lärmschutz einzuhalten.

Christoph Maurer, Geschäftsführer des Aachener Beratungsunternehmens Consentec, dazu gegenüber der taz: „Würde man die Abschaltungen über eine Viertelstunde strecken, könnte das europäische Stromsystem damit gut umgehen.“

Die technische Lösung liegt zwar auf dem Tisch und ist denkbar simpel. Doch dass dafür Lärmschutzverordnungen in mehreren Bundesländern gleichzeitig angepasst werden müssten, macht es politisch zäher als technisch nötig. Angesichts des geplanten Windkraft-Ausbaus wird Europa diese Anpassung aber früher oder später vornehmen müssen – wobei früher deutlich besser wäre.

Auch interessant:

Der Beitrag Windkraft um 22 Uhr: Warum drei Gigawatt Strom in Sekunden verschwinden erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Nasenspreizer aus „Höhle der Löwen“: 9 Fragen an Venticross (+Gewinnspiel)

06. April 2026 um 22:26

Der Beitrag Nasenspreizer aus „Höhle der Löwen“: 9 Fragen an Venticross (+Gewinnspiel) erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Venticross Höhle der Löwen Venticross Atmungshilfe Nase

In diesem Fragebogen stellen wir den Teilnehmern der Vox-Show „Die Höhle der Löwen“ Fragen zu ihren Produkten und Erfahrungen in der Sendung. Diesmal: Bei den Erfindern der Nasenspreizer von Venticross

Besser schlafen, freier atmen: Für Menschen mit eingeschränkter Nasenatmung ist das keine Selbstverständlichkeit. Das führt häufig dazu, dass Betroffene durch den Mund atmen, schnarchen oder schlechter schlafen. Die Gründer Ignasi Selga, Carolin Abraham und Heidi Depner haben ein Produkt entwickelt, um dieses Problem zu lösen.

Der Nasenspreizer von Venticross bekämpft eingeschränkte Nasenatmung und Schnarchen mit einem diskreten Nasendilatator aus medizinischem Silikon. Das kleine Hilfsmittel weitet die Nasenflügel von innen, um den Luftstrom ohne Medikamente zu maximieren. Mit ihrer Idee konnten die Erfinder Investor Ralf Dümmel in „Die Höhle der Löwen“ überzeugen. Wir haben sie zu ihren Erfahrungen in der Show befragt.

Dieser Beitrag enthält Affiliate-Links, für die wir eine kleine Provision erhalten. Dies hat jedoch keinen Einfluss auf die inhaltliche Gestaltung unserer Beiträge.

Venticross: Die Nasenspreizer aus „Die Höhle der Löwen“

BASIC thinking: Hallo, ihr seid in Staffel 19 von „Die Höhle der Löwen“ dabei. Wie fühlt sich das an?

Für uns geht damit ein echtes Herzensprojekt auf die große Bühne. Wir schauen die VOX-Gründer-Show „Die Höhle der Löwen” seit der ersten Staffel und haben keine Folge verpasst. Dass wir jetzt selbst dabei sind, fühlt sich fast ein bisschen surreal an.

Gleichzeitig sind wir unglaublich stolz, weil es zeigt, dass sich die jahrelange Arbeit an Venticross gelohnt hat. Wir haben als Gründertrio viel reingesteckt: Zeit, Energie, eigene Ersparnisse. Jetzt dürfen wir unser Produkt Millionen von Zuschauern vorstellen. Das ist ein riesiges Privileg.

Was macht Venticross so besonders?

Venticross ist ein Nasendilatator – also ein Nasenspreizer –, der die Nasenöffnungen sanft erweitert und so die Nasenatmung spürbar verbessert. Das Besondere: Er ist nahezu unsichtbar.

Während andere Nasenspreizer einen auffälligen Verbindungssteg zwischen den Nasenlöchern haben, der sofort ins Auge fällt, besteht Venticross aus zwei separaten, ergonomisch geformten Silikoneinsätzen ohne Steg.

Man kann ihn tagsüber im Büro, beim Sport oder unterwegs tragen – und nachts genauso. Er kommt in drei Größen (S, M und L), auch als Multi-Size-Set, damit man die passende Größe auf jeden Fall dabei ist.

Venticross kann zu besserem Schlaf führen, Schnarchgeräusche reduzieren und die Konzentration im Alltag steigern, ohne dass es jemand sieht.

Wie seid ihr auf diese Idee und das Konzept gekommen?

Die Idee kam aus persönlicher Betroffenheit: Ignasi nutzt seit über 15 Jahren Nasenspreizer, vor allem in der Pollensaison. Während der Corona-Pandemie hat er im Homeoffice erstmals auch tagsüber Nasenspreizer getragen – schließlich konnte ihn ja niemand sehen.

Dabei fiel ihm auf, wie stark eine bessere Sauerstoffzufuhr Konzentration und Leistungsfähigkeit beeinflusst. Gleichzeitig war kein Produkt am Markt, das unauffällig genug für den Alltag war.

Also hat er sich die Anatomiebücher seiner Frau Carolin geschnappt – sie ist promovierte Fachärztin – und angefangen zu tüfteln. Nach etwa drei Monaten Entwicklungszeit war der erste nahezu unsichtbare Nasenspreizer fertig.

Atmungshilfe aus die „Höhle der Löwen“

Und wie seid ihr bei DHDL gelandet?

Uns war klar, dass wir für den nächsten Wachstumsschritt Unterstützung im Vertrieb brauchen. Als Gründerteam haben wir viel technische und medizinische Expertise, aber im klassischen Vertrieb und in der Skalierung fehlte uns die Erfahrung.

Da wir ohnehin treue Fans der Sendung sind, lag die Bewerbung nahe. Wir wollten einen Partner finden, der unser Produkt in den stationären Handel bringt und uns beim Markenaufbau hilft.

Was ging kurz vor eurem Pitch in euch vor?

Eine Mischung aus Aufregung, Vorfreude und Konzentration. Wir hatten wirklich intensiv geübt – als Team, jeder einzeln, unzählige Male. Carolin konnte am Ende jeden Teil des Pitches auswendig. Dazu hatten wir einen Fragenkatalog mit rund 100 möglichen Fragen vorbereitet.

Trotzdem: Wenn man dann tatsächlich vor den Löwen steht, ist das eine ganz andere Intensität. Wir sind mit dem Grundgefühl reingegangen: Wir glauben an unser Produkt, wir sind vorbereitet, jetzt geben wir alles.

Wie liefen die Verhandlungen nach der Show?

Direkt nach dem Pitch hatten wir noch vor Ort ein erstes Treffen mit Ralf Dümmel. Anschließend ging es in die Due Diligence, bei der wir die üblichen Unterlagen mit seinem Team geteilt haben.

Dann folgte ein persönliches Meeting in Hamburg bei DS Produkte, wo wir alle wichtigen Schnittstellen wie Legal, Marketing und Produktion kennengelernt haben.

Ralf hat sich an dem Tag sehr viel Zeit für uns genommen. Danach waren wir in regelmäßigem Austausch über Teams-Calls und wir fühlen uns in der gesamten Partnerschaft sehr gut aufgehoben. Der Deal ist so zustande gekommen wie in der Sendung: 50.000 Euro für 15 Prozent unserer Unternehmensanteile.

Nasenspreizer aus „Höhle der Löwen“: So geht es mit Venticross weiter

Was ist seit dem Dreh und der Teilnahme mit euch und eurem Produkt passiert?

In den Monaten nach dem Dreh haben wir sehr viel gearbeitet. Wir haben eine aufwändige Medizinzulassung durchlaufen, die Kritikpunkte der Löwen aufgenommen und die Produktqualität weiter optimiert.

Außerdem haben wir das Packaging komplett überarbeitet – es war ursprünglich rein auf den Onlinehandel ausgelegt und musste für den stationären Handel angepasst werden. Und natürlich haben wir dafür gesorgt, hoffentlich genug Ware auf Lager zu haben.

Wie geht es jetzt weiter?

Unser Ziel ist klar: Venticross soll der Nasendilatator Nummer eins auf dem Markt werden – als klare Empfehlung für Menschen mit Problemen bei der Nasenatmung oder Schnarchen.

In den nächsten fünf Jahren wollen wir in Europa expandieren. Darüber hinaus denken wir über weitere Produkte rund um die Themen Schlaf und Longevity nach.

Mit Ralf Dümmel als starken Löwen und seinem Team an unserer Seite sind wir sehr zuversichtlich, dass wir einen tollen gemeinsamen Start hinlegen.

Wenn ihr zurückblickt: Wie bewertet ihr eure Erfahrungen bei DHDL?

Es war eine der intensivsten und schönsten Erfahrungen, die wir als Team gemacht haben. Die Zeit verging wie im Flug, weil alles so aufregend und voller Energie war.

Klar, im Nachhinein denkt man bei einzelnen Antworten: Das hätte man noch besser formulieren können. Aber unterm Strich sind wir sehr zufrieden. Wir waren präsent, konnten unseren Pitch gut rüber bringen und hatten auf jede Frage eine Antwort.

Sogar als währenddessen das Bühnenbild umgefallen ist, sind wir ruhig geblieben. Am Ende wollten gleich zwei Löwen einen Deal mit uns – und dass unser Wunschlöwe Ralf Dümmel dabei war, hat das Ganze perfekt gemacht.

Mindestens genauso wertvoll war aber zu erleben, wie wir auch nach dem Deal als Team mit all den neuen Aufgaben und Herausforderungen funktioniert haben.

Das hat gezeigt, wie gut wir uns gegenseitig ergänzen und uns stärken. Unsere klare Empfehlung an zukünftige Teilnehmer: Seid vorbereitet, glaubt an euch und habt Spaß dabei. 

Gewinnspiel: Sicher dir die Nasenspreizer von Venticross aus „Höhle der Löwen“

Als Medienpartner verlosen wir die Nasenspreizer von Venticross aus „Die Höhle der Löwen“ unter allen Newsletter-Abonnenten von BASIC thinking. Du musst nur bis zum Stichtag am 26. April 2026 (18:00 Uhr) unseren Newsletter abonniert haben und uns bis dahin einen Kommentar unter diesem Artikel hinterlassen, warum du die Atmungshilfe Venticross haben möchtest.

Den Gewinner ziehen wir am 26. April 2026 und benachrichtigen ihn anschließend umgehend per E-Mail. Wir wünschen viel Glück!


Einsendeschluss ist Montag, der 26. April 2026, 18 Uhr. Die Teilnahme erfolgt unter Ausschluss des Rechtsweges. Jeder Teilnehmer kann nur einmal mitmachen. Es werden ausschließlich korrekt ausgefüllte Kommentare in das Auswahlverfahren aufgenommen. Der Gewinner wird per E-Mail informiert. Der Gewinnanspruch verfällt, wenn der Gewinner nicht ermittelbar ist oder sich nicht nach Bekanntgabe des Gewinns beim Veranstalter des Gewinnspiels (BASIC thinking GmbH) meldet. Der Beitrag enthält Affiliate-Links.

Auch interessant: 

Der Beitrag Nasenspreizer aus „Höhle der Löwen“: 9 Fragen an Venticross (+Gewinnspiel) erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Neuro-symbolische KI senkt Energiebedarf beim Training um bis zu 99 Prozent

06. April 2026 um 05:45

Der Beitrag Neuro-symbolische KI senkt Energiebedarf beim Training um bis zu 99 Prozent erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Neuro-symbolische-KI

Ein Forscherteam der Tufts University hat eine neuro-symbolische KI entwickelt, die den Energiebedarf beim Training um bis zu 99 Prozent reduzieren kann. Statt 36 Stunden benötigte sie im Rahmen eines Tests nur 34 Minuten. 

Der Hunger nach Energie wächst durch künstliche Intelligenz rasant an. Allein in den USA verbrauchten KI-Systeme und Rechenzentren im Jahr 2024 etwa 415 Terawattstunden Strom. Das ist mehr als der gesamte Stromverbrauch Großbritanniens. Datenzentren und KI-Systeme beanspruchen damit einen Anteil von mehr als zehn Prozent der gesamten nationalen Energieerzeugung.

Laut Prognosen der Internationalen Energieagentur wird sich dieser Wert bis zum Jahr 2030 voraussichtlich verdoppeln. Deshalb suchen Forscher nach Wegen, wie Systeme leistungsfähiger werden, ohne die Stromkosten explodieren zu lassen. Ein neuer technischer Ansatz der Tufts University verspricht hier eine deutliche Abhilfe.

Was macht neuro-symbolische KI anders als ChatGPT?

Hinter der Entwicklung steht die Arbeit von Matthias Scheutz und seinem Team an der Tufts University School of Engineering. Die Wissenschaftler nutzen die sogenannte neuro-symbolische KI. Hierbei verbinden sie klassische neuronale Netze mit festen logischen Regeln, ähnlich wie Menschen Probleme in Schritten und Kategorien lösen.

Die Forschung konzentriert sich vor allem auf Roboter, die direkt mit Menschen interagieren. Die Forscher nutzen sogenannte Visual-Language-Action-Modelle (VLA), welche herkömmliche Sprachmodelle wie ChatGPT oder Gemini um Sicht und Bewegung erweitern. Durch die Anwendung allgemeiner Regeln verstehen diese Systeme Konzepte wie die Form oder den Schwerpunkt eines Objekts wesentlich besser.

So schlägt der neue Ansatz klassische KI

Matthias Scheutz, Professor für angewandte Technologie, dazu: „Ähnlich wie ein LLM stützen sich VLA-Modelle auf statistische Ergebnisse aus großen Trainingsdatensätzen mit ähnlichen Szenarien, was jedoch zu Fehlern führen kann. Ein neurosymbolisches VLA kann Regeln anwenden, die den Umfang des Ausprobierens während des Lernprozesses begrenzen und so viel schneller zu einer Lösung gelangen. Es erledigt die Aufgabe nicht nur wesentlich schneller, sondern auch der Zeitaufwand für das Training des Systems wird erheblich reduziert.“

In Experimenten mit dem Turm-von-Hanoi-Puzzle erreichte das System von Scheutz eine Erfolgsquote von 95 Prozent. Herkömmliche Modelle kamen bei derselben Aufgabe lediglich auf 34 Prozent. Sogar bei völlig unbekannten Aufgaben glänzte die neue Technik mit 78 Prozent Erfolg, während herkömmliche KI-Systeme jeden Versuch abbrachen.

Der hybride Ansatz verbessert die Planung spürbar und macht sie insgesamt zuverlässiger. Zudem reduziert die neuro-symbolische Methode das notwendige Ausprobieren während der Lernphase erheblich. Die Experimente lieferten messbare Erfolge beim zeitlichen Aufwand für das notwendige Lernen.

Während Standardmodelle über anderthalb Tage für das Training brauchten, war das neue System nach nur 34 Minuten bereit. Die benötigte Zeit für den Lernprozess sinkt somit ganz erheblich. Eine deutliche Effizienzsteigerung betrifft dabei sowohl die Rechenzeit als auch den direkten Stromverbrauch.

Ein Prozent Energie: Die Einsparungen im Detail

Ebenso deutlich fiel die Ersparnis beim tatsächlichen Stromverbrauch der Technologie aus. Das Training beanspruchte nur ein Prozent der Energie konventioneller Modelle. Im laufenden Betrieb verbrauchte die Technik von Matthias Scheutz lediglich fünf Prozent der Energie.

Aktuelle KI-Zusammenfassungen in Suchmaschinen verbrauchen oft 100-mal mehr Energie als einfache Trefferlisten. Genau hier setzt die Lösung aus Tufts an, um solche rechenintensiven Aufgaben durch Regelbasierung nachhaltig zu gestalten. Für viele alltägliche Aufgaben steht der bisherige massive Energieeinsatz in keinem Verhältnis zum Nutzen.

Heutige Modelle bieten laut den Forschern kein langfristig tragfähiges Fundament für die Zukunft. Timothy Duggan, Pierrick Lorang, Hong Lu und Matthias Scheutz veröffentlichten ihre Ergebnisse im Februar 2026 auf arXiv. Ihr Konzept dient als notwendige Alternative zu bisherigen ressourcenintensiven Modellen.

Warum Rechenzentren jetzt neu kalkulieren müssen

Ein nachhaltiger Betrieb großer Rechenzentren rückt mit solchen Innovationen wieder in greifbare Nähe. Die neuro-symbolische Methode bietet eine effiziente Grundlage für künftige Entwicklungen. Die Ergebnisse zwingen Unternehmen dazu, den Energiebedarf künftiger Datenzentren völlig neu zu kalkulieren.

Das Forschungspapier ist bislang zwar noch nicht durch das sogenannte Peer-Review-Verfahren gelaufen – sprich: Es wurde noch nicht von unabhängigen Wissenschaftlern überprüft. Die Ergebnisse erscheinen zwar beeindruckend, aber es ist wichtig, sie einzuordnen.

Die Tests liefen bisher etwa mit einem vergleichsweise einfachen Puzzle, nicht mit großen Sprachmodellen wie ChatGPT oder Google Gemini. Ob sich die Einsparungen von 99 Prozent auch auf Modelle mit Milliarden Parametern übertragen lassen, muss sich erst zeigen. Trotzdem liefert der Ansatz einen vielversprechenden Denkanstoß – gerade weil er zeigt, dass nicht jedes KI-Problem mit roher Rechenpower gelöst werden muss.

Auch interessant:

Der Beitrag Neuro-symbolische KI senkt Energiebedarf beim Training um bis zu 99 Prozent erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Macht uns ChatGPT zu Egoisten? Stanford-Studie liefert Belege

05. April 2026 um 06:06

Der Beitrag Macht uns ChatGPT zu Egoisten? Stanford-Studie liefert Belege erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI Egoismus Studie Künstliche Intelligenz

ChatGPT, Gemini und Claude sagen dir fast immer, was du hören willst. Eine neue Stanford-Studie belegt, dass Sprachmodelle Nutzer im Schnitt 49 Prozent häufiger bestätigen als Menschen. Die Forscher warnen, dass diese systematische Zustimmung uns egoistischer macht und unsere Fähigkeit für schwierige Gespräche untergräbt.

Eine neue Stanford-Studie hat das Phänomen der sogenannten KI-Sykophantie untersucht. Die Arbeit erschien in der Fachzeitschrift Science und analysierte elf verschiedene Sprachmodelle. Darunter: ChatGPT, Gemini, Claude und DeepSeek. Die Ergebnisse zeigen, dass die Systeme dazu neigen, die Meinungen von Nutzern zu bestätigen.

Professor Dan Jurafsky sieht in dieser programmierten Bestätigung ernsthafte Risiken für die menschliche Psyche. Die Interaktion mit solchen Modellen macht Menschen laut seiner Einschätzung moralisch dogmatischer und selbstzentrierter. Diese Entwicklung verstärkt die Überzeugung, im Recht zu sein, und mindert gleichzeitig die Empathie für andere Standpunkte.

Wie oft gibt dir die KI recht?

In den Tests validierten die Modelle das Verhalten der Anwender im Durchschnitt 49 Prozent häufiger als menschliche Vergleichsgruppen. Selbst bei der Abfrage von schädlichen oder illegalen Handlungen bestätigten die KIs die Eingaben in 47 Prozent der Fälle. Ein Beispiel zeigt eine KI, die das Verschweigen von Arbeitslosigkeit über zwei Jahre als Versuch deutet, die Beziehungsdynamik jenseits von materiellen Beiträgen zu verstehen.

Die Informatiker nutzten für die Untersuchung zudem 2.000 Datensätze aus der Reddit-Community „Am I the Asshole“. Obwohl die Community die Verfasser als Verursacher identifizierte, stimmten die Chatbots ihnen in 51 Prozent der Fälle zu. Die Systeme verwenden dabei oft eine akademisch wirkende Sprache, um ihre Zustimmung zu verpacken.

Warum Unternehmen kein Interesse an ehrlicher KI haben

Die über 2.400 Teilnehmenden der Studie bevorzugten die sykophantischen Antworten und hielten diese für vertrauenswürdig. Anwender erkannten die Manipulation nicht und hielten beide KI-Typen für gleich objektiv. Die Modelle verstecken ihre Zustimmung dabei hinter einer neutralen und fachsprachlichen Formulierung.

Die Studie warnt vor „perversen Anreizen“, da die schädliche Bestätigung gleichzeitig das Nutzer-Engagement steigert. Da die Bestätigung die Bindung an das System erhöht, haben Unternehmen wenig Interesse daran, die Sykophantie zu drosseln. Firmen verspüren daher eher die Motivation, dieses Verhalten zu verstärken, anstatt es zum Schutz der Nutzer zu reduzieren.

Anwender senken diese Tendenz zur Bestätigung durch eine gezielte Anweisung im Chat. Die sprachliche Einleitung „Warte mal kurz“ am Anfang eines Prompts verbessert die Objektivität der Antworten nachweislich. Diese simple Anweisung versetzt das Modell in einen kritischeren Zustand und liefert somit neutralere Ergebnisse.

So schützt du dich vor einer Ja-Sager-KI

Die Studienleiterin Myra Cheng äußert die Sorge, dass eine ständige Nutzung dieser Systeme die sozialen Fähigkeiten schwächen könnte. Sie schätzt ein, dass Menschen durch die Vermeidung von Reibung wichtige Kompetenzen im Umgang mit realen Konflikten verlieren. Laut Myra Cheng ist Reibung für gesunde Beziehungen essenziell.

Cheng empfiehlt daher für den Moment, künstliche Intelligenz nicht als Ersatz für Menschen in persönlichen Angelegenheiten zu nutzen. Diese Empfehlung basiert auf der Annahme, dass das Ausweichen vor schwierigen Gesprächen die persönliche Entwicklung hemmt. Echte Gespräche bleiben laut Cheng unverzichtbar für die persönliche Entwicklung.

Auch interessant:

Der Beitrag Macht uns ChatGPT zu Egoisten? Stanford-Studie liefert Belege erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Die hartnäckigsten KI-Mythen – und was an ihnen dran ist

04. April 2026 um 20:47

Der Beitrag Die hartnäckigsten KI-Mythen – und was an ihnen dran ist erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI Mythen Künstliche Intelligenz

Künstliche Intelligenz ist das Thema der Stunde und scheint sich in fast alle unsere Lebensbereiche einzuschleichen. Trotzdem ist KI für viele Menschen noch immer „Neuland“, über das sie bis auf ein paar Basics relativ wenig wissen. Aus diesem Grund haben wir in zehn der hartnäckigsten KI-Mythen unter die Lupe genommen.

Bei künstlicher Intelligenz handelt es sich um keine neue Erfindung. Die Wurzeln der Technologie reichen zurück bis ins Jahr 1956, als Forscher erstmals die Vision von Maschinen skizzierten, die menschliches Lernen nachahmen können.

70 Jahre später nutzen unzählige Unternehmen KI für die Automatisierung einfacher und komplexer Prozesse. Trotzdem ranken sich in der Bevölkerung viele Halbwahrheiten und Mythen um das Thema, mit denen wir an dieser Stelle (teilweise) aufräumen wollen.

KI-Mythen offenbaren Komplexität der Technologie

Die westliche Gesellschaft tendiert momentan dazu, schwarz-weiß zu denken. Das zeigt sich auch beim Thema KI. Die einen halten die Technologie für den Teufel und verurteilen jegliche Nutzung, während die anderen denken, jedes Problem mit künstlicher Intelligenz lösen zu können. Die Wahrheit liegt wie so oft irgendwo in der Mitte.

Nicht jeder junge Mensch braucht eine Ausbildung im Bereich KI, und nicht jedes Unternehmen benötigt eine designierte Strategie, um alle Arbeitsbereiche umzustellen. Stattdessen sollte die neue Technik – wenn überhaupt – besonnen und gezielt eingesetzt werden. Das Gleiche gilt für Privatpersonen, die KI nicht als Ersatz für den Hausarzt oder selbstständiges Denken nutzen sollten.

Die schiere Masse an verfügbaren Daten und potente Rechenleistungen haben künstlicher Intelligenz den Durchbruch ermöglicht. Und die Technologie ist hier, um zu bleiben. Jeder Mensch sollte sich früher oder später mit den Fähigkeiten und Limitierungen auseinandersetzen. Deshalb werfen wir im Folgenden einen Blick auf zehn der hartnäckigsten KI-Mythen.

Mythos 1: Gibt es überhaupt „die“ KI?

Es gibt nicht „die“ KI, auch wenn der Begriff von Laien oft pauschal für alle möglichen Dinge verwendet wird. In Wahrheit verbergen sich hinter der Terminologie völlig unterschiedliche Methoden des maschinellen Lernens, die sich in Aspekten wie Datenquellen, Einsatzgebieten und Risiken grundlegend unterscheiden. Sprachmodelle basieren zum Beispiel auf Textvorhersagen, während Systeme für die Analyse von Bildern völlig andere Algorithmen nutzen.

Der Beitrag Die hartnäckigsten KI-Mythen – und was an ihnen dran ist erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Ladesäulen als Mehrfachsteckdose: General Motors Patent für neue Ladeparks

04. April 2026 um 06:00

Der Beitrag Ladesäulen als Mehrfachsteckdose: General Motors Patent für neue Ladeparks erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

General Motors GM Patent Mehrfachsteckdose Ladesäule Elektroauto laden E-Auto

Eine neue Idee von General Motors könnte das Laden von Elektroautos grundlegend verändern: Statt einzelner Säulen verteilt ein System die Leistung auf mehrere Fahrzeuge gleichzeitig. Das verspricht weniger Wartezeit und effizientere Nutzung bestehender Infrastruktur.

Automobilhersteller General Motors hat ein Patent für eine neuartige Ladeinfrastruktur erarbeitet. Es wurde bereits 2024 eingereicht und im Februar 2026 veröffentlicht. Der Ansatz verteilt Strom wie eine Mehrfachsteckdose und soll die Kapazität bestehender Ladeparks erhöhen.

Das Hauptziel ist es, überlastete Standorte durch eine effiziente Energieverteilung zu entzerren. Da Ladeparks trotz wachsender Infrastruktur oft an ihre Grenzen stoßen, könnte der Entwurf einen technischen Lösungsansatz bieten. Bei dem Konzept verteilt ein zentraler Gleichstrom-Schnelllader (DC) die verfügbare Leistung auf mehrere Module.

Diese Low-Power Access Points (LPAP) dienen als zusätzliche Anschlüsse für die Elektroautos. Durch den modularen Aufbau laden mehrere Fahrzeuge zeitgleich an einer einzigen Basisstation. Das System setzt gezielt auf die Technologie der DC-Schnelllader und könnte Engpässe an Autobahnen beseitigen.

Mehrfachsteckdose für Ladesäulen: So funktioniert das neue Ladesystem von General Motors

Die Vernetzung zwischen dem Hauptlader und den Modulen basiert auf einer speziellen Reihenschaltung. Techniker bezeichnen die Methode als Daisy Chain. An jedem dieser zusätzlichen Module dockt ein Elektroauto an, wodurch die Hardware eine optimale Auslastung erreicht. Anstatt eines isolierten Ladepunkts entsteht ein Netzwerk aus mehreren Zugriffspunkten.

Die Besonderheit bildet die Kommunikation zwischen den Modulen und den angeschlossenen Fahrzeugen. Das System analysiert kontinuierlich:

  • Ladezustand der Fahrzeuge
  • Batteriespannung und Anforderungen
  • aktuelle Auslastung aller angeschlossenen Autos

Auf Basis dieser Daten entscheidet das System in Echtzeit über die Zuteilung der Ladeleistung. Die Energie soll genau dorthin fließen, wo der Bedarf am höchsten ist.

Intelligente Energieverteilung statt fixer Ladeleistung

Die Module analysieren die Bedürfnisse aller verbundenen Fahrzeuge und passen die Stromabgabe dynamisch an. Das System berücksichtigt dabei unterschiedliche Batterietechnologien und Spannungsniveaus der Fahrzeuge.

Es steuert die Energieflüsse, um Überlastungen zu verhindern und die Ladezeit zu optimieren. Dieser intelligente Prozess verwandelt eine einfache Säule in einen vernetzten Knotenpunkt.

In der Praxis bedeutet das, dass die verfügbare Gesamtleistung nicht mehr starr an einen einzelnen Nutzer gebunden bleibt. Ein einzelnes Fahrzeug blockiert den Schnelllader somit nicht mehr exklusiv, da die Steuerung eine ganze Gruppe parallel bedient.

Damit will GM potenziell mehr Ladevorgänge in der gleichen Zeit als mit herkömmlichen Systemen abwickeln. Das System arbeitet Fahrzeuge im Team ab, statt sie nacheinander in eine Warteschlange zu schicken.

Mehr Effizienz in überlasteten Ladeparks

Für Nutzer verspricht diese Technologie eine spürbare Verbesserung des Komforts auf Reisen. Mehrere Fahrzeuge könnten sich sofort anschließen, sobald sie am Standort eintreffen, ohne auf einen freien Punkt zu warten. Das Ausharren in einer Warteschlange würde durch die höhere Anzahl an physischen Anschlüssen entfallen. Die Zeit am Ladepark ließe sich so wesentlich effizienter nutzen.

Die Priorisierungsfunktion würde besonders Fahrern mit einem sehr niedrigen Akkustand helfen. Außerdem könnte das System ein fast leeres Fahrzeug bevorzugen, damit dieses schnell eine Basisreichweite für die Weiterfahrt erhält. Währenddessen würden andere Autos mit höherem Füllstand parallel mit einer reduzierten Leistung weiter aufladen. Am Ende zählt für Autofahrer die tatsächliche Zeitersparnis und nicht nur die maximale Ladeleistung auf dem Papier.

Das sagen Elektroauto-Fahrer

Eine aktuelle Umfrage unter 2.341 Teilnehmern zeigt, wie vielfältig die Ladegewohnheiten der E-Auto-Besitzer sind. Während ein Teil der Befragten noch auf die Haushaltssteckdose setzt, nutzen viele bereits eine eigene Wallbox. Öffentliche Ladesäulen spielen ebenfalls eine zentrale Rolle im Alltag der Fahrer. Interessanterweise gaben einige Teilnehmer an, noch kein Elektroauto zu besitzen.

Das Prinzip der Leistungsverteilung existiert in der Branche bereits für das Laden mit Wechselstrom (AC). Ein Beispiel liefert das Münchner Unternehmen ChargeX, das die Energie eines Anschlusses modular verteilt. Diese Lösungen zielen primär auf Standorte wie Firmenparkplätze oder Wohnanlagen mit geringeren Leistungen ab. Dort steht das Laden über längere Zeiträume mit elf oder 22 Kilowatt im Fokus.

Wird das neue Ladekonzept von GM Realität?

Das Patent von General Motors konzentriert sich hingegen auf das Schnellladen mit deutlich höheren Leistungen. Laut der Patentschrift setzt das System dort an, wo heute die meisten Engpässe entstehen: an Schnellladeparks entlang der Autobahnen.

Hier ist eine hohe Energieabgabe in kurzer Zeit entscheidend, um den Verkehrsfluss stabil zu halten. Eine Verteilung der DC-Leistung stellt somit eine konsequente Weiterentwicklung für den Fernverkehr dar. Bisher liegt diese Entwicklung ausschließlich als theoretische Darstellung in einer Patentschrift vor. Ob und wann ein solches System die Marktreife für eine Serienproduktion erreicht, bleibt derzeit völlig offen.

Die tatsächlichen Vorteile für die künftige Mobilität hängen zwingend davon ab, ob General Motors das System jemals in die Realität umsetzt. Der Trend entwickelt sich jedoch weg von der Suche nach der stärksten Einzelsäule hin zur intelligenten Verteilung der vorhandenen Leistung.

Auch interessant:

Der Beitrag Ladesäulen als Mehrfachsteckdose: General Motors Patent für neue Ladeparks erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Die größten Denkfehler bei ChatGPT: Warum fast alle KI falsch nutzen

03. April 2026 um 13:00

Der Beitrag Die größten Denkfehler bei ChatGPT: Warum fast alle KI falsch nutzen erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI Mensch, Künstliche Intelligenz, ChatGPT, Gemini, Perplexity, Prompt, Prompting, Large Language Model, LLM

ChatGPT antwortet teilweise so überzeugend, dass viele Nutzer es unbewusst wie einen menschlichen Experten behandeln – mit Meinung, Haltung und Weltwissen. Genau das führt zu Denkfehlern, die die Qualität der Ergebnisse massiv verschlechtern.

Du hast das sicherlich schon selbst erlebt: Du fragst ein LLM (Large Language Model) wie ChatGPT etwas und bekommst eine überzeugend formulierte Antwort. Dann fragst du nach dem Gegenteil und wieder ist die Antwort überzeugend. Sind LLMs also widersprüchlich, unzuverlässig und beliebig? Gibt es ein anderes Problem, das nicht in dem LLM liegt?

LLMs erscheinen wie jemand, der eine Meinung hat, vielleicht sogar eine Überzeugung. Ein LLM ist aber kein menschlicher Kollege oder Experte, insbesondere nicht mit Charakter. Es ist ein System, das Antworten erzeugt und menschliche Kommunikation imitiert.

Deshalb jedoch schreiben wir diesen nicht-menschlichen Systemen menschliche Eigenschaften zu. In der Folge führt das dazu, dass wir bei der Nutzung von LLMs Denkfehler begehen, die sich gravierend auf die Ergebnisse auswirken.

KI ist kein Mensch, also hör auf sie so zu behandeln

Es ist naheliegend, ChatGPT und andere LLMs wie ein menschliches Gegenüber zu behandeln, denn so sind sie konstruiert: Die Kommunikation ist dialogisch und die Antworten wirken ruhig, höflich, strukturiert und klingen extrem selbstbewusst, als ob es keinen Zweifel an den gemachten Antworten gibt. LLMs klingen nicht wie Maschinen, sondern wie „jemand, der Bescheid weiß“. Aber genau dies führt zu fehlerhaften Schlussfolgerungen.

Wenn ein Mensch überzeugend spricht, unterstellen wir ihm meist eine gewisse innere Haltung. Bei einem Sprachmodell führt das zu einer fehlerhaften Nutzung. Denn es hat keine Überzeugungen, die es verteidigt. Es hat auch kein Weltbild, an dem es hängt.

Der erste Denkfehler, den es bei LLMs zu vermeiden gilt, ist deshalb erstaunlich simpel: Hör auf, in der Antwort eines LLM eine Meinung zu suchen. Frag stattdessen, welche Perspektive das Sprachmodell dir gerade erzeugt.

KI hat keine Meinung – und das ist auch gut so

Viele Nutzer machen in der Folge aus KI unbewusst so etwas wie ein digitales Gegenüber mit Charakter. Sie äußern dann Sätze wie: „Die KI findet das gut“, „Die KI hat ihre Meinung geändert“ oder „Die KI versteht doch, was ich meine“.

Das klingt harmlos. Ist es aber nicht. Denn diese Art zu sprechen verschiebt die Erwartung. Plötzlich soll KI so funktionieren wie ein Mensch. Aber dafür ist ein Sprachmodell nicht gebaut. Ein LLM erzeugt lediglich wahrscheinliche und Kontextpassende Antworten.

Das ist großartig, um menschliche Schwächen zu umgehen, denn weil LLMs keine eigenen Überzeugungen verteidigen, können sie etwas, das Menschen oft schlecht können: schnell die Perspektive wechseln.

Es kann also für deine Idee argumentieren, gegen deine Idee argumentieren, sie aus Kundensicht prüfen, aus Sicht eines Skeptikers zerlegen oder in eine nüchterne Risikoanalyse verwandeln. Ein LLM entwickelt aber (noch) keinen Charakter, wie es ein Mensch kann.

Wahrheit entsteht nicht durch gute Sprache

Der zweite große Denkfehler ist noch tückischer: Wir verwechseln Sprachqualität mit Kompetenz. Menschen reagieren stark auf sprachliche Sicherheit. Wer klar formuliert und strukturiert argumentiert, klingt glaubwürdig und wirkt dadurch kompetent. Und Glaubwürdigkeit und Kompetenz führt zu Vertrauen, was nur allzu menschlich ist. Bei der Nutzung von LLMs ist das jedoch gefährlich.

Denn LLMs sind gerade darin stark, plausibel klingende Formulierungen zu erzeugen. Sie können insbesondere Unsicherheiten in Sätze verpacken, die wie Gewissheiten klingen und Fehler so formulieren, dass man sie erst bemerkt, wenn man genau hinsieht. Genau deshalb sind Halluzinationen und faktisch falsche, aber sprachlich überzeugende Antworten von LLMs ein zentrales Risiko generativer KI.

Das Problem liegt nun in der Weise, wie du die Antworten von LLMs nutzt. Für Tatsachenbehauptungen, juristische Aussagen, Zahlen, Quellen oder belastbare Einordnungen reicht allein gute Sprache nicht aus. Dort sind Prüfungen erforderlich.

Denn Menschen glauben einer Antwort zu früh, weil sie sprachlich schon „fertig“ aussieht. Wenn du aber die Antworten von LLMs als Entwürfe für Ideen, für Varianten, für Formulierungsvorschläge oder neue Perspektiven betrachtest, sind sie wertvoll.

So holst du mehr aus einen Prompts

Ein weiterer Denkfehler liegt dann darin, dass Nutzer die erste Antwort eines LLM wie eine Art „endgültiges Ergebnis“ behandeln. Sie stellen eine Frage, lesen die Antwort und urteilen sofort: gut, schlecht, brauchbar, unbrauchbar. Damit ordnen sie jedoch fehlerhaft ein, wie LLMs in der Praxis am besten funktionieren: Der erste Output ist regelmäßig nicht das endgültige Ergebnis, sondern nur das erste Rohmaterial.

Es wirkt nämlich ein menschlicher Mechanismus, der Ankereffekt. Was wir zuerst sehen und im Falle von LLMs als Antwort bekommen, prägt unser Urteil übermäßig stark. Wenn die erste Antwort mittelmäßig ist, halten viele das Sprachmodell für schlecht. Wenn sie glänzend ist, überschätzen sie es. Beides ist falsch. LLMs reagieren auf Formulierung, Kontext und Prompt-Struktur. Schon kleinere Änderungen können deshalb Ausgaben deutlich verändern.

Deshalb zeigen sich gute Ergebnisse von LLMs selten im ersten Prompt. Sie zeigt sich vielmehr erst in den Schleifen danach. Wer deshalb gut mit LLMs arbeiten möchte, muss nachfragen und verschiedene Perspektiven abfragen.

Du musst deshalb umformulieren lassen, verdichten, zuspitzen, angreifen, vereinfachen, neu sortieren. Die Antwort von LLMs darfst du nicht wie ein Urteil, sondern wie einen Werkstoff behandeln.

KI besser als Mensch? Was LLMs gut können

Menschen mögen Bestätigung. Wir suchen Informationen, die zu unseren Annahmen passen, und wir verteidigen Ideen, in die wir schon, und sei es nur gedanklich, „investiert“ haben. Dies wird als „Confirmation Bias“ bezeichnet.

Im Umgang mit KI wird daraus aber ein Problem. Denn wenn du tendenziös fragst, liefert dir ein Sprachmodell oft brauchbare Antworten in genau dies Richtung der Frage. Nicht, weil es die Wahrheit gefunden hat, sondern weil es auf den von dir gesetzten Rahmen reagiert.

Daraus ergibt sich aber im Umkehrschluss ein oft unterschätzter Nutzen: Du kannst dir von einem LLM Gegenargumente liefern lassen, ohne dass jemand beleidigt ist, ein Ego verletzt wird oder eine Situation eskaliert.

Viele Nutzer erkennen nicht, dass LLMs regelmäßig nur bestätigen, was sie ohnehin schon dachten. Klüger jedoch wäre das Gegenteil: LLMs dazu zu benutzen, die eigene Komfortzone und die eigene Gedankenwelt anzugreifen.

Nicht die Qualität von LLMs, sondern die der Frage entscheidet

Ein damit verbundener Denkfehler ist dann schließlich, dass die Qualität der Antwort in den Eigenschaften, im Algorithmus und den Trainingsdaten eines LLMs liegen wird. Ein erstaunlich großer Teil des Ergebnisses hängt jedoch daran, wie du fragst.

LLMs reagieren auf Framing, Rollenbeschreibung, Zielsetzung, Beispiele, Kontext und Formulierungsnuancen. Sprache ist bei LLMs Steuerung. Wenn du unklar fragst, bekommst nicht einfach eine etwas schlechtere Antwort, sondern vielmehr eine Antwort auf eine unsauber gestellte Frage.

Das bedeutet aber: Bessere KI-Nutzung beginnt oft nicht mit „besserer“ KI, sprich mit besseren Modellen, sondern mit klarerem Denken in Form von klareren Fragestellungen und Aufgaben. Sobald du Zielgruppe, Zweck, Ton, Tiefe, Ausschlüsse und Erfolgskriterien für die Antwort klarer formulierst, verändert sich die Qualität der Antwort oft spürbar.

Das Sprechen mit LLMs, das sogenannte „Prompting“, ist deshalb nicht nur eine zu vernachlässigende Banalität. Gute Prompts erstellst du dann, wenn dir klar ist, was du eigentlich willst.

Sprachmodelle laden zu Missverständnissen ein

Natürlich sollte man nun noch erwähnen, dass die Art, wie LLMs entwickelt sind, nicht ganz unschuldig an unseren Denkfehlern sind. LLMs klingen freundlich, kohärent und selbstsicher.

Sie wirken oft so, als verstehen sie, was man von ihnen will. Genau dadurch entsteht fast automatisch der Eindruck, man habe es mit einem klar denkenden „digitalen Menschen“ zu tun.

Das Problem liegt also nicht nur beim Nutzer. Es liegt auch an der Art, wie LLMs erstellt werden und so Menschlichkeit simulieren.

Inzwischen wird dieses Phänomen unter dem Begriff „Anthropomorphisierung von LLMs“ diskutiert. Gerade deshalb jedoch braucht der Umgang mit LLMs ein klares Verständnis dafür, was sie können und was nicht.

Bessere Ergebnisse beginnen mit besseren Fragen

Am Ende läuft alles auf eine unbequeme, aber in meinen Augen wichtige Einsicht hinaus: Wenn du mit LLMs besser arbeiten willst, musst du deinen Umgang mit ihnen besser verstehen und anpassen.

Du musst aufhören, in flüssiger Sprache automatisch Wahrheit zu sehen, die erste Antwort für das schlussendliche Ergebnis zu halten und Bestätigung deiner Ansichten durch LLMs mit guten Gedanken zu verwechseln. Und vor allem musst du aufhören, ein Sprachmodell wie einen Menschen mit Haltung und Überzeugung zu betrachten.

Ein LLM ist im besten Fall ein Gedankenverstärker, ein Beschleuniger bei der Erstellung von Antworten, ein Perspektivengenerator und ein Widerspruchswerkzeug. Ein LLM ist kein digitaler Kollege mit Weisheit und Weltbild. Deshalb musst du aufhören, ein LLM an menschlichen Maßstäben zu messen. Wenn du das verstehst, bist du gegen Denkfehler besser gewappnet.

Auch interessant: 

Der Beitrag Die größten Denkfehler bei ChatGPT: Warum fast alle KI falsch nutzen erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Kupfer statt Stahl: Freiburger Forscher machen E-Bike-Akkus leichter

03. April 2026 um 05:45

Der Beitrag Kupfer statt Stahl: Freiburger Forscher machen E-Bike-Akkus leichter erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Kupfer Zellverbinder Akkus E-Bikes E-Scooter

Kupfer könnte die Batteriemodule von E-Bikes und E-Scootern deutlich leichter und effizienter machen. Doch bislang kam das Metall trotz seiner starken Leitfähigkeit kaum zum Einsatz. Nun zeigt ein neues Verfahren, wie sich Kupfer ohne teure Anlagen verarbeiten lässt.

Akkus für E-Bikes oder E-Scooter stehen vor einer technischen Hürde. Bisher verschalten Hersteller die einzelnen Zellen meist mit Verbindern aus Stahl. Da Stahl Strom jedoch vergleichsweise schlecht leitet, müssen die Bauteile bei leistungsstarken Batterien immer dicker und schwerer werden.

Das schränkt die Effizienz der mobilen Energiespeicher zunehmend ein. Kupfer bietet in der Batteriebranche schon lange eine bessere Performance für die Verschaltung einzelner Module. Denn das Metall leitet elektrischen Strom rund sechsmal besser als Stahl.

Durch diese physikalische Eigenschaft ermöglichen deutlich dünnere Verbinder eine Gewichtseinsparung, was das gesamte Batteriemodul am Ende leichter macht. Trotz des höheren Eigengewichts von Kupfer führt die Materialersparnis zu einer Gewichtsreduktion des Gesamtsystems.

Akkus für E-Bikes: Technische Hürden bei der Kupferverarbeitung

Bisher bremsten die hohen Anforderungen der Fertigungstechnik den flächendeckenden Einsatz von Kupfer aus. Denn das herkömmliche Buckelschweißen, das in der Industrie für Stahlverbinder weitverbreitet ist, funktioniert bei Kupfer nicht zuverlässig genug.

Da das Metall Wärme optimal leitet, transportiert es die beim Schweißen erzeugte Hitze sofort in alle Richtungen ab. Das verhindert die notwendige lokale Energiekonzentration, sodass keine stabile Schweißverbindung entstehen kann. Als Alternative zum klassischen Verfahren bietet sich zwar das Laserschweißen an, doch die Kosten für solche Anlagen sind sehr hoch.

Für mittelständische Batteriehersteller in Deutschland bedeutet das oft eine zu hohe Investitionshürde. Viele Unternehmen müssten ihre gesamte Fertigungslinie für dieses Verfahren komplett umbauen. Ein Forscherteam am Fraunhofer ISE hat nun jedoch eine Lösung präsentiert, die ohne teure neue Maschinen auskommt.

Kupfer-Zellverbinder: Ein neues Verfahren durch Sublimation

Projektleiter Christian Schiller vom Fraunhofer ISE setzt auf ein Kurzzeitschweißen mit einer besonders hohen Wärmestromdichte. Bei diesem ultraschnellen Prozess schmilzt das Metall nicht wie üblich auf, sondern es sublimiert direkt.

Sublimation bedeutet, dass der Feststoff unmittelbar in einen gasförmigen Zustand übergeht. Die Anlage stellt den Schweißpunkt dabei in weniger als 0,6 Sekunden fertig, noch bevor die erzeugte Wärme überhaupt in das umliegende Material abfließen kann.

Besonders erfolgreich testete das Team das Verfahren bereits im industriellen Zellenformat 21700. Nano-Computertomografie-Aufnahmen belegen, dass die unbeschichteten Kupferverbinder sauber auf dem Gehäuseboden sitzen.

Das Verfahren schont dabei die darunterliegende Struktur der Zelle und verhindert gefährliche Beschädigungen während der Produktion. In der automatisierten Schweißzelle übernimmt ein kollaborativer Roboter die präzise Positionierung der Bauteile.

Inline-Messmethoden für die Massenproduktion

Ein wesentliches Alleinstellungsmerkmal des Forschungsprojekts sind die neu entwickelten, nicht invasiven Inline-Messmethoden zur Qualitätskontrolle. Diese Systeme bewerten jeden einzelnen Schweißpunkt automatisch und ohne Zeitverlust direkt in der laufenden Fertigungslinie.

Beim Sublimationsmechanismus gelten andere physikalische Kriterien als beim herkömmlichen Schmelzschweißen. Daher war diese Neuentwicklung für die industrielle Anwendung unverzichtbar. So sichern Hersteller die Zuverlässigkeit der Verbindung, ohne das Bauteil zu zerstören.

Die Forschungsarbeiten finden seit Juni 2023 im Rahmen des Projekts „BatCO₂tiv“ statt und erhalten Fördergelder vom Bundeswirtschaftsministerium. Bis zum geplanten Projektende im Mai 2027 entstehen zudem umfassende Designregeln für Zellverbinder und Zellhalter. Diese Regeln sollen sicherstellen, dass die parallel verschalteten Zellen in einem Modul eine gleichmäßige Bestromung erfahren.

Wirtschaftliche Vorteile für deutsche Hersteller

Das Projekt verfolgt das Ziel, die Effizienz und Lebensdauer der Batteriemodule durch die optimierte Kupferverschaltung weiter zu steigern. Der geringere elektrische Widerstand sorgt dafür, dass weniger Energie als Wärme verloren geht. Davon profitieren vor allem Anwendungen mit hohen Strömen, in denen das Modul effizienter arbeiten muss.

Ein entscheidender Vorteil dieser Innovation liegt in der Weiternutzung bestehender Infrastrukturen. Batteriehersteller müssen ihre vorhandenen Buckelschweißanlagen nicht ersetzen, sondern arbeiten mit angepassten Prozessparametern einfach weiter. Dies senkt die Einstiegshürden erheblich und hilft deutschen Unternehmen dabei, gegenüber dem asiatischen Wettbewerb konkurrenzfähig zu bleiben.

Hersteller nutzen Kupfer so ohne das Risiko teurer Neuinvestitionen in Laserschweißanlagen. Das bayerische Unternehmen Smart Battery Solutions integriert den neuen Prozess als erster Hersteller in seine Fertigungslinie. Die kupferverschalteten Batterien erweitern zukünftig die hauseigene UniPower-Produktfamilie. Diese Module treiben unter anderem E-Bikes und Sharing-Systeme für die städtische Paketzustellung auf der letzten Meile an.

Auch interessant:

Der Beitrag Kupfer statt Stahl: Freiburger Forscher machen E-Bike-Akkus leichter erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Neue Balkonkraftwerke-Norm erlaubt 7.000 Watt – aber nur 800 Einspeisung

02. April 2026 um 19:42

Der Beitrag Neue Balkonkraftwerke-Norm erlaubt 7.000 Watt – aber nur 800 Einspeisung erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Balkonkraftwerk Norm Regeln 7000 Watt 800

Eine neue VDE-Richtlinie für Steckersolargeräte erlaubt erstmals Modulleistungen von bis zu 7.000 Watt für Balkonkraftwerke. Doch die Einspeisegrenze bleibt bei 800 Watt. Gleichzeitig gelten ab bestimmten Schwellenwerten neue Melde- und Steuerungspflichten. Wir erklären, welche Regeln jetzt gelten, wo es in der Praxis noch hakt und für wen sich eine große Anlage tatsächlich lohnt.

Die neue VDE-Richtlinie für Steckersolargeräte schafft erstmals klare Rahmenbedingungen für den regelkonformen Betrieb sehr starker Balkonkraftwerke. Sie erweitert den Anwendungsbereich und ermöglicht Haushalten eine rechtssichere Nutzung größerer Anlagen. Damit erleichtert die Norm die private Energiewende und senkt langfristig die Stromkosten.

Die neuen Regeln erlauben theoretisch eine Modulleistung von bis zu 7.000 Watt. Trotzdem bleibt die tatsächliche Einspeiseleistung für den Wechselrichter oder Speicher auf 800 Watt begrenzt. Ab einer installierten Modulleistung von 2.000 Watt müssen Nutzer die Anlage zudem beim jeweiligen Netzbetreiber anmelden.

Ab wann darf der Netzbetreiber ein Balkonkraftwerk abregeln?

Ab einer Leistung von 7.000 Watt wird die Installation eines Smart-Meter-Gateways zur Pflicht. Dieses Gerät gibt dem Netzbetreiber die technische Möglichkeit, die Anlage bei Bedarf aus der Ferne zu steuern oder abzuregeln. Damit kann der Betreiber bei Netzproblemen die Einspeisung unmittelbar unterbrechen beziehungsweise den Stecker ziehen.

Die überarbeitete Norm lässt nun auch eigenständige Wechselstrom-Batteriespeicher als zulässige Komponente zu. Nutzer können damit gezielt günstigen Netzstrom aus variablen Tarifen zwischenspeichern beziehungsweise „tanken“. Für diese Speicher gilt ein striktes Verbot, die Einspeiseleistung lediglich per Software zu drosseln.

7.000 Watt klingen gut – doch daran scheitert es noch

In der Praxis scheitert die Umsetzung von 7.000-Watt-Systemen derzeit noch an fehlenden Speicherlösungen für diese hohe Leistungsklasse. Viele Speichereinheiten besitzen nur an der Haupteinheit Anschlüsse für die Solarmodule, was die Kapazität stark einschränkt. Da pro Gerät oft nur maximal 2.000 Watt PV-Eingangsleistung möglich sind, hakt es bei der Einbindung großer Modulfelder.

Die Wirtschaftlichkeit solcher Anlagen hängt massiv vom Nutzungsverhalten ab, da der Eigenverbrauch deutlich lukrativer als die Einspeisung ist. Der Netzbetreiber vergütet überschüssigen Strom derzeit lediglich mit rund 7 Cent pro Kilowattstunde. Wer die hohe Leistung nicht unmittelbar selbst verbraucht, verschenkt somit bares Geld an den Energieversorger.

Windrad und Brennstoffzelle: Was die neue Norm sonst noch erlaubt

Zusätzlich zum Solarstrom erlaubt die Norm nun auch die Integration anderer Quellen wie kleiner Windkraftanlagen oder Wasserstoff-Brennstoffzellen. Auch Kraft-Wärme-Kopplungsanlagen können künftig als Teil eines kombinierten Energiesystems betrieben werden. Solche Systeme müssen ebenfalls die Grenze von 800 VA bei der Einspeisung einhalten.

Besonders sinnvoll bleibt der erzeugte Strom vor allem für dauerhaft laufende Verbraucher im Haushalt. Dazu zählen etwa Kühlgeräte, Heizungssysteme oder Computer, die eine konstante Grundlast benötigen. Leistungsintensive Anwendungen wie das Laden von Elektroautos lassen sich mit der begrenzten Einspeiseleistung hingegen nur eingeschränkt betreiben.

Fazit; Für die meisten Haushalte ist eine Anlage in dieser Größenordnung derzeit noch überdimensioniert. Wer keinen passenden Speicher hat und tagsüber wenig Strom verbraucht, verschenkt den Großteil der erzeugten Energie zum Schleuderpreis.

Sinnvoll sind große Modulleistungen vor allem für Haushalte mit hoher Grundlast, etwa durch Wärmepumpe oder Homeoffice-Betrieb. Unser Rat: Wer heute einsteigt, fährt mit 1.500 bis 2.000 Watt Modulleistung und einem kleinen Speicher am wirtschaftlichsten – und bleibt zudem unter der Anmeldepflicht.

Auch interessant:

Der Beitrag Neue Balkonkraftwerke-Norm erlaubt 7.000 Watt – aber nur 800 Einspeisung erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Europa im KI-Dilemma: Was passiert, wenn die Blase platzt?

02. April 2026 um 11:00

Der Beitrag Europa im KI-Dilemma: Was passiert, wenn die Blase platzt? erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI Europa Dilemma USA Künstliche Intelligenz Zurückhaltung KI-Blase

Europa strebt in den Bereichen KI, Software und Rechenzentren eigentlich mehr Souveränität an. Die Abhängigkeit von den USA trügt jedoch die Bilanz. In puncto KI ist die vergleichsweise zurückhaltende Haltung Europas aber Fluch und Segen zugleich. Einerseits besteht unausgeschöpftes Potenzial. Andererseits wird Europa deutlich weicher fallen, wenn die KI-Blase eines Tages platzt. Eine kommentierende Analyse.

133 Millionen KI-Nutzer in Europa – doch wem gehören die Modelle?

  • Laut einem Report der niederländischen Internet-Beteiligungsgesellschaft Prosus gibt es in Europa mehr KI-Nutzer als in den USA. Demnach nutzen rund 133 Millionen Europäer Sprachmodelle wie ChatGPT und Co. – fast doppelt so viele wie in den USA. Zudem stammen drei der zehn weltweit meistzitierten KI-Wissenschaftler aus EU-Ländern. Doch: Fast jedes KI-Modell, das in Europa genutzt wird, wurde in den USA oder China entwickelt. Laut einer Analyse der Universität Bonn ist die Digitalhandelsbilanz Europas zwar stabil, doch die Abhängigkeit von den USA, China sowie US-Unternehmen mit europäischem Sitz in Irland trügt das Bild.
  • Mit Mistral AI aus Frankreich gibt es bislang nur ein einziges europäisches KI-Unternehmen, das ein halbwegs konkurrenzfähiges Sprachmodell zu ChatGPT, Gemini und Claude entwickelt hat. Das KI-Modell Le Chat wurde vor allem auf Datenschutz und Effizienz getrimmt. Mistral AI verspricht etwa, dass Daten standardmäßig innerhalb der EU gespeichert werden. Es gibt aber Ausnahmen. Denn wenn US-Dienstleister genutzt werden, können Daten teilweise oder zwischenzeitlich auch in die Vereinigten Staaten abfließen. Das Unternehmen richtet sich mittlerweile mehr an Unternehmenskunden als an Privatnutzer.
  • Die USA sind führend, was den Umfang und die Intensität der Nutzung von KI am Arbeitsplatz angeht. Zu diesem Ergebnis kommt eine Studie des Wissenschaftszentrums Berlin für Sozialforschung (WZB). Deutschland liegt demnach im Mittelfeld der europäischen Länder. Die Unterschiede seien jedoch gewachsen und würden die Produktivität der Beschäftigten in vielen Unternehmen beeinflussen. Den Ergebnissen zufolge ist die geringere Nutzung von KI ein wichtiger Erklärungsfaktor für das geringere Produktivitätswachstum in Europa im Vergleich zu den USA.

Was Europa bei KI richtig macht – und wo es scheitert

Europa ist Europas bester Freund und schlimmster Feind zugleich – zumindest, wenn es um KI und Digitalisierung geht. Nicht, weil wir zwangsläufig zu viel regulieren. Im Gegensatz zu den USA oder China schert man sich in Europa noch um Daten- und Verbraucherschutz. Und das ist auch gut so.

Doch: Wir haben auch deutlichen Nachholbedarf. Etwa, wenn es darum geht, KI sinnvoll in Unternehmen, dem Gesundheitswesen oder in Behörden zu integrieren, um Land, Wirtschaft und Gesellschaft anzukurbeln. Denn richtig eingesetzt kann Künstliche Intelligenz die Welt zum Positiven verändern – ohne zwangsläufig Arbeitsplätze zu vernichten.

KI kann etwa dabei helfen, Behörden und das Gesundheitssystem zu entlasten, oder in einigen Branchen dem privatwirtschaftlichen Fachkräftemangel entgegenwirken. Statt den Menschen mehr Arbeit aufzubürden, wie es derzeit viele fordern, könnten Beschäftigte produktiver arbeiten. Etwa, indem sie sich auf Dinge konzentrieren können, für die zuvor nicht die nötige Zeit da war.

Künstliche Intelligenz könnte währenddessen die Drecksarbeit erledigen und dadurch Prozesse und Produktivität effizienter und schneller gestalten. Die Zwickmühle: KI ist für Europa Fluch und Segen zugleich. Denn KI ist eine Wette auf die Zukunft, die einem Glücksspiel gleichkommt. Beim Roulette weiß man wenigstens, wie das Rad funktioniert. Doch auch im Gegensatz zu Dampfmaschinen, Immobilien oder der Eisenbahn weiß man bei KI nicht, wohin die Reise führt.

Dass sich KI-Anwendungen rasend schnell weiterentwickeln, lässt sich aber nicht wegdiskutieren. Der Kosten-Nutzen-Faktor von Chatbots im Privatbereich erschließt sich mir vor dem Hintergrund von Fake News, KI-Betrug und einem massiven Ressourcenverbrauch mit Blick auf die Umwelt aber immer weniger. Stattdessen sollte KI nur dort eingesetzt werden, wo sie einen sinnvollen Beitrag leisten kann.

Das sagten Ökonomen und KI-Experten

  • Ökonomie-Nobelpreisträger Joseph Stiglitz in einem Interview mit dem Handelsblatt (€) zur ungebrochenen Dynamik der US-Wirtschaft: „Ein erheblicher Teil des Wachstums ist auf den Boom rund um Künstliche Intelligenz und den Bau von Rechenzentren zurückzuführen. Trump hatte schlicht Glück, während dieses Booms Präsident zu sein. (…) Der Aufschwung beschränkt sich auf eine Handvoll Technologiegiganten. Die gigantischen Bewertungen dieser Unternehmen sind letztlich Ausdruck der Erwartung langfristiger Monopolgewinne, die möglicherweise nie realisiert werden. Vieles deutet auf eine gigantische KI-Blase hin. Und wenn diese platzt, wird die zugrunde liegende Schwäche der US-Wirtschaft sehr deutlich sichtbar werden.“
  • Fabricio Bloisi, Chef der Internet-Beteiligungsgesellschaft Prosus, in einem Statement: „Europa steht im globalen Wettlauf um die KI am Scheideweg, doch wir sind zu langsam. Wir verfügen über Talente von Weltklasse, doch ohne rasche, umfangreiche Investitionen in unsere eigenen Rechenkapazitäten und Open-Source-Modelle laufen wir Gefahr, von anderen abhängig zu werden. Die Länder und Unternehmen, die jetzt handeln, werden das nächste Jahrzehnt prägen. Europa verändert sich, doch die Dinge gehen nicht schnell genug voran. Lasst uns so vorgehen, als hinge die Zukunft Europas davon ab – denn das tut sie.“
  • Auch Nicola Fuchs-Schündeln, Präsidentin des Wissenschaftszentrums Berlin für Sozialforschung (WZB), warnt: „Mit dem jetzt schon bestehenden Abstand in der KI-Nutzung ist daher eine noch wachsende Produktivitätslücke zu erwarten, wenn in Europa nicht gegengesteuert wird. Gerade angesichts der demografischen Entwicklung wird es entscheidend sein, unser Produktivitätswachstum in den nächsten Jahren zu erhöhen.“

Wie Europa von einer platzenden KI-Blase profitieren könnte

Mit Blick auf die KI-Branche sind Prognosen derzeit selbst für Experten schwierig. Was sich aber mit großer Sicherheit prophezeien lässt: Die KI-Blase wird eines Tages platzen. Denn: Künstliche Intelligenz wird massiv überbewertet. Wenn es zum großen Knall kommt, wird sich Europa im Gegensatz zu den USA unter den aktuellen Umständen ins Fäustchen lachen.

Doch Crash ist nicht gleich Crash und Europa ist nicht die USA. Denn selbst wenn die Aktienkurse von Google, Meta, Apple oder Amazon einbrechen, ist das nicht deren unmittelbarer Untergang. Alle vier Konzerne haben nämlich profitable Standbeine fernab vom KI-Hype.

Bei Unternehmen wie OpenAI, Anthropic und Mistral AI sieht es aber anders aus. Denn diese setzen ausschließlich auf KI, während sie ihre Milliardeninvestments bislang nicht mal annähernd amortisiert haben. Ein mögliches Ende von OpenAI ist zwar nicht apodiktisch, wäre aber auch kein Systemcrash.

Trotz großer Abhängigkeiten von US-Technologien wird sich Europas vergleichsweise zurückhaltende Haltung im Falle einer platzenden KI-Blase aber wie ein Airbag erweisen. Die USA und China würden hingegen die gigantischen Fehlinvestitionen schmerzhaft verdauen müssen.

Die eigentliche Frage lautet deshalb nicht, ob Europa zu langsam ist. Vielmehr geht es darum, aus der aktuellen Zurückhaltung die richtigen Schlüsse zu ziehen. KI wird nämlich nicht verschwinden. Die Chance für Europa, einen Mehrwert zu schaffen, ist aber da. Etwa, wenn Pflegekräfte Dokumentationen nur noch prüfen statt schreiben müssen, um sich vermehrt den Pflegebedürftigen widmen zu können.

Wenn Industrieprozesse intelligent automatisiert werden, um Beschäftigte zu entlasten, anstatt ihnen Mehrarbeit aufzubürden. Oder: Wenn Anträge in der Verwaltung nicht mehr in Monaten, sondern nur noch in Wochen oder gar Tagen bearbeitet werden können. Chatbots für jedermann, die auf Knopfdruck Bilder, Videos oder Texte generieren, erscheinen jedoch mehr und mehr als Irrweg.

Auch interessant: 

Der Beitrag Europa im KI-Dilemma: Was passiert, wenn die Blase platzt? erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

WhatsApp öffnet sich: So nutzt du Chats mit anderen Messengern

02. April 2026 um 05:45

Der Beitrag WhatsApp öffnet sich: So nutzt du Chats mit anderen Messengern erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

WhatsApp Drittanbieter-Chats aktivieren Meta Digital Markets Act EU Smartphone

Bei WhatsApp kannst du künftig auch Drittanbieter-Chats integrieren und so Nachrichten aus verschiedenen Apps gebündelt an einem Ort finden. Wir erklären dir, wie du die neue Funktion aktivieren kannst und welche Dienste dabei alles unterstützt werden.

WhatsApp vereint auf seiner Plattform mehr als drei Milliarden Menschen in über 180 Ländern und ist damit der beliebteste Messenger weltweit. Doch die enorme Marktmacht der Meta-Tochter erhöht auch den regulatorischen Druck.

Mit dem Digital Markets Act will beispielsweise die EU einen faireren Wettbewerb stärken und sogenannte „Gatekeeper“ einschränken. Besonders dominante Dienste müssen sich deshalb nun für Drittanbieter öffnen – und das gilt auch für WhatsApp.

Aus diesem Grund kannst du künftig auch Drittanbieter-Chats in WhatsApp aktivieren und so verschiedene Messenger in einer App nutzen. Wir erklären dir, wie das funktioniert.

So kannst du Drittanbieter-Chats bei WhatsApp aktivieren

Drittanbieter-Chats kannst du bei WhatsApp ganz einfach in deinen Einstellungen aktivieren. Klicke dafür in der App auf deinem iPhone auf dein Profilbild in der unteren rechten Ecke des Bildschirms oder auf deinem Android-Smartphone auf die drei Punkte.

Wähle hier nun in den Einstellungen den Menüpunkt „Konto“ aus. Hier findest du die Option „Drittanbieter-Chats“. Über den Button „Aktivieren“ kannst du es Personen erlauben, dir aus Drittanbieter-Apps Nachrichten zu senden.

Hast du den Button „Aktivieren“ angeklickt, erhältst du noch einmal Informationen zu der neuen Funktion. WhatsApp weist hier auch noch einmal darauf hin, dass die neue Funktion nur für „zulässige Drittanbieter-Messaging-Apps“ gilt.

Diese kannst du nach einer Bestätigung über den „Weiter“-Button im nächsten Fenster in einer Übersicht sehen und auswählen. Aktuell sind hier allerdings nur die beiden Apps „BirdyChat“ und „Haiket“ zu finden. Ob Signal, Telegram und Co. hier noch Einzug halten, ist bisher nicht bekannt.

In einem nächsten Schritt musst du nun noch auswählen, ob du die Chats kombiniert in einem Postfach oder in einem getrennten Postfach bei WhatsApp anordnen willst. Mit einem abschließenden Klick auf „Aktivieren“ kannst du die neue Funktion nutzen.

WhatsApp-Chats mit anderen Messengern

In deinen Einstellungen kannst du außerdem auswählen, dass WhatsApp dich benachrichtigen soll, wenn du über einen Drittanbieter-Chat kontaktiert wirst. Willst du selbst einen Drittanbieter-Chat starten, kannst du das über das Plus in der oberen rechten Ecke deines Bildschirms im Bereich Chats machen.

Tippe auf das Plus und wähle dann „Neuer Drittanbieter-Chat“ aus. Wähle dann die jeweilige App aus und gib die Benutzer-ID des Empfängers ein.

Das kann laut WhatsApp je nach App eine E-Mail-Adresse, eine Telefonnummer oder ein Benutzername sein. Am Ende bestätigst du noch mit „Chat erstellen“ und kannst nun Nachrichten, Bilder, Videos, Sprachnachrichten und Dokumente versenden und empfangen. Diese werden bei der Übermittlung laut WhatsApp verschlüsselt.

Das solltest du bei der Nutzung von Drittanbieter-Chats bei WhatsApp beachten

Trotz der Integration der Drittanbieter-Chats sind einige Einstellungen anders als für herkömmliche WhatsApp-Chats. So werden beispielsweise dein Name und dein Profilbild nicht über die Drittanbieter-Chats geteilt, deine Telefonnummer hingegen schon.

WhatsApp weist außerdem darauf hin, dass dich jede Person über eine Drittanbieter-App anschreiben kann, die deine Telefonnummer kennt. Das gilt auch für Personen, die du auf WhatsApp blockiert hast. Erhältst du allerdings eine Nachricht von einer unerwünschten Person über einen Drittanbieter-Chat, kannst du diese auch ganz normal blockieren.

Aktuell ist die neue Funktion nur für iPhones und Android-Smartphones verfügbar. Auf Tablets, im Web oder in der Desktop-Version kannst du das Feature nicht nutzen.

Auch interessant:

Der Beitrag WhatsApp öffnet sich: So nutzt du Chats mit anderen Messengern erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

❌