Normale Ansicht

Received today — 27. April 2026BASIC thinking

Hybridmotor von Geely knackt Weltrekord mit nur 2,22 Litern Verbrauch

27. April 2026 um 16:13

Der Beitrag Hybridmotor von Geely knackt Weltrekord mit nur 2,22 Litern Verbrauch erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Geely Hybridmotor Verbrauch 2 Liter

Der chinesische Autohersteller Geely hat mit seinem neuen i-HEV-Hybridmotor einen Weltrekord aufgestellt: nur 2,22 Liter Verbrauch auf 100 Kilometer. Dahinter steckt ein strategischer Kurswechsel – weg vom reinen E-Auto, hin zu kosteneffizienten Hybrid-Modellen. Wir erklären, wie die Technik funktioniert, welche Modelle sie bekommen und was das für den europäischen Markt bedeuten könnte.

Das neue i-HEV-System von Geely nutzt Künstliche Intelligenz, um den Energiefluss in Fahrzeugen dynamisch zu regeln. Das Unternehmen gibt an, dass das die Gesamtenergieeffizienz um mehr als zehn Prozent verbessert. Der neue Hybridmotor erreiche demnach eine thermische Effizienz von 48,4 Prozent. Damit hat er einen für Serienfahrzeuge untypisch hohen Wirkungsgrad.

Dieser hohe Wirkungsgrad könnte vor allem für den Alltag relevant sein, da weniger Energie verschwendet würde. Der elektrische Antrieb soll 230 Kilowatt Leistung liefern. Laut Geely erfolgt die Beschleunigung von null auf 30 Kilometer pro Stunde in 1,84 Sekunden. Das Unternehmen hat das System gezielt auf Anforderungen im Stadtverkehr optimiert.

Was steckt hinter Geelys i-HEV-Hybridmotor?

Unter kombinierten Bedingungen soll das System einen Verbrauch von 2,22 Litern pro 100 Kilometer erreichen. Dieser Wert wurde Berichten zufolge von Guinness zertifiziert und dient als unabhängiger Nachweis für das Effizienzversprechen. Geely führt die Technologie zunächst in zwei Modellen ein: dem Geely Preface (Xingrui) und dem Geely Monjaro (Xingyue L).

Der Preface i-HEV soll laut Worldwide Harmonized Light Vehicles Test Procedure (WLTC)-Norm im Schnitt einen Verbrauch von 3,98 Litern pro 100 Kilometern aufweisen. Beim größeren Monjaro i-HEV liegt der Wert durchschnittlich bei 4,75 Litern pro 100 Kilometern. Beide Modelle behalten ihr bekanntes Design bei, erhalten aber neue Felgen und Farboptionen. Im Innenraum kommen Doppelbildschirme und das Flyme Auto-System zum Einsatz.

2,22 Liter Verbrauch: Diese Modelle bekommen die Technik zuerst

Geely plant, das i-HEV-System ab 2026 auf weitere Modelle wie den Emgrand und den Boyue auszudehnen. Der Emgrand i-HEV ist das Modell, das den Rekordwert von 2,22 Litern erzielt hat.

Das System ist mit verschiedenen Motorvarianten kombinierbar, darunter 1,5-Liter- und zwei-Liter-Motoren und wird von einer 11-in-1-Elektroantriebseinheit gepaart.

Das entspricht einem Trend in China, bei dem Hersteller Hybride als kostengünstige Alternative zu Plug-in-Hybriden fördern. Kleinere Batterien mit nur ein bis zwei Kilowattstunden sollen die Abhängigkeit von teuren Rohstoffen erheblich reduzieren.

Warum China jetzt auf günstige Hybride statt E-Autos setzt

Neben der Hybridisierung setzt Geely weiterhin auf alternative Antriebe wie Methanol. Vorstandsvorsitzender Li Shufu hat darauf hingewiesen, dass Methanol eine zehnfach höhere Energiedichte gegenüber Lithium-Ionen-Batterien aufweist.

Das könne in Zukunft Vorteile bei der Reichweite und dem Gewicht von Fahrzeugen bieten. Die regulatorischen Rahmenbedingungen in China unterstützen diese technologieoffene Strategie, da die staatlichen Anreize für Plug-in-Hybride sinken.

Mit exakt 476.327 ausgelieferten Fahrzeugen in den ersten zwei Monaten des Jahres 2026 verfügt Geely über die nötige Marktmacht, um diesen Rollout zu skalieren.

Auch interessant:

Der Beitrag Hybridmotor von Geely knackt Weltrekord mit nur 2,22 Litern Verbrauch erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

5 Gründe, warum viele Unternehmen 2026 ihre Software-Stacks verkleinern

27. April 2026 um 16:00

Der Beitrag 5 Gründe, warum viele Unternehmen 2026 ihre Software-Stacks verkleinern erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Software-Stacks verkleinern

Viele Unternehmen haben in den letzten Jahren immer mehr Tools eingeführt – oft unkoordiniert und aus akutem Bedarf heraus. 2026 kippt dieser Trend: Der Fokus verschiebt sich hin zu weniger Software, mehr Überblick und deutlich mehr Effizienz. Eine Entwicklung, die integrierte Systeme wie Bitrix24 beschleunigen.

Die Tool-Landschaften vieler Unternehmen sind explodiert: CRM, Projektmanagement, Kommunikation, HR, Dokumentenverwaltung, Automatisierung und Speziallösungen für jede Abteilung. Was anfangs wie ein Fortschritt wirkte, führt heute in vielen Teams zu Reibungsverlusten, steigenden Kosten und mangelnder Transparenz.

Ein neuer Trend setzt sich durch: „Lean & Smart“. Gemeint ist eine bewusst reduzierte Software-Umgebung, die Prozesse zentral abbildet, Datensilos auflöst und gleichzeitig die Kosten senkt. Eine Komplettlösung für Unternehmen wie Bitrix24 vereint genau diesen Ansatz – und bietet zusätzlich einen Rechner, mit dem sich die Einsparungen beim Wechsel von mehreren Tools auf Bitrix24 direkt berechnen lassen.

Einsparpotenzial mit Bitrix24 berechnen

1. Tool-Overload senkt die Produktivität

Je mehr Software ein Team nutzt, desto häufiger müssen Nutzer zwischen Oberflächen, Kontexten und Workflows wechseln. Dieser permanente Wechsel kostet Zeit und führt zu Fehlern. Studien zeigen seit Jahren, dass Kontextwechsel zu den größten Produktivitätskillern zählt.

Mit einer reduzierten Tool-Landschaft entfällt genau dieser permanente Bruch: Prozesse laufen in einem System durch, Informationen bleiben zusammen und Aufgaben lassen sich deutlich schneller erledigen.

2. Zersplitterte Daten erschweren Entscheidungen

Wenn CRM-Daten im einen System liegen, Projektinfos in einem anderen und Kommunikationshistorien in einem dritten, entsteht ein gefährlicher Blindflug. Führungskräfte und Teams treffen Entscheidungen oft auf Basis unvollständiger Informationen.

Der Trend 2026: Eine integrierte Plattform, in der Kommunikation, Projekte, CRM, Automatisierung und Dokumente miteinander verbunden sind. Dadurch entsteht ein durchgängiges Bild der Geschäftsprozesse – ein entscheidender Vorteil in einem zunehmend datengetriebenen Markt.

3. SaaS-Kosten steigen unbemerkt an

Viele Tools arbeiten nach Sitzungs- oder Nutzungsmodellen, die im Laufe der Zeit teurer werden. Gleichzeitig laufen Verlängerungen automatisch weiter, Budgets verschwimmen und versteckte Kosten entstehen über parallele Abonnements.

Immer mehr Unternehmen merken, dass sie für isolierte Einzeltools zusammen deutlich mehr zahlen als für eine leistungsfähige Komplettlösung, die mehrere Funktionen bündelt und auf Dauer kosteneffizienter ist.

4. Integrationen sorgen für Komplexität statt Erleichterung

Jedes zusätzliche Tool bringt neue Integrationspunkte mit sich. Was anfangs sinnvoll klingt, führt in der Praxis zu technischen Abhängigkeiten, Ausfällen und hohem Wartungsaufwand.

  • APIs ändern sich
  • Updates brechen Schnittstellen
  • Datensynchronisation bleibt unzuverlässig
  • IT-Abteilungen verlieren Zeit durch Troubleshooting

Eine All-in-one-Lösung reduziert genau diese Komplexität. Wenn CRM, Kommunikation, Aufgabenmanagement und Automatisierung in einem System laufen, müssen einzelne Komponenten nicht mehr aufwendig miteinander verbunden werden.

5. Lean & Smart statt Tool-Wildwuchs

2026 zeigt sich klar: Viele Unternehmen haben realisiert, dass „mehr Software“ nicht automatisch „mehr Wachstum“ bedeutet. Stattdessen entsteht ein Umdenken hin zu klaren, verbundenen Workflows — statt zu einer kaum überblickbaren Sammlung von Spezialtools.

Komplettlösungen wie Bitrix24 verknüpfen zentrale Unternehmensbereiche miteinander und ermöglichen es, Geschäftsprozesse zu automatisieren, Kollaboration zu verbessern und sämtliche Daten an einem Ort zu bündeln.

Wer wissen möchte, wie viel sich durch die Konsolidierung der eigenen Tool-Landschaft einsparen lässt, kann dies direkt über den integrierten Rechner herausfinden.

Jetzt Bitrix24 testen & Einsparungen prüfen

FAQ: Die wichtigsten Fragen und Antworten

Was bedeutet „Tool-Konsolidierung“ für Unternehmen?

Tool-Konsolidierung beschreibt den Prozess, mehrere Einzelsoftwarelösungen durch eine zentrale Plattform zu ersetzen. Ziel ist es, Datensilos aufzulösen, Kosten zu senken und die Produktivität zu steigern, indem alle relevanten Funktionen – wie CRM, Projektmanagement, Kommunikation und Automatisierung – in einem System gebündelt werden.

Warum steigen SaaS-Kosten oft unbemerkt?

Viele SaaS-Tools verlängern ihre Abonnements automatisch und erhöhen die Preise schrittweise. Hinzu kommen parallele Abonnements für überlappende Funktionen, sodass Unternehmen oft für mehrere Tools zahlen, die zusammen mehr kosten als eine einzige leistungsstarke Komplettlösung.

Was ist der Unterschied zwischen einer All-in-one-Lösung und Einzeltools?

Einzeltools sind auf spezifische Aufgaben zugeschnitten und müssen über Schnittstellen (APIs) miteinander verbunden werden – was Wartungsaufwand, Fehlerquellen und Kosten erhöht. Eine All-in-one-Lösung wie Bitrix24 vereint mehrere Funktionsbereiche nativ in einem System, wodurch Integrationen entfallen und Daten nahtlos zusammenfließen.

Wie wirkt sich Tool-Overload auf die Produktivität aus?

Häufige Kontextwechsel zwischen verschiedenen Anwendungen zählen laut Studien zu den größten Produktivitätskillern im Arbeitsalltag. Je mehr Tools ein Team parallel nutzt, desto mehr Zeit geht für das Umschalten zwischen Oberflächen, das Suchen von Informationen und das manuelle Übertragen von Daten verloren.

Was ist „Lean & Smart“ als Software-Strategie?

„Lean & Smart“ beschreibt den Ansatz, die eigene Software-Landschaft bewusst zu verschlanken: Statt vieler Spezialtools setzen Unternehmen auf wenige, leistungsfähige Plattformen, die zentrale Geschäftsprozesse abbilden. Das Ergebnis ist mehr Überblick, niedrigere Kosten und eine höhere Effizienz im gesamten Team.

Für welche Unternehmensgrößen lohnt sich eine Tool-Konsolidierung?

Tool-Konsolidierung lohnt sich grundsätzlich für Unternehmen jeder Größe – vom kleinen Team bis hin zum Mittelstand. Besonders profitieren Organisationen, die bereits mehrere parallele Tools im Einsatz haben und deren IT- oder Verwaltungsaufwand dadurch spürbar gestiegen ist.

Der Beitrag 5 Gründe, warum viele Unternehmen 2026 ihre Software-Stacks verkleinern erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

ChatGPT-5.5 bedient eigenständig Software – aber nur, wenn du zahlst

27. April 2026 um 11:00

Der Beitrag ChatGPT-5.5 bedient eigenständig Software – aber nur, wenn du zahlst erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

ChatGPT-5.5 OpenAI KI Künstliche Intelligenz Abo

OpenAI hat mit ChatGPT-5.5 ein neues KI-Modell präsentiert. Es soll den Chatbot nicht nur in vielen Bereichen deutlich verbessern, sondern es ihm ermöglichen, bei komplexen Aufgaben vermehrt eigenständig zu arbeiten. Im Mittelpunkt stehen drei Fähigkeiten, die den Umgang mit Software und digitalen Arbeitsprozessen verändern könnten. Eine kommentierende Analyse.

Was kann ChatGPT-5.5?

  • OpenAI hat mit GPT‑5.4 Pro und GPT‑5.4 Thinking streng genommen zwei neue KI-Modelle veröffentlicht. Die Thinking-Version soll vor allem in Bereichen wie Programmierung, Recherche, Informationszusammenfassung und -analyse sowie bei dokumentenintensiven Aufgaben hilfreich sein. Zum Start wird GPT-5.5 schrittweise für Nutzer von ChatGPT und Codex bereitgestellt. Zugriff erhalten nur Abonnenten der Tarife Plus, Pro, Business und Enterprise.
  • Eine der wichtigsten Neuerungen ist die stärkere Eigenständigkeit des Modells. GPT-5.5 soll Aufgaben etwa nicht nur verstehen, sondern eigenständig strukturieren, planen und in mehreren Schritten abarbeiten können. Die KI kann sich OpenAI zufolge zwischen verschiedenen Anwendungen, Oberflächen und dem Internet bewegen. Das Unternehmen nennt das „Computer Use“. Ziel dieser agentischen Arbeitsweise ist, dass weniger manuelle Eingriffe nötig sind. Denn: GPT-5.5 kann andere Software direkt bedienen.
  • OpenAI nimmt mit ChatGPT-5.5 auch die klassische Büroarbeit ins Visier. Das Modell soll etwa umfangreiche Informationen verarbeiten können, um daraus strukturierte Dokumente, Tabellen oder Präsentationen erstellen zu können. GPT-5.5 ist darauf ausgelegt, komplexe Fragestellungen über mehrere Schritte hinweg zu bearbeiten. Darunter: das Sammeln von Daten, das Überprüfen von Annahmen oder die Auswertung von Ergebnissen.

Produktivität statt Empathie: Was der Strategiewechsel bedeutet

Mit ChatGPT-5.5 verschiebt OpenAI endgültig seinen Fokus: weg von charmant simulierten Empathie-Floskeln, hin zu handfester Produktivität. So zumindest das Versprechen. Auf den ersten Blick wirkt ChatGPT-5.5 weniger wie ein gesprächiger Alleskönner, sondern eher wie ein digitaler Kollege.

Dass vor allem Unternehmen und Büroangestellte adressiert werden, ist alles andere als Zufall, sondern Teil des aktuellen Strategiewechsels. Die eigentliche Neuerung liegt damit nicht nur im Code, sondern im klaren Zuschnitt auf zahlende Kundschaft. Denn: Wie das Vorgängermodell 5.4 ist ChatGPT-5.5 nicht in der kostenlosen Version verfügbar.

Das ist sogar wirtschaftlich verständlich. Vor allem, da freie KI-Modelle im Privatbereich einen enorm hohen Energieverbrauch aufweisen, der nicht nur für die Anbieter hohe Kosten verursacht, sondern auch der Umwelt teuer zu stehen kommt.

Ein genauer Blick auf die Leistungsdaten wirft aber Fragen auf. Die Vergleichbarkeit der Benchmarks ist nämlich eingeschränkt, weil die Konkurrenz teilweise schlichtweg nicht auftaucht. Wenn ein Modell wie ChatGPT-5.5 in erster Linie gegen seinen eigenen Vorgänger antritt, gewinnt am Ende vor allem die Erzählung. Das gilt auch für Disziplinen wie Tool-Nutzung oder Cybersecurity, wo Lücken in den Tabellen mehr Fragen aufwerfen als beantworten.

Transparenz sieht anders aus. Oder höflich formuliert: ausbaufähig. Gleichzeitig reiht sich ChatGPT-5.5 in einen immer schneller werdenden Veröffentlichungsrhythmus ein. Will heißen: Kaum ist ein Modell vorgestellt, folgt bereits das nächste – inklusive spezieller Modi und Varianten. Der Strategiewechsel ist dabei deutlich erkennbar. Statt eines großen Wurfs setzt OpenAI auf ein fein gestaffeltes Produktportfolio.

Stimmen

  • Greg Brockman, Mitgründer und Präsident von OpenAI, in einem Telefonat mit Journalisten: „Dieses Modell ist ein echter Schritt in Richtung der Art von Computing, die wir in der Zukunft erwarten – aber es ist nur ein Schritt, dem noch viele weitere folgen sollen. Es ist ein schnellerer, scharfsinnigerer Denker bei weniger Tokens im Vergleich zu etwas wie 5.4. Das bedeutet also, dass Unternehmen und Verbrauchern einfach mehr bahnbrechende KI zur Verfügung steht, was Teil unseres Ziels ist.“
  • OpenAI-Chef Sam Altman in einem Beitrag auf X (ehemals Twitter): „Wir glauben an Demokratisierung. Wir möchten, dass Menschen KI in großem Umfang nutzen können; unser Ziel ist es, über die effizientesten Modelle, den effizientesten Inferenz-Stack und die größte Rechenleistung zu verfügen. Wir möchten, dass unsere Nutzer Zugang zur besten Technologie haben und dass jeder die gleichen Chancen erhält. Wir beobachten Cybersicherheit seit langem als einen Bereich der Vorsorge und haben Schutzmaßnahmen entwickelt, von denen wir überzeugt sind, dass sie es uns ermöglichen, leistungsfähige Modelle breit verfügbar zu machen.“
  • Autorin und Bloggerin Katie Parrott hat ChatGPT-5.5 bereits getestet: „Ich habe ChatGPT zum Schreiben seit fast einem Jahr nicht mehr genutzt, aber das ändert sich jetzt: Ich stelle meinen Workflow auf GPT-5.5 um. Dieses Modell gibt mir mehr Vertrauen in die Struktur eines Textes als Opus 4.7: Der Gedankengang ist klarer und der Entwurf lässt sich leichter überarbeiten. Es hat zwar immer noch einen gewissen KI-Beigeschmack in den überglätteten Übergängen und überstrapazierten Konstruktionen, und Opus ist vielleicht besser darin, prägnante Formulierungen zu finden. Aber GPT-5.5 bietet genau die Mischung aus Geschwindigkeit und Sensibilität für Feedback, die ich für mein tägliches Schreiben brauche.“

Digitaler Assistent oder schleichender Entscheider?

Ob GPT-5.5 mehr als ein gut inszeniertes Update ist, entscheidet sich nicht auf der Bühne, sondern im Alltag. Erst wenn eine breite Nutzerschaft das Modell jenseits kuratierter Versprechen einsetzt, wird sich zeigen, ob sich Autonomie, Verlässlichkeit, Sicherheit und vor allem Nützlichkeit tatsächlich in Einklang bringen lassen.

Für OpenAI geht es dabei um mehr als nur Technik – nämlich um Vertrauen. Die Diskussionen rund um militärische Kooperationen haben gezeigt, wie schnell sich öffentliche Wahrnehmung verschieben kann. Will heißen: Leistung allein reicht nicht, wenn Zweifel an den Rahmenbedingungen bleiben. Sollte es dem Unternehmen gelingen, die Debatte wieder stärker auf konkrete Anwendungsfälle und spürbaren Nutzen zu lenken, könnte GPT-5.5 zu einem strategischen Befreiungsschlag werden.

Mit der Computer-Use-Funktion setzt OpenAI zudem auf eine riskante, aber folgerichtige Vision: KI als aktiven Akteur im digitalen Raum. Das wirft jedoch zwangsläufig Fragen auf, die über Technik hinausgehen. Wie viel Kontrolle müssen Nutzer freiwillig oder unfreiwillig abgeben?

Was passiert mit sensiblen Daten, wenn die KI selbstständig durch Anwendungen navigiert? Und das vielleicht Entscheidendste: Wird aus dem Werkzeug ein Assistent oder schleichend ein Entscheider? Die Antwort darauf dürfte nicht nur den Arbeitsalltag verändern, sondern auch die Spielregeln im Umgang mit KI.

Auch interessant:

Der Beitrag ChatGPT-5.5 bedient eigenständig Software – aber nur, wenn du zahlst erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Kann ein Windbaum für 70.000 Euro mit Photovoltaik mithalten?

27. April 2026 um 05:45

Der Beitrag Kann ein Windbaum für 70.000 Euro mit Photovoltaik mithalten? erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Windbaum Alternative Photovoltaik Windenergie Erneuerbare Energien Windkraft

Ein Windbaum mit 36 blattförmigen Mikroturbinen soll auch bei schwachem Wind Strom liefern – rund um die Uhr, unabhängig von der Sonne. In Niedersachsen steht seit Kurzem die erste private Anlage Deutschlands. Doch mit einem Preis von 70.000 Euro stellt sich die Frage: Kann der Windbaum wirklich mit einer Photovoltaikanlage konkurrieren?

Photovoltaikanlagen prägen in vielen Wohngebieten in Deutschland inzwischen das Bild. Denn auf immer mehr Hausdächern finden sich Solarpanels, die Sonnenlicht in Strom umwandeln und für private Haushalte grünen Strom liefern.

Bei der Windkraft sieht das eher anders aus. Denn während große Windräder die Landschaft dominieren, spielen kleinere Lösungen für den privaten Gebrauch bisher kaum eine Rolle.

Genau hier setzen Konzepte wie der „Windbaum“ an, die Windenergie auch in der Energieversorgung im eigenen Haushalt nutzbar machen sollen. Doch ob der „Windbaum“ tatsächlich als Alternative zur Photovoltaik im privaten Bereich mithalten kann, hängt maßgeblich von Faktoren wie Standort, Windverhältnissen und Wirtschaftlichkeit ab.

Windbaum vs. Solaranlage: Wo liegen die Vorteile?

Die Vorteile von Windkraftanlagen gegenüber der Solarenergie liegen klar auf der Hand. Denn sie können Strom erzeugen, auch wenn beispielsweise nachts oder bei bewölktem Himmel keine Sonneneinstrahlung vorliegt.

Gerade in Regionen mit konstanten Luftströmungen können sie so gleichmäßigere Erträge über den gesamten Tag hinweg liefern. Genau hier setzt auch der „Windbaum“ der französischen Firma New World Wind an.

Denn er kann mit seinen blattförmigen Mikroturbinen bereits bei sehr geringen Windgeschwindigkeiten von rund 2,5 Metern pro Sekunde Strom erzeugen. Dadurch wird bereits bei schwachem Wind kontinuierlich Strom erzeugt und so eine gleichmäßigere Energieproduktion ermöglich, während klassische Windräder in diesem Bereich noch stillstehen würden.

Dabei liefern die kleinen Turbinen, die sogenannten „Aeroleafs“, jeweils bis zu 300 Watt. Ein Baum mit 36 Blätterturbinen könnte so eine Gesamtleistung von bis zu 10,8 Kilowatt erzielen.

Im Vergleich zu einem klassischen Balkonkraftwerk fällt die theoretisch mögliche Spitzenleistung des „Windbaums“ also deutlich höher aus. Allerdings handelt es sich dabei um einen Maximalwert unter idealen Bedingungen, die tatsächliche Leistung hängt natürlich stark von den tatsächlichen Windverhältnissen am Standort ab.

Erst zwei Standorte in Deutschland – und ein privater Pionier

Bereits seit November 2015 gibt es mit dem Windbaum im Einkaufszentrum Ruhrpark in Bochum die erste Anlage dieser Art in Deutschland. Ein Jahr später kam eine weitere Anlage in Stuttgart hinzu.

„Wir haben schon über 200 Windbäume in der ganzen Welt installiert“, erklärt Geschäftsführer Luc Eric Krief gegenüber der HNA. Erst kürzlich ist in Niedersachsen der erste Windbaum auf privatem Grund entstanden.

Aufgrund seiner Höhe von 9,8 Metern war für diesen keine Baugenehmigung nötig. Allerdings musste ein Betonfundament gegossen werden, das den rund 3,5 Tonnen schweren Stahlbaum stabilisiert.

Insgesamt belief sich die Investition für den „Windbaum“ inklusive Fundament und Elektroinstallationen auf rund 70.000 Euro. Es ist fraglich, ob sich der hohe Preis durch eine konstantere Stromproduktion bei schwachem Wind langfristig relativieren kann. Daher dürfte aktuell die Photovoltaik für den privaten Gebrauch in den meisten Fällen die wirtschaftlich deutlich attraktivere Lösung sein.

Auch interessant:

Der Beitrag Kann ein Windbaum für 70.000 Euro mit Photovoltaik mithalten? erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Received yesterday — 26. April 2026BASIC thinking

Cambridge-Forscher gewinnen Wasserstoff aus Batteriesäure und Plastik

26. April 2026 um 06:00

Der Beitrag Cambridge-Forscher gewinnen Wasserstoff aus Batteriesäure und Plastik erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Wasserstoff Batteriesäure Plastikmüll

Nur 18 Prozent des weltweiten Plastikmülls werden recycelt. Der Rest belastet Ökosysteme. Ein Forscherteam der Universität Cambridge hat nun ein Verfahren vorgestellt, das Kunststoffreste mithilfe von Sonnenlicht und alter Batteriesäure in Wasserstoff und wertvolle Chemikalien zerlegt.

Die weltweite Produktion von Plastik steigt rasant an. Im Jahr 2023 erreichte sie über 400.000.000 Tonnen. Bisher werden jedoch nur 18 Prozent des Abfalls recycelt. Große Müllberge belasten daher weltweit die Ökosysteme.

Chemische Verfahren wie das Photoreforming versprechen einen Ausweg. Dabei spaltet Lichtenergie Kunststoffe wie PET, Nylon oder Polyurethan in Wasserstoff und Chemikalien auf. Ein Team der Universität Cambridge veröffentlichte nun eine neue Methode in der Fachzeitschrift Joule.

Schwefelsäure aus alten Autobatterien

Die notwendige Säure stammt aus verbrauchten Blei-Säure-Autobatterien. Diese Batterien fallen weltweit als Abfall an und enthalten große Mengen Schwefelsäure. Die Forscher nutzen diese, um Plastik in seine Einzelteile zu zerlegen.

Der Prozess benötigt keine neuen Chemikalien, da die Säure als Katalysator dient. Sie wird bei der Reaktion nicht verbraucht. So lassen sich zwei verschiedene Abfallprobleme gleichzeitig angehen.

Für die Versuche nutzten die Wissenschaftler auch PET-Flaschen aus lokalen Cafés. Diese wurden jedoch nicht einfach in den Reaktor gegeben. Zuerst zerkleinerten die Forscher das Material in kleine Stücke.

Anschließend froren sie die Reste mit flüssigem Stickstoff ein und mahlten sie in einer Kaffeemühle zu Pulver. Erst in dieser feinen Form konnten die Kunststoffreste effizient mit der Säure reagieren. Bei diesem Schritt fallen 75 Prozent der enthaltenen Terephthalsäure als Feststoff an. Hauptautor Kay Kwarteng, Doktorand in der Forschungsgruppe, die den Photokatalysator entwickelt hat, dazu:

Säuren werden schon seit langem zum Abbau von Kunststoffen eingesetzt, aber wir hatten bisher keinen kostengünstigen und skalierbaren Photokatalysator, der diesen Säuren standhalten konnte. Sobald wir dieses Problem gelöst hatten, wurden die Vorteile dieser Art von System offensichtlich.

So viel Wasserstoff liefern Nylon und Polyurethan

Der Katalysator verarbeitet auch Nylon 66 und Polyurethan. Das Bauteil besteht aus Kohlenstoffnitrid und Molybdändisulfid. Fachleute bezeichnen es als CoMoS2-CNx. Der Katalysator arbeitet wie eine kleine Solaranlage auf molekularer Ebene.

Nylon 66 lieferte in den Tests 1,0 Millimol Wasserstoff pro Gramm Katalysator. Als Oxidationsprodukt kann dabei Pentansäure entstehen. Bei Polyurethan lag der Wasserstoffwert sogar bei 4,2 Millimol.

Die Effizienz der Lichtnutzung betrug bei zermahlten PET-Flaschen 9,0 Prozent. Das ist einer der höchsten jemals gemessenen Werte für diesen Prozess. In Langzeitversuchen blieb die Anlage über elf Tage stabil.

Dabei entstand neben Wasserstoff vor allem Essigsäure. Die Selektivität für dieses Produkt lag bei 89 Prozent. Die Forscher führen dies auf eine sogenannte 1,2-Hydridverschiebung am Katalysator zurück.

Kann sich das Verfahren wirtschaftlich lohnen?

Eine wirtschaftliche Analyse verglich verschiedene Betriebsweisen. Am besten schnitt eine Kombination aus Solarzellen und LEDs ab. Diese erlauben einen Betrieb rund um die Uhr bei gleichbleibender Lichtqualität.

Durch den Verkauf von Terephthalsäure und Essigsäure könnte das Verfahren Profit abwerfen. Die Kosten für den Wasserstoff wären dann rechnerisch negativ. Allerdings fehlen in dieser Kalkulation noch die Kosten für die Trennung der chemischen Stoffe.

Die Integration in bestehende Rückgewinnungstechnologien ist daher für die Praxis entscheidend. Nur so lässt sich das Verfahren im industriellen Maßstab einsetzen. Zukünftige Arbeiten sollen nun spezielle Reaktoren für diesen Prozess untersuchen.

Auch interessant:

Der Beitrag Cambridge-Forscher gewinnen Wasserstoff aus Batteriesäure und Plastik erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Received before yesterdayBASIC thinking

WhatsApp: Wie du Chats von iOS zu Android übertragen kannst

25. April 2026 um 06:00

Der Beitrag WhatsApp: Wie du Chats von iOS zu Android übertragen kannst erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

WhatsApp Chats übertragen iOS iPhone Android Smartphone

Der Wechsel zwischen iPhone und Android war lange Zeit kompliziert. Vor allem auch die Übertragung von WhatsApp-Chats ließ sich meist nur mit Tricks vornehmen. Jetzt hat der Messenger eine offizielle Lösung eingeführt, die den Umzug deutlich erleichtert. Wie zeigen dir, wie du nun deine Chats bei WhatsApp plattformübergreifend übertragen und so deine Daten künftig einfacher mitnehmen kannst.

WhatsApp ist weltweit der wohl mit Abstand beliebteste Messenger. Die App aus dem Hause Meta zählt monatlich rund drei Milliarden aktive Nutzer – vergleichbar viel wie die sozialen Netzwerke Instagram und Facebook.

Bei vielen Menschen haben sich in der App über die Jahre unzählige persönliche Daten angesammelt – von wichtigen Informationen über Fotos, Videos und ganze Gesprächsverläufe. Umso ärgerlicher ist es natürlich, wenn all diese Inhalte beim Wechsel auf ein neues Smartphone verloren gehen.

Vor allem der Wechsel zwischen iPhones und Android-Geräten hat dabei lange Zeit für Probleme gesorgt. Während sich Chats innerhalb derselben Plattform vergleichsweise einfach übertragen lassen, war der Umzug zwischen den beiden Systemen oft kompliziert, lückenhaft oder nur mit inoffiziellen Lösungen möglich.

Das sollte nun aber der Geschichte angehören, denn WhatsApp bietet nun eine neue Möglichkeit, Chats plattformübergreifend zu übertragen. Wir zeigen dir, wie du das ohne den Umweg über Drittanbieter künftig vornehmen kannst.

Zwischen iOS und Android: Chats bei WhatsApp übertragen

WhatsApp will mit der neuen Funktion „Chats übertragen“ das Übertragen von iOS zu Android deutlich vereinfachen. Der Wechsel soll künftig laut dem Messaging-Dienst mit „ein paar Mal tippen“ unkompliziert erledigt sein.

Da WhatsApp die Übertragung selbst vornimmt sind alle Nachrichten während des Vorgangs durch die Ende-zu-Ende-Verschlüsselung geschützt. Folgende Informationen kannst du von iOS zu Android übertragen:

  • Konto-Informationen
  • Einzelchats
  • Gruppenchats
  • Communitys
  • WhatsApp-Kanalmeldungen
  • Chatverlauf
  • Anrufliste
  • Medien und Einstellungen

Damit der Umzug deines WhatsApp-Kontos reibungslos verläuft, müssen einige Voraussetzungen erfüllt sein. Auf deinem Android-Gerät muss mindestens Android 10 installiert sein. Auch musst du auf deinem neuen Gerät dieselbe Telefonnummer nutzen wie auf dem alten. Stelle außerdem sicher, dass auf beiden Geräten die neuste WhatsApp-Version installiert und deine WLAN-Verbindung stabil ist.

Schritt für Schritt: So kannst du deine Chats bei WhatsApp übertragen

Die Übertragung deiner Chats kannst du in nur wenigen Schritten erledigen. Die Dauer hängt allerdings davon ab, wie viele Daten übertragen werden müssen. Öffne WhatsApp auf deinem iPhone und navigiere über dein Profilbild in der unteren rechten Ecke zu deinen Einstellungen. Wähle hier den Punkt Chats aus und klicke dann auf „Chatverlauf übertragen“.

Hier hast du nun die Möglichkeit zwischen „Auf iPhone übertragen“ und „Auf Android-Gerät übertragen“ zu wählen. Tippe auf letzteren Button, um deine Chats vorzubereiten und bestätige dann mit „Weiter“. Öffne nun WhatsApp auf deinem Android-Gerät und verifiziere dein Konto mit deiner Telefonnummer. Klicke auf „Erlauben“, damit sich deine beiden Geräte verbinden können.

Auf deinem Android-Gerät wird dann ein QR-Code angezeigt, den du mit der Kamera deines iPhones scannen musst. Ist die Übertragung abgeschlossen, musst du auf deinem Android-Gerät noch einmal mit „Weiter“ bestätigen und kannst dann auf deine Chats zugreifen.

WhatsApp weist darauf hin, dass diese Übertragung nur funktioniert, wenn die App auf dem neuen Gerät noch nicht aktiviert war. Die Zusammenführung von neuen und alten Chats der beiden Geräte ist auf diesem Weg nicht möglich. Hast du WhatsApp also bereits auf deinem neuen Gerät genutzt, musst du die App zunächst deinstallieren. Erst nach neuer Installation kannst du dann deine Chats von iOS übertragen.

Auch interessant:

Der Beitrag WhatsApp: Wie du Chats von iOS zu Android übertragen kannst erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Mehr arbeiten löst die Wirtschaftskrise nicht – KI zeigt, warum

24. April 2026 um 14:00

Der Beitrag Mehr arbeiten löst die Wirtschaftskrise nicht – KI zeigt, warum erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI Wirtschaftskrise, Deutschland, Arbeit, Verschwendung, Vergeudung, Mensch, Künstliche Intelligenz, Wirtschaft, Geld

„Mehr arbeiten“ scheint der reflexartige Ruf Deutschlands auf die Wirtschaftskrise zu sein. Allerdings hat KI eins klargemacht: Statt auf bloßen Mehreinsatz zu setzen, sollte Deutschland den Fokus auf den effizienteren Umgang mit menschlicher Kreativität und Innovation richten. Eine kommentierende Analyse. 

Der Ruf nach „mehr arbeiten“ gehört in Deutschland zu den zuverlässigsten Reaktionen auf wirtschaftliche Schwäche. Er klingt entschlossen, wirkt aber im Zeitalter von KI seltsam alt. Denn da diese Technologie sichtbar macht, wie viel menschliche Denkarbeit in Routinen und Reibung verpufft, liegt das Problem unserer Wirtschaft womöglich nicht zuerst im mangelnden Einsatz, sondern darin, wie schlecht wir mit Intelligenz, Kreativität und gedanklicher Innovationskraft umgehen.

Deutschland steckt in einer Wirtschaftskrise, das wirtschaftliche Wachstum ist gering bis nicht vorhanden. Wenn man aber die Krise einmal genau betrachtet, dann könnte man zu Ergebnis kommen, dass Deutschland vielleicht auch, möglicherweise sogar noch mehr, in einer Krise der Vergeudung steckt. Damit meine ich nicht die Vergeudung von Geld und auch nicht die Vergeudung von Chancen, sondern die Vergeudung von geistiger Energie.

Wirtschaftskrise: KI zeigt, was wirklich Zeit und Wachstum kostet

Denn jeden Tag verschwinden in Unternehmen, Verwaltungen und Organisationen unzählige Stunden in Routinen, Rückfragen, Wiedervorlagen, Suchbewegungen, Berichtsschleifen, Formulierungsvarianten und Abstimmungen.

Sie fühlen sich wichtig an, produzieren allerdings oft nur Reibung und verschwenden Zeit. Und obwohl all das geschieht und auch immer wieder angeprangert wird, reden wir erstaunlich häufig noch so, als sei die zentrale Frage, ob Menschen genug arbeiten.

Das klingt zunächst nach einer provokanten These. Ganz aus der Luft gegriffen ist sie jedoch nicht. Die deutsche Wirtschaft ist 2025 real nur um 0,2 Prozent gewachsen. Gleichzeitig blieb die Zahl der Erwerbstätigen auf sehr hohem Niveau.

Das allein beweist natürlich noch nichts. Aber es passt schlecht zu der schlichten Erzählung, es fehle vor allem an Arbeitsbereitschaft. Eher deutet es darauf hin, dass die Beziehung zwischen Aufwand und Wirkung nicht mehr stimmt.

Darüber hinaus verweist die OECD auf administrative Lasten, Fachkräfteengpässe und eine zu geringe wirtschaftliche Dynamik als zentrale Bremsen für Deutschland. Und die deutsche Bundesbank sieht in der verschlechterten Wettbewerbsposition deutscher Unternehmen einen wesentlichen Grund für Exportmarktverluste. Das alles klingt nicht nach einem Land, dem nur ein paar zusätzliche Arbeitsstunden fehlen. Es klingt nach einem Land, das zu viel Energie an den falschen Stellen verbrennt.

KI als Spiegel unserer Tätigkeiten

Genau an diesem Punkt wird Künstliche Intelligenz (KI) interessant, aber nicht als Zauberstab oder als simples Heilsversprechen für schnell erzielbares Wirtschaftswachstum. Und auch nicht als bequeme Fantasie, man könne wirtschaftliche Schwäche einfach weg prompten. Interessant wird KI für mich viel mehr als ziemlich unangenehmer Spiegel.

Denn KI zeigt etwas, das insbesondere von Berufspolitikern ohne Erfahrung als Arbeitnehmer oder als Inhaber eines Unternehmens lieber nicht so genau gesehen werden möchte: nämlich wie Menschen in Unternehmen und Behörden ihre Tage damit verbringen, Informationen umzuformen, statt mit ihnen etwas Neues anzufangen.

Wie häufig hoch qualifizierte Fachkräfte nicht an schwierigen Problemen arbeiten, sondern an den sprachlichen, formalen und organisatorischen Nebenwirkungen und Dokumentationen komplexer Systeme. Und wie viel Potenzial ungenutzt bleibt, weil zu viele Köpfe mit Verwaltung statt mit Wirkung beschäftigt sind.

KI in der Wirtschaftskrise als Anklage gegen Zeitverschwendung

Das ist für mich der eigentliche Grund, warum die Debatte über KI so interessant ist. KI ist eben nicht nur eine Technologie zur Steigerung der Produktivität. Sie ist vielmehr auch eine „Anklage gegen Zeitverschwendung“.

Denn sobald eine KI in Sekunden eine Zusammenfassung, einen Textentwurf, eine Strukturierung, eine Voranalyse oder eine sortierte Auswertung liefern kann, wird mit einer gewissen Deutlichkeit sichtbar, wie viel teure menschliche Arbeitszeit bislang in genau diese Tätigkeiten versickert ist. KI macht also nicht nur schneller. Sie vielmehr sichtbar, was wir für inzwischen viel zu lange verfehlt für normal gehalten haben.

Das Problem Deutschlands ist meiner Ansicht nach nicht, dass zu wenig gearbeitet wird. Das Problem besteht vielmehr darin, dass zu viel menschliche Arbeit für Tätigkeiten aufgewendet wird, die den Wohlstand von morgen nicht erhöhen.

Wenn in einer wissensintensiven Wirtschaft wie der unseren pauschal mehr Arbeit gefordert wird, ohne zugleich über die Qualität, die Hebelwirkung und die Zielrichtung dieser Arbeit zu sprechen, dann wird Betriebsamkeit und generell Aktivität mit Fortschritt verwechselt.

Wo Unternehmen Aufmerksamkeit verschwenden

Und das gilt umso mehr in einer alternden Gesellschaft. Gerade wenn Fachkräfte knapp sind und die vorhandenen immer älter werden, ist es fast schon absurd, die Zeit der verbleibenden mit nicht Wert schaffenden Routinen zu überladen, die sich beschleunigen, vorbereiten oder zumindest teilweise automatisieren lassen.

KI wird insbesondere dann zu einer Technologie der Freilegung. Sie legt nämlich frei, wo in Unternehmen und Organisationen Aufmerksamkeit verschwenden wird bzw. verschwendet werden muss aufgrund von entsprechenden Regularien. Sie legt frei, wo Entscheidungswege unnötig zäh geworden sind. Und sie legt frei, wo Gründlichkeit mit Verzögerung verwechselt wird.

Was passiert, wenn KI Menschen nicht ersetzt, sondern besser einsetzt?

Mir geht es dabei ausdrücklich insbesondere nicht um die mittlerweile allzu bekannte Erzählung, der Mensch werde durch die KI ersetzt. Diese Erzählung ist meist entweder zu simpel oder zu bequem. Die interessantere Frage lautet vielmehr: Was wäre möglich, wenn wir Menschen nicht ersetzen, sondern besser einsetzen? Was geschieht, wenn KI einen Teil jener Vorarbeit übernimmt, die bislang Menschen mit Routinen beschäftigt, statt sie an die wirklich wichtigen Aufgaben zu bringen?

Dann könnte ausgerechnet eine Technologie, die so oft als Bedrohung beschrieben wird, zu einem Werkzeug werden, das Menschen wieder stärker an den Punkt bringt, an dem ihre Tätigkeiten wirklich Sinn ergeben: beim Einordnen, Entscheiden, Priorisieren, Verhandeln, Erfinden und Erklären.

Natürlich löst KI allein nicht das gesamte deutsche Wachstumsproblem. Sie senkt keine Energiepreise, sie ersetzt keine Industriepolitik und sie zaubert auch keine mutigen Investitionsentscheidungen herbei. Aber vielleicht liegt genau in dieser nüchternen Einordnung der entscheidende Punkt. KI muss gar nicht alles lösen, um wirtschaftlich enorm relevant zu sein. Es reicht bereits, wenn sie uns zwingt, eine unangenehme Wahrheit zur Kenntnis zu nehmen: dass wir in Deutschland sehr lange damit durchgekommen sind, geistige Schwerfälligkeit als Seriosität zu verkaufen.

Weniger Schweiß, weniger Vergeudung: Der echte Weg aus der Krise

Vielleicht liegt genau darin die eigentliche wirtschaftliche Provokation von KI. Sie bedroht nicht nur einzelne Tätigkeiten. Sie bedroht vielmehr auch Rechtfertigungsmuster. Sie stellt infrage, warum bestimmte Formen von Langsamkeit und Umständlichkeit bislang als normal, professionell oder gar alternativlos galten.

Und sie zwingt uns damit zu einer Frage, die weit größer ist als jede Tool-Debatte: Wofür genau wollen wir menschliche Intelligenz in Zukunft eigentlich noch verwenden? Die Antwort auf diese Frage dürfte am Ende wichtiger sein als jede moralisch aufgeladene Debatte über Fleiß. Denn der Weg aus der Wirtschaftskrise führt womöglich nicht zuerst über mehr Schweiß, sondern endlich über weniger Vergeudung.

Auch interessant: 

Der Beitrag Mehr arbeiten löst die Wirtschaftskrise nicht – KI zeigt, warum erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

TV-Beben: RTL schluckt Sky und verspricht mehr Bundesliga im Free-TV

24. April 2026 um 11:00

Der Beitrag TV-Beben: RTL schluckt Sky und verspricht mehr Bundesliga im Free-TV erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

RTL Sky Deutschland WOW Fußball Bundesliga Free-TV Fernsehen Streaming

Die Europäische Kommission hat RTL grünes Licht erteilt, den Pay-TV-Sender Sky Deutschland zu übernehmen. Das Unternehmen sichert sich damit auch den Streamingdienst WOW, Rechte zur Übertragung der ersten und zweiten Fußballbundesliga sowie der britischen Premier League in Deutschland, Österreich, der Schweiz und Luxemburg. Eine kommentierende Analyse.

RTL übernimmt Sky Deutschland: Zahlen und Hintergründe

  • Die RTL Group gab erstmals am 27. Juni 2025 bekannt, dass sie eine verbindliche Vereinbarung für den Kauf von Sky Deutschland unterzeichnet hat. Ob das Vorhaben realisiert werden kann, hing bislang von der Frage ab, wie die Europäische Kommission den Zusammenschluss mit Blick auf das Wettbewerbsrecht in Europa bewertet. Am 22. April 2026 gab die EU-Kommission grünes Licht. Zwischen der Anmeldung des Vorhabens am 27. Februar und der Freigabe liegen damit knapp zwei Monate. Die Genehmigung enthält keine Auflagen.
  • RTL hat sich mit Comcast, der Muttergesellschaft von Sky Deutschland, auf eine Fixzahlung von 150 Millionen Euro geeinigt. Je nachdem, wie sich der RTL-Aktienkurs in den kommenden Jahren entwickelt, können weitere 377 Millionen Euro hinzukommen. RTL peilt innerhalb von drei Jahren nach der finalen Übernahme eine Umsatzsteigerung von 250 Millionen Euro an. Der Abschluss der Transaktion soll am 1. Juni 2026 stattfinden.
  • Der Deal umfasst die Übernahme des Pay-TV-Senders Sky Deutschland, dessen Streamingdienst WOW sowie Rechte zur Übertragung der ersten und zweiten Fußballbundesliga sowie der britischen Premier League in Deutschland, Österreich, der Schweiz und Luxemburg. Ziel von RTL ist es, eine führende Streaming- und TV-Plattform zu schaffen. Das hauseigene Streaming-Angebot RTL+ kommt in Deutschland auf rund sieben Millionen Abonnenten, während Sky gut fünf Millionen zahlende Kunden an den Tisch bringt. Insgesamt zählt RTL also künftig zwölf Millionen Abonnenten. Zum Vergleich: Netflix hat in Deutschland über 17 Millionen Abonnenten, Amazon Prime (Video) rund 15 Millionen.

RTL setzt auf Fußball – und verspricht mehr Bundesliga im Free-TV

Das grüne Licht aus Brüssel ist der Startschuss für eine neue TV-Machtkonzentration in Deutschland. RTL und Sky verschmelzen zu einem gigantischen Gebilde aus Entertainment und Sport. Das ist insofern konsequent, als dass sich der Sender bereits zuvor Rechte zur Übertragung der Fußball Europa League und der NFL gesichert hatte.

Die eigentliche Sensation ist aber nicht, dass die Europäische Kommission den Deal durchgewunken, sondern einen zunehmenden Druck durch global agierende Streaminganbieter erkannt hat. Mit rund zwölf Millionen Abonnenten positioniert sich RTL samt Sky Deutschland derweil direkt hinter Netflix und Amazon Prime Video.

In direkte Konkurrenz zu den beiden Streaming-Granden tritt RTL aber nicht. Vielmehr setzt der Sender künftig vor allem auf Fußballübertragungen als Zugpferd, um den Druck durch Netflix und Co. auf sein klassisches TV- und Streamingangebot zu kompensieren.

Zwar kauft sich RTL mit dem Streamingdienst WOW auch Serien und Filme ein, doch der Großteil der neuen Abonnenten sind zweifellos Sportfans. Im Free-TV bleibt der Spielraum künftig zwar begrenzt. Doch mit der Ankündigung, bald mehr Fußball frei zu übertragen, könnte RTL ein kleiner Coup gelingen, der sowohl Zuschauer als auch Werbekunden anlockt.

Aus regulatorischen Gründen sind aber maximal fünf Bundesligaspiele pro Saisonhälfte möglich. Das soll sicherstellen, dass der Wettbewerb und TV-Formate wie die Sportschau nicht gefährdet werden. Vermutlich wird RTL die Grenze von bis zu zehn Spielen pro Saison aber ausschöpfen, was viele Fans freuen dürfte.

Stimmen

  • Thomas Rabe, CEO der RTL Group, offenbarte gegenüber der Deutschen Presseagentur und der Nachrichtenagentur Reuters bereits im Sommer 2025 ehrgeizige Ziele: „Das bringt uns auf Augenhöhe mit den amerikanischen Plattformen, vor allem Netflix und Amazon Prime. (…) Wir werden die Marke Sky langfristig weiter nutzen, weil das eine der stärksten Unterhaltungs- und Sportmarken in Europa ist.“ Er ergänzte: „Das Thema eines Zusammenschlusses mit ProSiebenSat.1 hat sich nun definitiv erledigt. Sky ist für uns die deutlich bessere Option, weil das Geschäft komplementär ist zu RTL.“
  • Viele Fußballfans befürchten, dass die Verteilung der Ausstrahlungsrechte künftig noch undurchsichtiger werden könnte. Stephan Schmitter, Chef von RTL Deutschland, dazu gegenüber dem Sportmagazin Kicker: „Es gibt da draußen zweifelsohne einen Abo-Dschungel und daraus resultierend auch den einen oder anderen Frust. Das ist uns bewusst, und wir spüren eine große Verantwortung, in unserer neuen Konstellation etwas Einzigartiges für die Fans zu entwickeln. Wir werden unsere Preisgestaltung unter die Maxime stellen, dass es ab sofort ein Angebot für möglichst jeden Geldbeutel geben sollte. Wir werden in der Kombination von RTL und Sky so viele Spiele der Bundesliga und 2. Bundesliga wie nie zuvor auch im Free-TV zeigen.“
  • EU-Wettbewerbskommissarin Teresa Ribera in einer Stellungnahme: „Wir haben diesen Deal sorgfältig geprüft und letztlich keine Anhaltspunkte dafür gefunden, dass diese Übernahme wettbewerbsrechtliche Bedenken aufwerfen würde. Die Transaktion wird es etablierten europäischen Medienkonzernen ermöglichen, ihre Position in einer Zeit zu festigen, in der sich die Branche im Wandel befindet und sie zunehmendem Druck durch globale Streaming-Plattformen ausgesetzt sind.“

Superangebot oder Abo-Flickenteppich – was kommt auf Zuschauer zu?

Die eigentliche Herausforderung für RTL wird nicht die Übernahme von Sky, sondern die Verschmelzung zweier Medienwelten sein. Das bisherige Angebot und die neuen Inhalte müssen nämlich nicht nur technisch, sondern auch markenstrategisch unter ein Dach gebracht werden.

Ob daraus ein gleichmäßig verschmolzenes Superangebot oder ein weiterer Abo-Flickenteppich entsteht, ist noch offen und wird geschäftsentscheidend sein. Die Gefahr liegt dabei weniger im Scheitern des Deals als in seiner potenziellen Überkomplexität für Nutzer und Zuschauer.

Gleichzeitig verschiebt sich das RTL-Geschäftsmodell weiter in Richtung Abo-Ökonomie und damit weg vom klassischen TV. Die Strategie: Aufmerksamkeit und Reichweite durch Sport statt Produktinnovationen oder eine neue Plattformlogik. Das größte Risiko wird die Abhängigkeit der künftigen Vergabe für Übertragungsrechte von Fußballspielen sein.

Auf europäischer Ebene erscheint der Deal derweil wie ein Signal der Konsolidierung unter globalem Druck. Denn die Entscheidung der EU-Kommission könnte weitere Zusammenschlüsse innerhalb Europas wahrscheinlicher machen.

Ob die Übernahme von Sky Deutschland für RTL von Erfolg gekrönt sein wird, hängt letztlich aber vor allem davon ab, ob es gelingt, Abopreise attraktiv zu gestalten, bestehende Abonnenten unkompliziert zu integrieren und vor allem: keinen neuen Tarifdschungel zu schaffen.

Unterm Strich stellt die Übernahme von Sky Deutschland durch RTL zwar ein kleines TV-Beben dar. Doch sie ist weniger innovative Offensive als solide Verteidigungsstrategie. Heißt konkret: Konsolidierung statt Kreativität. Sollte die Integration gelingen, dürfte sie für RTL von Erfolg gekrönt sein. Risikofrei sind Sportrechte aber nicht. Denn sie sind kurzfristig wertvoll, langfristig aber auch ein Kostentreiber.

Auch interessant:

Der Beitrag TV-Beben: RTL schluckt Sky und verspricht mehr Bundesliga im Free-TV erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Wie KI-generierte Daten deutsche Städte vor Überflutungen schützen sollen

24. April 2026 um 05:45

Der Beitrag Wie KI-generierte Daten deutsche Städte vor Überflutungen schützen sollen erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI Wetter Wasser Überflutung Künstliche Intelligenz Extremwetter

Deutsche Städte steuern ihre Kanalnetze mit Durchschnittswerten, obwohl sie für Extremereignisse gebaut wurden. Forscher des DFKI in Kaiserslautern wollen diesen Widerspruch mit generativer KI auflösen. Synthetische Daten simulieren Starkregenereignisse, für die es bisher kaum reale Messwerte gibt.

Szenen von überlasteten Kanalisationen und überfluteten Straßen wiederholen sich bundesweit immer häufiger. Diese Ereignisse legen ein Paradoxon in der Infrastrukturplanung offen, da Abwassersysteme zwar für Extremfälle konzipiert sind, ihre Steuerung im Alltag jedoch größtenteils auf Durchschnittswerten basiert. Wissenschaftler warnen davor, dass dieser Mangel an präzisen Informationen eine effektive Vorsorge in Zeiten wachsender Klimarisiken nahezu unmöglich macht.

Denn: Kommunen steuern lebenswichtige Wasserinfrastrukturen bisher weitgehend ohne detaillierte Kenntnisse über seltene, aber verheerende Extremereignisse. Historische Daten spiegeln solche Starkregenereignisse nur selten wider, und großflächige Messkampagnen gelten oft als zu kostspielig oder sind für die Öffentlichkeit nicht zugänglich. Dieser Zustand gleicht einem Blindflug, bei dem Städte die Konsequenzen unvorhersehbarer Wetterumschwünge tragen müssen.

Wie synthetische KI-Daten die Vorhersage von Starkregen verbessern

Generative KI-Modelle bieten laut Experten des Deutschen Zentrums für Künstliche Intelligenz (DFKI) einen Ausweg aus diesem Datenrätsel. Die Systeme würden reale Verteilungen erlernen und daraus synthetische Zeitreihen generieren, die auch seltene Extremfälle plausibel abbilden könnten.

Die Forschungsergebnisse zeigen, dass solche künstlich erzeugten Daten die Präzision von Vorhersagemodellen massiv steigern würden. Manche Modelle schaffen es laut Untersuchung bereits jetzt, ausschließlich mit KI-generierten Daten die Qualität von realen Messreihen zu erreichen. Für Städte und Kommunen würde das bedeuten, dass sie auf eine wesentlich verlässlichere Grundlage für ihre Vorsorgemaßnahmen zugreifen könnten.

DFKI testet KI-Modelle direkt am Abwassersystem Kaiserslautern

Am DFKI in Kaiserslautern treibt Andreas Dengel dieses Vorhaben als geschäftsführender Direktor und Leiter des Bereichs „Smarte Daten & Wissensdienste“ maßgeblich voran. Gemeinsam mit verschiedenen Forschungsbereichen testen die Wissenschaftler ihre KI-Systeme unter realen Bedingungen direkt am Abwassersystem der Stadt Kaiserslautern.

Dieser praxisnahe Ansatz soll sicherstellen, dass die theoretischen Modelle den harten Anforderungen der städtischen Infrastruktur standhalten. Wichtig für diese Entwicklung ist das am 13. Januar 2026 gestartete Transferlab mit der Bundesanstalt für Gewässerkunde (BfG).

Im Rahmen dieser Kooperation bündeln die Experten ihre Kompetenzen, um den digitalen Wandel in der Wasserwirtschaft zu beschleunigen. Ein Kernziel der Zusammenarbeit ist die langfristige Stärkung der Hydrologie sowie der Gewässergüte, um fundierte Handlungsoptionen für Politik und Verwaltung zu schaffen.

Was digitale Zwillinge bei Starkregen leisten können

Durch den Einsatz von Künstlicher Intelligenz werden sogenannte digitale Zwillinge der städtischen Infrastruktur deutlich resilienter gegen den Klimastress. KI ersetzt dabei zwar keine Ingenieure, füllt jedoch die kritischen Lücken in der Datengrundlage auf. Die simulierten Modelle erlauben es, die Belastungsgrenzen von Kanalsystemen bei Starkregen präzise zu analysieren und Schwachstellen frühzeitig zu identifizieren.

Die Simulation von Extremszenarien gilt als entscheidender Schritt auf dem Weg zu einer klimaresistenten Stadt. Andreas Dengel, geschäftsführender Direktor des DFKI Kaiserslautern, dazu:

Infrastrukturen werden für Extreme gebaut, aber mit Durchschnittsdaten betrieben. KI ermöglicht die Simulation solcher Ereignisse vorab – ein entscheidender Schritt zu klimaresistenten Städten.

Reagieren oder vorsorgen: Warum Kommunen jetzt handeln müssen

Letztlich ist die Frage nach der Nutzung dieser Technologien laut den Experten von politischer Natur. Städte müssen entscheiden, ob sie weiterhin reaktiv aus bereits eingetretenen Schäden lernen oder vorausschauend auf Basis simulierter Szenarien planen wollen.

In Zeiten knapper kommunaler Budgets bieten synthetische Daten eine kosteneffiziente Methode, um die eigene Infrastruktur gegen die Folgen des Klimawandels zu rüsten. Die Umsetzung einer vorausschauenden Planung sei im Angesicht des Klimawandels keine bloße Option mehr, sondern eine zwingende Pflicht für die Verantwortlichen. Durch den Einsatz von KI könnten Kommunen ihre Handlungsfähigkeit zurückgewinnen und ihre Bürger besser vor Naturgefahren schützen.

Auch interessant:

Der Beitrag Wie KI-generierte Daten deutsche Städte vor Überflutungen schützen sollen erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Geely überholt Tesla und VW: Die innovativsten E-Autobauer 2026

23. April 2026 um 20:50

Der Beitrag Geely überholt Tesla und VW: Die innovativsten E-Autobauer 2026 erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

BMW Auto Marke

Die Elektromobilität dreht die Automobilbranche immer mehr auf den Kopf. Neue Player erobern den Markt, und wer mithalten möchte, muss in innovative Technologien investieren. Welche Hersteller das am besten hinbekommen, klären wir in diesem Ranking.

Die Elektromobilität hat viele ihrer Kinderkrankheiten hinter sich gelassen und kommt so langsam in eine erste Phase der Konsolidierung. Der einstige Pionier Tesla ist längst nicht mehr die dominante Innovationskraft der Branche. Chinesische Konzerne haben aufgeholt und viele traditionelle Hersteller aus Japan, Deutschland und den USA versuchen nicht abgehängt zu werden. In diesem Artikel wollen wir klären, welche Marken die Technologien der Branche am meisten voranbringen.

Das sind die 10 innovativsten E-Auto-Hersteller 2026

Bei klassischen Verbrennern sind häufig Aspekte wie das Markenimage und die reine Leistung entscheidend. Doch bei Autos mit Elektroantrieb müssen Parameter wie Reichweite, Ladeleistung und Batterielaufzeit passen, um die Käufer überzeugen zu können. Deshalb analysiert der CAM Electromobility Report 2026 insgesamt 713 Innovationen in der Elektromobilität, die im Zeitraum von 2021 bis 2025 ins Leben gerufen wurden.

Auch wenn es der deutschen Automobilbranche momentan nicht gut geht, kann man den Herstellern nicht vorwerfen, keine Innovationen auf den Markt zu bringen. Firmen wie Volkswagen, BMW und Mercedes-Benz sind gemeinsam für über ein Drittel aller weltweiten Neuerungen verantwortlich. Lediglich China kommt mit 41 Prozent auf einen noch höheren Wert. Der dritte Platz geht an Japan (11 Prozent), dann folgen der Rest der EU (10), die USA und Südkorea (jeweils 2).

In Deutschland ist man scheinbar aufgewacht, denn seit 2024 gab es einen Anstieg von circa 20 auf jetzt 34 Prozent. Die Kurve von China ist etwas abgeflacht, aber außerhalb der Top Ten lauern Firmen wie Nio. Die USA scheinen nicht bereit, im großen Stil zu investieren, auch wenn Ford, Lucid und Rivian am Tor unseres Rankings klopfen und es in den kommenden Jahren aufstoßen könnten. Wer es tatsächlich in die Top Ten geschafft hat, verraten wir in der folgenden Galerie.

Platz 10: General Motors

Der US-Konzern General Motors gehört zu den Verlierern der aktuellen Studie und belegt mit einem Innovations-Score von 67,3 den zehnten Rang. Im Vergleich zum vorherigen Zeitraum von 2016 bis 2020 bedeutet das einen Abstieg um fünf Plätze.

General Motors, Super Cruise, Cadillac Escalade, Blue Cruise
Bild: General Motors

Der Beitrag Geely überholt Tesla und VW: Die innovativsten E-Autobauer 2026 erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Bluesky zu Eurosky übertragen: So gelingt der Umzug auf EU-Server

23. April 2026 um 16:43

Der Beitrag Bluesky zu Eurosky übertragen: So gelingt der Umzug auf EU-Server erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Bluesky zu Eurosky übertragen Migration Anleitung Wie nutzen

Viele Nutzer fragen sich, wie sie ihre digitale Identität stärker unter eigener Kontrolle behalten können. Genau hier setzt Eurosky an: Mit einer gemeinsamen technischen Grundlage sollen Konten und soziale Beziehungen zwischen Netzwerken übertragbar sein. Wir zeigen dir Schritt für Schritt, wie du deinen Bluesky-Account zu Eurosky übertragen und migrieren kannst, inklusive Handle-Wechsel und Bestätigungscodes.

Mit Eurosky betritt ein neuer Player die Bühne der sozialen Netzwerke. Der Dienst bietet einen zentralen Login für verschiedene Plattformen wie Bluesky und will sich als europäische Alternative zu Big Tech etablieren.

Aufgrund der wachsenden Kritik an den Datenpraktiken der großen Tech-Konzerne setzt Eurosky auf strengere Datenschutzstandards und mehr Kontrolle durch die Nutzer. Langfristig soll die Plattform dafür mit verschiedenen Netzwerken kompatibel sein, damit Nutzer mit nur einem Eurosky‑Account verschiedene Dienste nutzen können.

Als Grundlage dafür dient das AT-Protokoll, mit dem soziale Netzwerke dezentral organisiert und miteinander vernetzt werden können. Nutzerkonten, Inhalte und soziale Beziehungen lassen sich so unabhängig von einzelnen Plattformen verwalten und bei Bedarf zwischen Diensten übertragen.

Bluesky ist aktuell der wichtigste und größte Dienst im Eurosky-Ökosystem aus dem Bereich der sozialen Netzwerke. Wir zeigen dir, wie du deinen Bluesky-Account auf die europäische Alternative übertragen kannst.

Migration starten: Bluesky-Account zu Eurosky übertragen

Willst du Bluesky künftig nutzen und deine Daten aber auf europäischen Servern wissen, kannst du deinen Account zu Eurosky übertragen. Dafür musst du keinen neuen Account erstellen und kannst deine Daten und Kontakte behalten.

Die Migration deines Accounts kannst du hier vornehmen. Dafür musst du im ersten Schritt dein Bluesky-Handle sowie dein Passwort eingeben. Dann stimmst du den Nutzungsbedingungen und der Datenschutzerklärung zu und klickst auf den Button „Weiter„.

Im nächsten Schritt musst du deine bei Bluesky hinterlegte E-Mail-Adresse verifizieren und bestätigen. Damit bestätigst du, dass du Zugriff auf das Postfach hast, um den Bestätigungscode abzurufen.

In Schritt drei wählst du dann den Server aus, auf den dein Account umziehen soll. Eurosky ist schon als erste Option für die Migration voreingestellt. Du kannst diese Auswahl über den Button „Weiter“ bestätigen.

Im vorletzten Schritt wählst du dein neues Handle aus. Eurosky gibt bereits dein altes vor. Du kannst aber auch ein neues Handle wählen oder dein altes behalten. Es wechselt dann von der Struktur „handle.bsky.social“ zu „handle.eurosky.social“.

Schritt für Schritt bestätigen: Code eingeben und Umzug starten

Nach der Überprüfung der Verfügbarkeit deines gewünschten Handles kommst du zum letzten Schritt deiner Account-Übertragung. Dort kannst du wählen, ob du eine Sicherungskopie vor der Migration erstellen möchtest.

Klickst du auf „Weiter“, erhältst du eine E-Mail mit einem Bestätigungscode. Gib diesen auf der Migrationswebsite ein, so kannst du die Übertragung von Bluesky zu Eurosky starten.

Wichtig ist, dass du alle Apps und Browser-Tabs mit deinem Bluesky-Konto während der Übertragung schließt und dein Konto nicht verwendest. Denn Beiträge, Likes oder Follows, die während der Migration auftreten, können nicht übertragen werden.

Der Vorgang dauert nach Angaben von Eurosky zwischen 20 und 30 Minuten. Ist er abgeschlossen, erhältst du eine weitere Benachrichtigung per E-Mail. Du kannst den jeweiligen Stand der Migration aber auch auf der Website einsehen, auf der du den Bestätigungscode aus der E-Mail eingegeben hast.

Du erhältst während der Migration eine weitere E-Mail mit dem Betreff „PLC Update Operation Requested“ von Blusky. Hier findest du einen weiteren Bestätigungscode, mit dem du Migration abschließen kannst.

Nach Abschluss der Übertragung kannst du deine Sicherungskopie herunterladen und den Wiederherstellungsschlüssel für dein Konto kopieren. Diese Daten stehen allerdings nur zwei Tage zur Verfügung.

Auch interessant:

Der Beitrag Bluesky zu Eurosky übertragen: So gelingt der Umzug auf EU-Server erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Images 2.0: OpenAI treibt ChatGPT-Bildern klassischen KI-Look aus

23. April 2026 um 11:00

Der Beitrag Images 2.0: OpenAI treibt ChatGPT-Bildern klassischen KI-Look aus erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

ChatGPT Images 2.0 OpenAI Bild-KI Künstliche Intelligenz Bilder erstellen

KI-Bilder in einer bislang nie da gewesenen Qualität: Das verspricht OpenAI mit seinem neuen Modell zur Bildgenerierung. ChatGPT Images 2.0 soll komplexe Anweisungen deutlich besser umsetzen als bisher. Auch bei Text oder Schrift im Bild will das Unternehmen Fortschritte erzielt haben. Eine kommentierende Analyse.

Was ist ChatGPT Images 2.0?

  • OpenAI hat mit ChatGPT Images 2.0 ein neues KI-Bildmodell präsentiert, das in ChatGPT, Codex und über die Programmierschnittstelle (API) des Unternehmens verfügbar ist. Es soll den Modellen der Konkurrenz in puncto Bilderstellung und -qualität weit voraus sein. Eine der wichtigsten Neuerungen ist der integrierte Denkmodus. Ähnlich wie bei Nano Banana Pro von Google soll Images 2.0 vor der eigentlichen Erstellung „nachdenken“ und auf das Internet zugreifen, um aktuelle Ereignisse korrekt in den Bildern darzustellen. Der Modus steht aber nur kostenpflichtigen Abonnenten zur Verfügung.
  • Von den Verbesserungen bei der allgemeinen Bildqualität sollen OpenAI zufolge alle Nutzer profitieren. Das Unternehmen will etwa den typischen KI-Look mit glatten Gesichtern und unechter Beleuchtung behoben haben. ChatGPT Images 2.0 soll zudem bei der Darstellung fotorealistischer Bilder Fortschritte gemacht haben. Nutzer sollen Bilder mit nahezu perfekten Beschriftungen und kleinen Schriften generieren können, die grammatikalisch korrekt sind. OpenAI präsentierte etwa täuschend echte Screenshots von Browserfenstern oder mobilen Apps.
  • ChatGPT Images 2.0 soll bis zu acht Bilder aus einem einzigen Prompt generieren können. Charakter, Objekte oder bestimmte Stile ließen sich laut OpenAI auf andere Bildszenen übertragen – etwa, um Comics, Mangas, Grafiken oder Broschüren zu erstellen. Das Unternehmen will außerdem räumliche Darstellungen verbessert haben. Gleiches gilt für Bildformate.

Qualitätssprung oder Abo-Falle? Eine Einordnung

OpenAI verkauft ChatGPT Images 2.0 als großen Qualitätssprung. Das Unternehmen hat vor allem versucht, sich von einem klassischen KI-Look zu verabschieden, den viele KI-generierte Bilder haben – und zwar durchaus mit Erfolg. Doch zwischen Produktbildern und Alltagsnutzung liegt bekanntlich oft dieselbe Distanz wie zwischen Werbeversprechen und WLAN im ICE.

Ökonomisch steht für OpenAI bei ChatGPT Images 2.0 aber weniger Bildästhetik als eine glasklare Plattformstrategie im Vordergrund. Der Denkmodus ist etwa kein Feature aus Liebe zur Präzision, sondern ein klarer Premium-Hebel: bessere Qualität gegen kostenpflichtiges Abo. Sprich: Wer komplexe, aktuelle oder präzise Bilder will, muss zahlen und im OpenAI-Ökosystem bleiben.

Parallel bleibt das Urheberrecht der eigentliche blinde Fleck dieses Geschäftsmodells. Denn solange unklar ist, wie Trainingsdaten rechtlich sauber vergütet oder abgegrenzt werden, schwebt über jedem beeindruckenden Bild auch ein potenzielles Klage- oder Missbrauchsrisiko.

Dass OpenAI seine Bild- und Video-KI Sora wieder eingestampft hat, passt hingegen in dieses Bild einer radikalen Konsolidierung. Heißt: weniger Experimente am Rand, mehr Monetarisierung im Zentrum. Oder anders gesagt: Die Spielwiese wird eingezäunt, damit sich die Kühe besser melken lassen.

Stimmen und Reaktion zu ChatGPT Images 2.0

  • OpenAI erklärt in einer offiziellen Mitteilung: „Images 2.0 sorgt für ein bisher unerreichtes Maß an Detailtreue und Präzision bei der Bildgenerierung. Es kann nicht nur komplexere Bilder konzipieren, sondern diese Vision auch effektiv zum Leben erwecken, indem es Anweisungen befolgt, gewünschte Details beibehält und die feinen Elemente rendert, die Bildmodelle oft zum Scheitern bringen: kleiner Text, Ikonografie, UI-Elemente, dichte Kompositionen und subtile stilistische Vorgaben – und das alles bei einer Auflösung von bis zu 2K.“
  • Mitch Stoltz, Leiter der Abteilung für Rechtsstreitigkeiten im Bereich geistiges Eigentum bei der Electronic Frontier Foundation, gegenüber Business Insider: „Wenn die Ausgabe im Wesentlichen etwas ähnelt, womit das Modell trainiert wurde oder was es gecrawlt hat, dann kommt ein urheberrechtliches Problem ins Spiel. Wenn die Ähnlichkeit nur auf der Ebene einer Idee besteht (…), dann reicht das im Allgemeinen nicht aus. Die urheberrechtlichen Fragen sind dieselben, als würde man einfach Photoshop, eine Dunkelkammer oder einen menschlichen Künstler nutzen. Die gesellschaftlichen Probleme sind größer, weil es einfacher, schneller und leichter zugänglich ist.“
  • Ein Reddit-Nutzer hat ChatGPT Images 2.0 bereits ausprobiert und nimmt den Inhaltsfilter aufs Korn: „Ich habe es mit ‚Sydney Sweeney in einem freizügigen Bikini‘ versucht, aber das ging nicht. Also habe ich es mit ‚Sydney Sweeney in einem nicht freizügigen Bikini‘ versucht, aber das ging auch nicht. Also habe ich es dann mit ‚Sam Altman, vollständig bekleidet, in einem Whirlpool mit Peter Thiel, der ebenfalls vollständig bekleidet ist‘ versucht, und da hatte ich Erfolg. Die sexuelle Spannung ist dort förmlich greifbar. Wir befinden uns definitiv im Bereich der allgemeinen künstlichen Intelligenz.“

Kann OpenAI mit KI-Bildern wirklich wachsen?

ChatGPT Images 2.0 ist weniger ein Produkt als eine Wette darauf, dass qualitativ hochwertige KI-Bilder zum nächsten großen Abo-Treiber für OpenAI werden. Denn: Das Unternehmen hatte sich zuletzt strategisch verzettelt und zahlreiche Nutzer verloren – vor allem an den Konkurrenten Anthropic.

OpenAI versucht aber nicht nur, Nutzer (zurück) zu gewinnen, sondern sie in eine komfortable Bild-Abhängigkeit zu überführen. Der Konkurrenzdruck bleibt dabei brutal hoch. Google hat bereits mit eigenen Modellen vorgelegt, und spezialisierte Anbieter wie Midjourney verteidigen ihre Nische mit Fanatismus.

Doch am Ende entscheidet vermutlich weniger die beste Bildqualität als die beste Plattformintegration. Die eigentliche Frage ist, ob sich dieser Fortschritt wirtschaftlich wirklich so sauber in Wachstum übersetzen lässt, wie die Präsentationen es suggerieren. OpenAI adressiert mit ChatGPT Images 2.0 hingegen klar Unternehmenskunden.

KI-Spielereien im Privatbereich sind für die Betreiber nicht nur unwirtschaftlich, sondern aufgrund des hohen Energie- und Wasserverbrauchs von KI eine Gefahr für die Umwelt und den Planeten. Wie gut sich ChatGPT Images 2.0 schlagen wird, muss jedoch die Zeit zeigen. Denn Alltagstauglichkeit und wirklicher Mehrwert lassen sich nicht im Voraus simulieren. Ebenso wenig wie Schwachstellen und Fehler.

Auch interessant:

Der Beitrag Images 2.0: OpenAI treibt ChatGPT-Bildern klassischen KI-Look aus erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Balkonkraftwerke mit Speicher: Jetzt sofort lieferbar und schon ab 850 Euro sichern

23. April 2026 um 09:30

Der Beitrag Balkonkraftwerke mit Speicher: Jetzt sofort lieferbar und schon ab 850 Euro sichern erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Balkonkraftwerke mit Speicher

Der Markt für Balkonkraftwerke boomt. Doch während viele Anbieter wochenlange Wartezeiten haben, sind die leistungsstarken Sets mit Growatt NEXA 2000 Speicher bei AC TEC innerhalb von nur 2 bis 5 Werktagen lieferbar. Genau das verschafft einen massiven Vorteil in einem Markt, in dem Verfügbarkeit alles ist.

Balkonkraftwerke mit Speicher gehören zu den gefragtesten Energiesystemen in Deutschland. Die Kombination aus steigenden Strompreisen, vereinfachten Regeln und wachsender Nachfrage sorgt dafür, dass Lieferzeiten von 4 bis 10 Wochen bei vielen Shops längst zur Norm geworden sind. Bei AC TEC sieht die Realität anders aus: Tausende Sets sind auf Lager und sofort verfügbar.  Inklusive moderner Glas-Glas-Module und dem beliebten Growatt NEXA 2000 Speicher.

Genau wegen dieser Kombination aus Top-Preis, Speichertechnologie und extrem schneller Lieferzeit, solltest du dir die Angebote von AC TEC genauer ansehen. Wer ein Balkonkraftwerk installieren will, möchte nicht erst im Sommer produzieren, sondern sofort starten. Und das geht nur, wenn Ware direkt versendet wird.

Warum Balkonkraftwerke mit Speicher gerade durchstarten

Der Markt hat sich in den vergangenen Jahren vervielfacht. Allein 2025 wurden laut Branchenanalysen über 500.000 Anlagen verkauft. 2026 könnte der Wert sogar noch deutlich steigen. Besonders beliebt sind Systeme mit integriertem Speicher, da sie den Eigenverbrauch spürbar erhöhen und die Tagesproduktion optimal nutzen.

  • Mehr Strom am Abend nutzen
  • Deutlich höhere Unabhängigkeit vom Netz
  • Optimale Nutzung von Erzeugungsspitzen
  • Kein zusätzlicher Wechselrichter nötig (All-in-One beim NEXA 2000)

Der Growatt NEXA 2000 hebt den Markt zusätzlich an: vier MPPT-Eingänge, moderne LiFePO4-Zellen, Outdoor-fähig, extrem kompakt und auf bis zu 8 kWh erweiterbar. Vor allem aber: kinderleicht zu installieren.

Jetzt sofort lieferbares Set sichern

Lieferzeiten als größter Gamechanger: Warum sich schnelle Verfügbarkeit auszahlt

Während viele Händler ihre Lieferzeiten auf 4, 6 oder sogar 10 Wochen angeben, setzt AC TEC mit 2 bis 5 Werktagen ein starkes Zeichen. Wer früh beliefert wird, spart sofort. Denn jeder Tag ohne Anlage bedeutet verlorene Energie und damit verlorenes Einsparpotenzial.

Wer heute bestellt, kann also schon in wenigen Tagen Strom produzieren. Die Sets werden direkt aus eigenem Lager versendet. Keine Vorbestellung, keine langen Wartezeiten.

Die drei Top-Sets: Sofort verfügbar und preislich extrem attraktiv

1. 1000W Set – nur 850 Euro: Balkonkraftwerk inkl. bifazialen JA Solar Glas-Glas-Modulen und Growatt NEXA 2000 Speicher. Ideal für Einsteiger, die maximale Stabilität und hohe Effizienz suchen.

2. 2000W Set – nur 999 Euro: Das stärkste Preis-Leistungs-Verhältnis: Trina Vertex S 500W Glas-Glas-Module, kombiniert mit dem NEXA 2000 Speicher – aktuell das meistverkaufte Set bei AC TEC. Ideal für hohe Autarkie und maximale Tageserträge.

3. 4000W Power-Plus Set – nur 1.500 Euro: Für alle, die möglichst viel Ertrag wollen: große Modulfläche, integrierter Speicher und maximale Effizienz. Perfekt für Dächer, Garagen oder große Balkone.

Warum Glas-Glas-Bifacial-Module hier entscheidend sind

Alle Sets setzen auf moderne bifaziale Glas-Glas-Technologie. Diese Module fangen Sonnenlicht nicht nur von vorne, sondern auch von hinten ein, ideal für reflektierende Untergründe wie Beton, helle Fassaden oder Terrassen.

  • Bis zu 25 Prozent Mehrertrag durch bifaziale Rückseitenleistung
  • Deutlich längere Lebensdauer (30 Jahre Leistungsgarantie möglich)
  • Höhere Stabilität dank Glas-Glas-Aufbau
  • Besonders wetterfest und UV-beständig

Gerade in Verbindung mit dem NEXA 2000 lassen sich modulare Überschüsse sehr effizient speichern und abends abrufen. Dadurch steigt der Eigenverbrauch auf ein völlig neues Niveau.

Sofort verfügbare Sets sichern: Nur solange der Lagerbestand reicht

Die Nachfrage nach Balkonkraftwerken bleibt 2026 weiter hoch. Das Angebot an sofort lieferbaren Sets ist dagegen überschaubar. Wer also vermeiden möchte, wochenlang auf sein System zu warten, sollte jetzt zugreifen. Besonders, solange die Preise auf diesem Niveau bleiben.

AC TEC bietet derzeit eines der attraktivsten Gesamtpakete am Markt: starke Technik, schnelle Lieferung, volle Lagerverfügbarkeit und ein Preisniveau, das sich deutlich von vielen Mitbewerbern abhebt.

Jetzt Balkonkraftwerk sofort bestellen

Der Beitrag Balkonkraftwerke mit Speicher: Jetzt sofort lieferbar und schon ab 850 Euro sichern erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

PV-Anlage: Amortisation in 10 Jahren? Eine ehrliche Rechnung

23. April 2026 um 05:45

Der Beitrag PV-Anlage: Amortisation in 10 Jahren? Eine ehrliche Rechnung erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Solaranlage Kosten Eigenverbrauch Speicher

Strom aus dem Netz kostet rund 30 Cent pro Kilowattstunde, die Einspeisevergütung liegt bei nur noch sieben Cent. Für Besitzer einer PV-Anlage hat sich die Rechnung damit grundlegend verschoben: Nicht die Einspeisung, sondern der Eigenverbrauch entscheidet heute über die Wirtschaftlichkeit.

Der Anteil von Photovoltaik an der Stromerzeugung in Deutschland hat in den vergangenen 20 Jahren kontinuierlich zugenommen. Im Jahr 2025 wurden insgesamt in Deutschland 18,2 Prozent des erzeugten Stroms über Sonnenenergie erzeugt, fünf Jahre zuvor lag die Quote noch bei 8,6 Prozent.

Grund für diese Entwicklungen sind zum einen die in den vergangenen Jahren deutlich gesunkenen Kosten für PV-Anlagen. Während gleichzeitig die Preise für Strom aus dem Netz zum Teil deutlich angestiegen sind, hat sich die Attraktivität von Solarstrom für private Haushalte und Unternehmen erhöht.

Dennoch ist die entscheidende Frage für viele damit nicht beantwortet: Ab wann lohnt sich eine PV-Anlage tatsächlich? Denn ob sich die Anschaffung rechnet, hängt heute weniger von der reinen Stromproduktion ab, sondern eher von individuellen Faktoren wie Eigenverbrauch und Anlagengröße.

Solaranlage: Warum Eigenverbrauch heute wichtiger ist als Einspeisung

In den vergangenen Jahren hat sich die Logik von Photovoltaik grundlegend verändert. Denn anfänglich konnten sich viele Anlagen vor allem durch das Einspeisen ins Netz rechnen.

Doch die immer weiter gesunkenen Einspeisevergütungen haben dazu geführt, dass sich Anlagen heute deutlich weniger über die Einspeisung ins Netz finanzieren als noch vor einigen Jahren. Stattdessen rückt der Eigenverbrauch des erzeugten Stroms zunehmend in den Mittelpunkt einer einer Wirtschaftlichkeitsbetrachtung.

Das liegt vor allem auch an der Lücke, die zwischen Strompreis und Einspeisevergütung klafft. Denn während Haushalte für Strom aus dem Netz pro Kilowattstunde aktuell um die 30 Cent zahlen müssen, liegt die Vergütung für eingespeisten Solarstrom mit rund sieben Cent pro Kilowattstunde deutlich darunter. Geht es nach dem Wirtschaftsministerium, soll die Vergütung künftig sogar gänzlich entfallen.

Logischerweise ist es daher wirtschaftlich deutlich attraktiver, möglichst viel des selbst erzeugten Stroms direkt zu verbrauchen, statt ihn ins Netz einzuspeisen. Das wiederum beeinflusst aber auch die Rentabilität von PV-Anlagen maßgeblich.

Denn für einen höheren Eigenverbrauch sind häufig zusätzliche Investitionen in Batteriespeicher notwendig. Diese erhöhen zwar die Unabhängigkeit vom Stromnetz und verbessern die Nutzung des Solarstroms über den Tagesverlauf hinweg, führen aber gleichzeitig zu höheren Anschaffungskosten, die den Zeitraum für die Amortisation der Investition verlängern können.

Welche Kosten die Rentabilität einer PV-Anlage bestimmen

Die einfachste Rechnung für die Rentabilität einer PV-Anlage setzt sich aus den Investitionskosten, den vermiedenen Stromkosten durch Eigenverbrauch sowie den Erlösen aus der Einspeisung zusammen. Doch tatsächlich können noch zahlreiche weitere Faktoren in diese Rechnung einfließen.

Eine Studie der Hochschule RheinMain, die im Fachjournal Renewable Energy veröffentlicht wurde, zeigt beispielsweise, dass klassische Wirtschaftlichkeitsmodelle die Risiken und Unsicherheiten solcher Investitionen häufig nur unzureichend abbilden.

Die Forschenden kommen zu dem Ergebnis, dass sich die Rentabilität stark in Abhängigkeit von Faktoren wie Strompreisentwicklung, Investitionskosten und insbesondere dem Verhältnis von Eigenverbrauch zu Netzeinspeisung verändert. Unter bestimmten Marktbedingungen könne die Wirtschaftlichkeit privater PV-Anlagen daher deutlich geringer ausfallen als häufig angenommen, während sich unter anderen Szenarien wiederum klare Vorteile ergeben.

So bewertet eine Studie das tatsächliche Risiko von PV-Investitionen

In der Studie „Using DNPV to determine the economic viability of residential photovoltaic systems in Germany: Is the investment still worth it?“ erfassen die Forschenden unter anderem auch wirtschaftliche Unsicherheiten.

Dabei fließen sowohl Schwankungen bei Strommengen als auch bei Preisen systematisch ein. Zusätzlich wird das Risiko schwankender Strompreise mit Methoden aus der Finanzmathematik bewertet, die vergleichbar mit der Preisbewertung von Finanzoptionen sind.

„Die Grundidee der DNPV-Methode besteht darin, das Risiko der Zahlungsströme in Form von synthetischen Risikoprämien zu erfassen“, erklären die Forscher. „Dadurch wird das Risiko von der Berücksichtigung des Zeitwerts des Geldes entkoppelt, und nach Abzug der Risikokosten können die resultierenden Cashflows mit dem risikofreien Zinssatz abgezinst werden.“

Die Analyse ergab bei einem 10-Kilowatt-System in Frankfurt einen negativen DNPV von minus 1.664 Euro. Allerdings beziehen sich die Zahlen auf die Situation zu Beginn des Jahres 2023.

Inzwischen sei laut Studienautor Carlo Kraemer von der Hochschule RheinMain die Rentabilität aber bereits teilweise wiederhergestellt, da die Investitionskosten seither deutlich gesunken sind:

Darüber hinaus hängt die Wirtschaftlichkeit von verschiedenen Parametern ab, die regional spezifisch sind. Neben den bereits erwähnten Investitionskosten und Strompreisen ist natürlich auch der Ertrag der Anlage von der Region abhängig und hat einen wesentlichen Einfluss auf den wirtschaftlichen Wert. Daher müssen alle diese Parameter in die Bewertung einfließen und liefern dann ein sehr individuelles Ergebnis.

Kostencheck: Zwei Szenarien mit und ohne Speicher im Vergleich

Szenario 1: Ohne Batteriespeicher (30 % Eigenverbrauch)

Posten Wert
Investitionskosten ca. 13.000 Euro
Eigenverbrauch (30 % von 9.500 kWh) 2.850 kWh
Einspeisung (70 % von 9.500 kWh) 6.650 kWh
Vermiedene Stromkosten (2.850 x 0,30 Euro) 855 Euro/Jahr
Einspeisevergütung (6.650 x 0,07 Euro) 465 Euro/Jahr
Jährlicher Gesamtvorteil 1.320 Euro/Jahr
Amortisation ca. 10 Jahre

Szenario 2: Mit Batteriespeicher (60 % Eigenverbrauch)

Posten Wert
Investitionskosten (Anlage + Speicher 10 kWh) ca. 20.000 Euro
Eigenverbrauch (60 % von 9.500 kWh) 5.700 kWh
Einspeisung (40 % von 9.500 kWh) 3.800 kWh
Vermiedene Stromkosten (5.700 x 0,30 Euro) 1.710 Euro/Jahr
Einspeisevergütung (3.800 x 0,07 Euro) 266 Euro/Jahr
Jährlicher Gesamtvorteil 1.976 Euro/Jahr
Amortisation ca. 10 Jahre

Auch interessant:

Der Beitrag PV-Anlage: Amortisation in 10 Jahren? Eine ehrliche Rechnung erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Kaufkraft in Deutschland: Hier können sich die Menschen am wenigsten leisten

22. April 2026 um 20:24

Der Beitrag Kaufkraft in Deutschland: Hier können sich die Menschen am wenigsten leisten erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Geldbeuten Kaufkraft Armut

Die Gehälter in Deutschland steigen. Doch die Preise steigen schneller. Eine aktuelle Studie des Instituts der deutschen Wirtschaft hat die Kaufkraft in 400 Kreisen und kreisfreien Städten verglichen. Das Ergebnis: Vor allem ehemalige Industriestädte und teure Universitätsstädte schneiden schlecht ab. Wir zeigen die zehn Regionen, in denen sich die Menschen 2026 am wenigsten leisten können  – und erklären, warum.

In Städten wie München und Hamburg mögen die Menschen am meisten verdienen, doch das bedeutet nicht, dass sie sich auch am meisten leisten können. Denn bekanntlich sind Dinge wie Mieten und Restaurantbesuche hier extrem teuer. Um die tatsächliche Kaufkraft einer Stadt oder eines Landkreises zu ermitteln, muss man also das Einkommen der Bürger dem Preisniveau gegenüberstellen.

Kaufkraft in Deutschland: Warum Großstädte nicht automatisch wohlhabend sind

Eine aktuelle Studie des Instituts der deutschen Wirtschaft (IW) hat die Kaufkraft in insgesamt 400 Kreisen und kreisfreien Städten in Deutschland untersucht und dabei das Einkommen mit den regionalen Lebenshaltungskosten verglichen. Bei den Vertretern ganz unten auf der Liste treffen also relativ niedrige Einnahmen oft auf hohe Preise.

Ein Blick auf die Liste zeigt auf, dass vor allem ländliche Gebiete von dieser Rechnung profitieren. Die Top Ten wird von Landkreisen im Süden Deutschlands dominiert. Je weiter man runtergeht, desto mehr wird klar, dass vor allem mittelgroße Städte oft ein Problem haben. Hier können Jobs im Dienstleistungs-Bereich den Wegfall vieler Industrie-Branchen offenbar nicht auffangen.

Metropolen wie Hamburg (Platz 331), Köln (Platz 343), Berlin (Platz 383) oder Frankfurt am Main (Platz 359) finden sich fast geschlossen im hinteren Drittel der 400 untersuchten Kreise wieder, können sich aber gerade so über den Strich retten. Die hohen Mieten können in diesen Städten noch einigermaßen durch einen diversifizierten Arbeitsmarkt aufgefangen werden.

Aber es geht noch schlimmer. In der folgenden Top Ten präsentieren wir die deutschen Regionen mit der niedrigsten Kaufkraft.

Platz 10: Halle (Saale)

Halle eröffnet die Top Ten der Schlusslichter. Mit einem preisbereinigten Pro-Kopf-Einkommen von 24.184 Euro belegt die Stadt in Sachsen-Anhalt Platz 391. Und das trotz relativ niedriger Lebenserhaltungskosten. Diese werden mit 96,5 bewertet – der Durchschnitt in Deutschland wurde genau bei 100,0 angesetzt.

Der Beitrag Kaufkraft in Deutschland: Hier können sich die Menschen am wenigsten leisten erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Wie du 2026 den richtigen Rasenroboter ohne Kabel findest

22. April 2026 um 16:00

Der Beitrag Wie du 2026 den richtigen Rasenroboter ohne Kabel findest erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Rasenroboter ohne Kabel

Stell dir vor: Dein Garten besteht aus einer großen Hauptfläche, einem abgetrennten Bereich hinter dem Gartenhaus und einem leicht abschüssigen Randstreifen entlang der Einfahrt. Genau hier scheitern viele klassische Mähroboter – und genau hier beginnt der Vorteil kabelloser Modelle.

Wer einen solchen Garten kennt, weiß: Das Verlegen eines Begrenzungskabels ist nicht nur zeitaufwendig, sondern häufig auch frustrierend. Kaum ist das Kabel einmal in der Erde, reicht eine Wurzel, ein Schaufelstich oder ein harter Winter aus, um die mühsam eingerichtete Grenze zu ruinieren. Kabellose Mähroboter lösen dieses Problem an der Wurzel – und sie werden 2026 immer besser darin.

Warum Rasenroboter ohne Kabel 2026 so gefragt sind

Der Trend zu kabellosen Mährobotern ist kein Zufall. GPS-Navigation hat sich in den vergangenen Jahren so weit verbessert, dass Roboter Gartenflächen selbstständig kartieren, Routen berechnen und sich an veränderte Gegebenheiten anpassen können – ganz ohne Draht im Boden.

Das macht sich im Alltag deutlich bemerkbar. Wer ein Beet anlegt, eine neue Zone abgrenzen oder einfach den Stellplatz des Roboters verlegen möchte, passt das per App an – fertig. Kein Umgraben, kein Nachjustieren, keine Fehlersuche an unterbrochenen Kabeln.

  • Keine Installation: Aufstellen, konfigurieren, sofort loslegen – ideal für alle, die keine Drahtverlegung möchten.
  • Flexiblere Gartenplanung: Beete verändern? Neue Zone ergänzen? Die Navigation passt sich automatisch an.
  • GPS-gestützte Orientierung: Moderne Software sorgt für saubere Bahnen und strukturiertes Mähen.
  • Weniger Störquellen: Kein Kabel, das brechen, beschädigt werden oder falsch verlegt sein kann.
  • Einfachere Wartung: Alles digital gesteuert – weniger mechanische Fehlerquellen.
Bild: MOVA

Was herkömmliche Mähroboter oft zum Problem macht

Begrenzungskabel waren lange der Standard, doch sie bringen spürbare Einschränkungen mit sich. Das Verlegen kann Stunden oder sogar einen ganzen Tag in Anspruch nehmen. Noch ärgerlicher: Ist das Kabel erst beschädigt – durch Tiere, Frost, Wurzeln oder einen unachtsamen Spatenstich – beginnt eine langwierige Fehlersuche.

Auch navigatorisch stoßen kabelgebundene Modelle schnell an ihre Grenzen. Bei verwinkelte Gärten, Engstellen oder mehreren getrennten Rasenflächen können sie die Struktur oft nicht sauber abbilden. Sie fahren schlicht dem Draht entlang, mehr Intelligenz steckt meistens nicht dahinter.

Kabellose Mäher der neuen Generation hingegen lernen den Garten kennen. Sie erstellen Karten, berechnen optimale Routen und verbessern ihre Leistung im Laufe der Saison. Etwas, das mit Drahttechnologie strukturell nicht möglich ist.

Worauf du bei der Wahl deines kabellosen Rasenroboters achten solltest

Die Auswahl wächst, doch nicht jedes Modell eignet sich für jeden Garten. Bevor du dich entscheidest, spielen diese Punkte eine wichtige Rolle:

  • Flächengröße: Je größer der Rasen, desto leistungsfähiger sollte der Roboter sein.
  • Komplexität: Enthält dein Garten mehrere Bereiche, Engstellen oder Hindernisse?
  • Akkuleistung: Größere Flächen benötigen zuverlässige und effiziente Akkus.
  • Schnittbreite: Breitere Mähwerke bearbeiten Flächen schneller.
  • Navigationssystem: GPS und AI-Navigation sind der Standard bei hochwertigen kabellosen Modellen.
  • Wetterbeständigkeit: Ein guter Roboter sollte Regen, Hitze und Kälte problemlos aushalten.
  • Sicherheit: Sensoren zum Stoppen bei Berührung oder Anheben sind Pflicht.

Ein kabelloser Mähroboter lohnt sich besonders dann, wenn der Garten komplex ist, sich regelmäßig verändert oder das Verlegen eines Kabels schlicht keine Option ist. Für einfache, klar begrenzte Rasenflächen ohne Hindernisse können kabelgebundene Einstiegsmodelle weiterhin eine günstige Alternative sein – das sollte man ehrlich sagen.

Bild: MOVA

Die LIDAX Ultra Serie im Überblick: Welches Modell für welche Fläche?

Die LIDAX Ultra Serie von MOVA wurde für genau diese Anforderungen entwickelt. Alle drei Modelle arbeiten kabellos per GPS-Navigation, verfügen über starke Akkus und sind auf regelmäßigen Einsatz ausgelegt. Was sie unterscheidet, ist die Flächenleistung:

  • LIDAX Ultra 800: Für Gärten bis 800 m² – ideal für Reihenhäuser, Stadtgärten und übersichtliche Rasenflächen.
  • LIDAX Ultra 1200: Der Allrounder für Flächen bis 1200 m² mit mittlerer Komplexität – auch mit getrennten Bereichen.
  • LIDAX Ultra 1600: Für große Grundstücke mit weitläufigen Flächen, unterschiedlichen Höhenlagen und mehreren Zonen.

Zum LIDAX Ultra

Alle Varianten mähen angenehm leise – ein nicht zu unterschätzender Faktor in dicht bebauten Wohngebieten.

Bild: MOVA

Wie sich ein kabelloser Mähroboter im Alltag bewährt

Die Einrichtung eines kabellosen Mähroboters wie des LIDAX Ultra läuft in der Regel über eine App. Beim ersten Start fährt der Roboter die Fläche ab und erstellt dabei eine Karte. Grenzen, Zonen und Ausschlussbereiche – etwa Beete oder Spielflächen – werden digital eingetragen. Das dauert je nach Gartengröße zwischen wenigen Minuten und einer halben Stunde.

Im laufenden Betrieb navigiert das Modell dann selbstständig. Ein Szenario: Garten mit einer Hauptfläche und einem kleineren Bereich hinter dem Gartenhaus. Der LIDAX Ultra 1200 findet eigenständig den Weg zwischen den Bereichen und erkennt dabei typische Hindernisse im Garten zuverlässig, ohne dass ein Draht die Route vorgibt. Unterbrechungen – durch Spielzeug auf dem Rasen, Gartenarbeiten oder einfach schlechtes Wetter – stören den Ablauf kaum.

Auf großen Grundstücken mit langen Kanten und Höhenunterschieden zeigt der LIDAX Ultra 1600 seine Stärken: leistungsstarker Motor, robuste Bereifung und KI-gestützte Wegplanung. Auch bei leichtem Regen arbeitet er weiter, sofern die Bedingungen sicher sind.

Ein Einschränkungshinweis: Wie bei allen GPS-basierten Systemen kann die Signalqualität in sehr engen, von Bäumen oder Gebäuden stark verschatteten Bereichen gelegentlich schwanken. Das ist kein LIDAX-spezifisches Problem, sondern ein grundsätzliches Merkmal der Technologie – es lohnt sich, das beim Einrichten zu berücksichtigen.

Wer regelmäßig mäht, merkt außerdem einen angenehmen Nebeneffekt: Der Rasen wird dichter und gleichmäßiger, weil der Roboter häufig und in kurzen Abständen mäht – typisch für das sogenannte Mulchprinzip, bei dem die feinen Schnittgutpartikel als natürlicher Dünger im Boden verbleiben.

Bild: MOVA

Weitere technische Details und eine Übersicht über kabellose Mähroboter von MOVA findest du hier.

FAQ

Wie funktioniert die Einrichtung des LIDAX Ultra?

Die Einrichtung erfolgt app-basiert. Dank UltraView™-System mit KI und 3D-LiDAR erstellt der Roboter automatisch eine Karte des Gartens – ohne Begrenzungskabel oder manuelle Vermessung.

Wie gut navigiert der LIDAX Ultra in komplexen Gärten?

Der Roboter ist für mehrere Zonen und komplexe Gartenstrukturen ausgelegt und kann bis zu 150 Bereiche verwalten. Durch KI-basierte Navigation passt er sich unterschiedlichen Layouts automatisch an.

Kann der LIDAX Ultra auch auf unebenem Gelände arbeiten?

Ja, der LIDAX Ultra ist für Steigungen von bis zu 45 % ausgelegt und kann auch Hindernisse bis ca. 4 cm überwinden, wodurch er sich für anspruchsvollere Gärten eignet.

Funktioniert der LIDAX Ultra auch bei Regen?

Ja, der Roboter kann bei leichtem Regen betrieben werden, solange die Sicherheitsbedingungen eingehalten werden.

Jetzt LIDAX Ultra entdecken

Der Beitrag Wie du 2026 den richtigen Rasenroboter ohne Kabel findest erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Mini-Windrad für Zuhause: Warum die Erträge oft enttäuschen

22. April 2026 um 13:30

Der Beitrag Mini-Windrad für Zuhause: Warum die Erträge oft enttäuschen erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Mini-Windräder für Zuhause Windkraft Windenergie Erneuerbare Energien

Ein Mini-Windrad klingt nach einer cleveren Ergänzung zur Solaranlage auf dem Dach. Doch Verbraucherschützer dämpfen die Erwartungen: In Wohngebieten bleibt der Stromertrag oft weit hinter dem zurück, was Hersteller versprechen. Wir zeigen, mit welchen Erträgen du realistisch rechnen kannst, wo die Grenzen liegen und für wen sich eine Kleinwindanlage trotzdem lohnen kann.

Immer mehr Menschen setzen angesichts der hohen Energiepreise und dem zunehmenden Klimabewusstsein auf grünen Strom und eine möglichst unabhängige Energieversorgung. Besonders die Solarenergie hat auf der Ebene privater Haushalte in den vergangenen Jahren einen Boom erlebt.

Allen voran stehen dabei kompakte Balkonkraftwerke, die sich einfach installieren lassen und schnell Energie liefern. Auch kleine Windkraftanlagen rücken zunehmend in den Fokus, da die Windkraft als Ergänzung zur Solarenergie vor allem in sonnenarmen Zeiten gilt.

Doch der tatsächliche Nutzen von Mini-Windrädern für das eigene Zuhause ist umstritten. Die Verbraucherzentrale hat zusammengetragen, worauf Interessierte vor der Anschaffung achten sollten und gibt Hilfestellung zu Themen wie dem geeigneten Standort, realistische Ertragserwartungen, Kosten und rechtlichen Rahmenbedingungen.

Wie viel Strom liefert ein Mini-Windrad wirklich?

Während die Photovoltaik inzwischen als relativ ausgereifte Technologie gilt, stehen Kleinwindkraftanlagen für den Hausgebrauch vielerorts noch vor praktischen und wirtschaftlichen Hürden. Denn die Stromerträge hängen stark von den lokalen Windverhältnissen ab, die in dicht bebauten Wohngebieten oft unzureichend sind.

Im Gegensatz zu Solaranlagen, die selbst auf kleinen Flächen wie Balkonen zuverlässig Energie liefern können, bleibt die Effizienz von Mini-Windrädern daher in vielen Fällen begrenzt. Denn ihre Leistung hängt extrem stark von der Windgeschwindigkeit ab.

Da die Leistung einer Windkraftanlage nicht linear, sondern mit der dritten Potenz der Windgeschwindigkeit steigt, entsteht eine starke Abhängigkeit vom jeweiligen Standort. Schon geringe Unterschiede im Windangebot können daher über hohe Erträge oder wirtschaftliche Enttäuschungen entscheiden. Verdoppelt sich der Wind beispielsweise, steigt der Ertrag auf das Achtfache. Halbiert sich der Wind hingegen, bleibt nur ein Achtel übrig.

Eine Beispielrechnung der Verbraucherzentrale zeigt, wie begrenzt der Ertrag kleiner Windräder oft ist. Eine Anlage mit einem Meter Rotordurchmesser kommt unter optimistischen Bedingungen auf rund 96 Kilowattstunden Strom pro Jahr. Wird dieser Strom vollständig im eigenen Haushalt genutzt, entspricht das einem Wert von etwa 35 Euro.

Zwar könne sich der Ertrag bei doppeltem Durchmesser vervierfachen, dennoch bleibe der wirtschaftliche Nutzen laut der Verbraucherzentrale meist überschaubar. In der Praxis falle die Ausbeute je nach Standort und Anlagenqualität häufig sogar noch geringer aus.

Im Vergleich dazu würde eine Photovoltaik-Anlage mit vergleichbarer Fläche in den meisten Fällen ähnlich viel oder sogar mehr Strom erzeugen. Zusätzlich hätte dies den Vorteil, dass die Stromproduktion über das Jahr hinweg mit höherer Zuverlässigkeit stattfindet.

Anmeldung, Versicherung, Vergütung: Was du beachten musst

Für eine Entscheidung über die Eignung eines Standorts könne auch eine Windmessung herangezogen werden. Dies sei aber in den meisten Fällen nicht sinnvoll, da die Kosten hierfür im Verhältnis zum erwarteten Ertrag einer Anlage meist unwirtschaftlich sind.

Ähnlich wie Balkonkraftwerke müssen auch kleine Windkraftanlagen beim Stromnetzbetreiber und bei der Bundesnetzagentur angemeldet werden. Es sollte außerdem geprüft werden, ob die Anlage in die Gebäude- und Haftpflichtversicherung aufgenommen werden kann, um mögliche Schäden abzusichern.

Die Vergütung für eingespeisten Windstrom aus einer Kleinwindanlage liegt zwischen etwa acht bis zwölf Cent pro Kilowattstunde. Ähnlich wie bei Balkonkraftwerken ist also auch bei Mini-Windrädern für Zuhause der Eigenverbrauch sinnvoller.

Allerdings müssen Interessierte bei der Lebensdauer – vor allem im Vergleich zu Photovoltaikmodulen – Abstriche machen. Denn während bei einer PV-Anlage die Lebensdauer heute bei 20 oder mehr Jahren liegt, sei diese für Windkraftanlagen unsicher und vermutlich deutlich niedriger.

Insgesamt legt das Fazit der Verbraucherzentrale nahe, dass Mini-Windräder für Wohngebäude eher ungeeignet sind. Bei idealen Standortbedingungen könnten sie aber in speziellen Bereichen wie auf Booten oder bei entlegenen Hütten sinnvoll sein.

Auch interessant:

Der Beitrag Mini-Windrad für Zuhause: Warum die Erträge oft enttäuschen erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Die 3 großen Aufgaben, die der neue Apple-Chef jetzt lösen muss

22. April 2026 um 11:00

Der Beitrag Die 3 großen Aufgaben, die der neue Apple-Chef jetzt lösen muss erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

neuer Apple Chef CEO Tim Cook Jon Ternus

Tim Cook räumt nach 15 Jahren den Chefsessel bei Apple und übergibt im September an Hardware-Chef John Ternus. Cook wechselt dann als Vorsitzender in den Verwaltungsrat. Der Wechsel hatte sich bereits angebahnt. Dennoch trifft er die Tech-Branche als Paukenschlag und stellt eine weitere Zäsur in der Geschichte Apples dar. Eine kommentierende Analyse. 

Ersetzt Tim Cook: John Ternus wird neuer Apple-Chef

  • Am Montag, den 20. April 2026, gab Apple bekannt, dass Geschäftsführer Tim Cook (65) zurücktreten wird. Er soll am 1. September 2026 durch den bisherigen Hardware-Chef John Ternus (50) ersetzt werden. Um einen geregelten Übergang sicherzustellen, wird Cook seinen Job noch über den Sommer ausüben. Anschließend wird er den langjährigen Verwaltungsratschef Art Levinson ablösen. In dieser Rolle soll er vor allem Kontakte zur Politik knüpfen und aufrechterhalten.
  • Tim Cook ist seit 27 Jahren bei Apple tätig. Zunächst vor allem im operativen Geschäft, wo er sich mit der Zeit einen Namen für die Perfektionierung der praktischen Abläufe gemacht hat. Kurz vor dem Rücktritt und anschließenden Tod von Apple-Mitgründer Steve Jobs trat Cook dessen Nachfolge als Geschäftsführer an. Er gilt als Meister der Lieferketten und führte das Unternehmen 15 Jahre lang. In dieser Zeit steigerte Tim Cook den Marktwert von Apple um rund 3,5 Billionen US-Dollar.
  • John Ternus, studierter Maschinenbauer, kam im Jahr 2001 zu Apple, um vor allem an neuer Hardware zu arbeiten. 2013 wurde er Abteilungsleiter der Hardwareentwicklung und war seither zuständig für Macs, iPads und Airpods. Ab 2020 war Ternus dann auch für das iPhone und damit Apples wichtigstes Produkt verantwortlich. Heißt konkret: John Ternus arbeitete nicht nur unter Apple-Ikone Steve Jobs. Ihm gelang unter Tim Cook ein rasanter Aufstieg.

Hat Tim Cook Apple zu wenig Innovation hinterlassen?

Tim Cook hat Apple nicht neu erfunden. Er hat das Unternehmen aber größer gemacht, als es sich Steve Jobs vielleicht jemals hätte vorstellen können. 15 Jahre lang führte er den iPhone-Konzern durch eine Ära der operativen Perfektion – mit wenig Chaos, viel Kontrolle, kaum Pathos, aber dafür umso mehr Milliarden.

Sein Abschied ist eigentlich keine Überraschung, denn er war lange vorbereitet und bereits bekannt. Trotzdem wirkt er wie ein Einschnitt, weil Tim Cook fast schon eine konservativ erfrischende Figur in einer populistisch ausufernden Tech‑Branche ist. John Ternus dürfte zumindest ein Stück weit ähnliche Fußstapfen hinterlassen.

Bloomberg beschrieb ihn 2024 in einem Porträt etwa als „sehr zurückhaltend, schreibt nie etwas Kontroverses in E-Mails und trifft Entscheidungen sehr behutsam.“ Ein Cook 2.0 also? Mitnichten! Zwar war Behutsamkeit in der Ära Cook ein absolutes Erfolgsmodell. Doch sie hatte Schattenseiten.

Tim Cook hat kein schwaches Apple hinterlassen und mit dem MacBook Neo die Erwartungen übertroffen, sogar noch einmal einen kleinen Coup gelandet. Doch John Ternus steht vor gewaltigen Aufgaben. Denn: Der Innovationsmythos der Jobs‑Ära wirkt unter Cook eher verwaltet. Und: Das Thema KI wurde schlichtweg verpennt.

Stimmen und Reaktionen zum Machtwechsel bei Apple

  • Der scheidende Apple-Chef Tim Cook in einem offiziellen Statement: „Es war das größte Privileg meines Lebens, CEO von Apple zu sein und das Vertrauen erhalten zu haben, ein so außergewöhnliches Unternehmen zu leiten. Ich liebe Apple von ganzem Herzen und bin zutiefst dankbar, mit einem Team aus so genialen, innovativen, kreativen und engagierten Menschen zusammenzuarbeiten, die sich unermüdlich dafür eingesetzt haben, das Leben unserer Kunden zu bereichern und die besten Produkte und Dienstleistungen der Welt zu entwickeln.“
  • John Ternus, designierter Cook‑Nachfolger und Apple‑CEO, ergänzte: „Ich bin zutiefst dankbar für diese Gelegenheit, Apples Mission weiterzuführen. Da ich fast meine gesamte Karriere bei Apple verbracht habe, hatte ich das Glück, unter Steve Jobs zu arbeiten und Tim Cook als meinen Mentor zu haben. (…) Ich blicke voller Optimismus auf das, was wir in den kommenden Jahren erreichen können, und ich bin sehr glücklich darüber, dass die talentiertesten Menschen der Welt hier bei Apple und entschlossen sind, Teil von etwas zu sein, das größer ist als jeder Einzelne von uns.“
  • Unmittelbar nach der Verkündung folgten prompt die ersten Reaktionen zahlreicher großer Tech‑Bosse. OpenAI‑Chef Sam Altman in einem Beitrag auf X (ehemals Twitter): „Tim Cook ist eine Legende. Ich bin sehr dankbar für alles, was er geleistet hat, und ich bin Apple sehr dankbar.“ Palmer Luckey, Gründer von Oculus VR, schrieb ebenfalls auf X: „RIP Tim Apple“ – eine Anspielung auf einen Vorfall im Weißen Haus im Jahr 2019. US‑Präsident Donald Trump sprach den iPhone‑Chef in seiner ersten Amtszeit damals versehentlich als „Tim Apple“ an.

KI, China und Trump: Was John Ternus jetzt liefern muss

Ähnlich wie Tim Cook ist auch John Ternus kein Visionär, sondern fast schon ein Mensch gewordenes Apple‑Produkt. Beide waren mindestens ein Vierteljahrhundert beim iPhone‑Konzern tätig und sind damit mit einem System und einer Logistik aufgewachsen, die kein anderer so geprägt hat wie Steve Jobs.

Dass Ternus praktisch die gesamte moderne Apple‑Hardware mitgeprägt hat, macht ihn nicht nur zu einem logischen, sondern auch zu einem konsequenten Nachfolger von Cook. Zugegeben: Beide agierten weitaus zurückhaltender, analytischer und weniger öffentlichkeitswirksam als Steve Apple. Doch genau diese Ähnlichkeit dürfte kein Zufall sein, sondern Teil der Übergabephilosophie.

Emotionslos ist Ternus aber keineswegs, sondern eher jemand, der Entscheidungen im Hintergrund durchsetzt, statt sie öffentlich auszurufen. Seine größte Herausforderung trägt indes zwei Buchstaben: KI. Denn Apple muss seinen Sprachassistenten Siri neu denken und gleichzeitig seine strikten Datenschutzversprechen halten.

Lieferkette stellen eine weitere Herausforderung dar. Denn Apple hat durchaus eine produktionsbedingte Abhängigkeit von China entwickelt. Sollte die US-Regierung neue Zölle gegen China verhängen, muss John Ternus bedeutende Entscheidungen treffen. Generell stellt sich auch die Frage nach dem Umgang mit der Regierung und speziell mit US-Präsident Donald Trump.

Parallel stehen große Hardware‑Fragen im Raum: ein mögliches faltbares iPhone, neue KI‑getriebene Geräte und die Frage, ob Apple erneut eine Produktkategorie definieren kann, statt nur zu optimieren. Sprich: Wird John Ternus weiterhin erfolgreich verwalten oder auch überraschen?

Auch interessant: 

Der Beitrag Die 3 großen Aufgaben, die der neue Apple-Chef jetzt lösen muss erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Brauchen wir noch ChatGPT? 4 KI-Chatbots aus Europa im Überblick

22. April 2026 um 05:45

Der Beitrag Brauchen wir noch ChatGPT? 4 KI-Chatbots aus Europa im Überblick erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI-Chatbots Europa ChatGPT-Alternativen

Immer mehr EU-Bürger suchen nach Alternativen zu ChatGPT. Nicht nur wegen des Datenschutzes, sondern auch wegen wachsender politischer Spannungen mit den USA. Die gute Nachricht: Europa hat inzwischen eigene KI-Modelle hervorgebracht, die technisch mithalten können. 

Über Jahrzehnte hinweg war die Abhängigkeit Europas von amerikanischer Technologie akzeptiert und bildete das Fundament unserer modernen IT-Infrastruktur. Doch neben der in den letzten Jahren gewachsenen Abneigung gegen digitale Services aus China werden inzwischen auch Produkte aus den Vereinigten Staaten in Frage gestellt.

Unternehmen wie Apple, Microsoft, Amazon, Google, OpenAI und Meta haben nicht nur eine enorme Marktmacht, sondern nutzen diese auch aus – teilweise mit wettbewerbswidrigen Praktiken. Viele Nutzer hegen zudem Bedenken, dass sensible Daten in den Händen von US-Unternehmen nicht gut aufgehoben sind.

Seit dem erneuten Amtsantritt von US-Präsident Donald Trump hat das Thema wieder an Bedeutung gewonnen, da sich zunehmend die Frage stellt, ob die USA noch ein verlässlicher Partner für Europa sind. Trumps außen- und handelspolitische Entscheidungen wie seine Zollpolitik nähren zumindest die Zweifel.

Warum Chatbots aus Europa an Bedeutung gewinnen

Kritiker sehen in den USA eine immer engere Verflechtung von Politik und Wirtschaft, denn Trump scheint mit vielen Tech-CEOs zu kooperieren. Geld und Fortschritt stehen an erstere Stelle, Nutzerinteressen und Datenschutz müssen hinten anstehen. Zum Glück hat Europa in den letzten Jahren technologisch deutlich aufgeholt.

Viele Alternativen „Made in Europe“ sehen sich als Gegenmodell zu amerikanischen Technologien. Die Anbieter setzen häufig auf Nachhaltigkeit, Datenschutz und klare Nutzungsbedingungen. Deshalb präsentieren wir an dieser Stelle vier Chatbots aus Europa. Zuvor haben wir uns bereits Office-Anwendungen und Zahlungsanbieter angesehen.

1. Le Chat: Was kann Europas schnellster Chatbot?

Le Chat vom Pariser Unternehmen Mistral AI ist ein leistungsstarker Allrounder, der sich in kürzester Zeit als ernsthafte europäische Alternative etabliert hat. Mistral AI verfolgt einen Open-Source-Ansatz. Das bedeutet nicht nur Transparenz für die Community, sondern ermöglicht es Entwicklern weltweit, die verschiedenen Modelle anzupassen und sicher in eigene Produkte zu integrieren. Technisch gehört Le Chat mit Antwortzeiten von bis zu 1.000 Wörtern pro Sekunde zu den schnellsten KIs auf dem Markt. Das Tool beherrscht mehrere Sprachen und bietet Zugriff auf Live-Daten aus dem Internet. Dank einer Kooperation mit dem Freiburger Startup Black Forest Labs ist auch die Generierung hochwertiger Bilder direkt im Chat möglich. Die Basisversion ist kostenlos zugänglich, und die Pro-Version mit zusätzlichen Kapazitäten und einer noch schnelleren Verarbeitungszeit gibt es für rund 15 Euro im Monat.

2. Lumo von Proton: Der Chatbot, der keine Daten speichert

Das von Proton entwickelte Lumo verspricht eine sichere Kommunikation. Nutzer werden von der Schweizer KI nicht als Datenquelle ausgebeutet, und gespeicherte Gespräche können nur auf dem eigenen Gerät gelesen werden. Selbst Proton hat keinen Zugriff auf die Daten. Lumo wird von optimierten Open-Source-Modellen angetrieben und verzichtet optional auf eine Online-Recherche, um die Privatsphäre zu maximieren. Zudem ist der Quellcode öffentlich einsehbar, wodurch Tracking oder heimliches Training mit Nutzerdaten ausgeschlossen werden können. Die Infrastruktur steht komplett in Europa, was die Einhaltung der DSGVO garantiert. Lumo ist in einer Gratis-Version verfügbar, der Plus-Plan für etwa 10 bis 13 Euro monatlich ermöglicht unbegrenzte Chats und den Upload großer Datenmengen.

3. Aleph Alpha: Warum Behörden auf diese KI setzen

Während andere KI-Modelle oft halluzinieren, setzt das Heidelberger Unternehmen Aleph Alpha mit seinen Modellen Luminous und Pharia auf maximale Transparenz. Nutzer können sich auf Knopfdruck anzeigen lassen, auf welchen konkreten Textstellen in den Quellen eine Antwort basiert. Das macht den Bot zu einem idealen Werkzeug für Behörden, Anwaltskanzleien und Industriebetriebe, die sich keine Fehler erlauben können. Der Fokus liegt auf der Datenhoheit und europäischen Sicherheitsstandards. Unternehmen können die KI-Agenten nahtlos in ihre eigenen Systeme integrieren, ohne dass sensible Daten nach außen dringen.

4. Kyutai: So funktioniert Europas erstes natives Sprachmodell

Das französische Unternehmen Kyutai bietet Modelle, die es mit den Sprachfunktionen von ChatGPT und Co. aufnehmen können. Mit der KI Moshi hat das Forschungslabor das erste native Sprachmodell aus Europa entwickelt. Im Gegensatz zu herkömmlichen Bots, die Text erst in Sprache umwandeln müssen, „denkt“ Moshi, während es spricht. Das führt zu niedrigen Latenzen und einer natürlichen Gesprächsdynamik. Moshi kann Emotionen in Echtzeit verstehen und imitieren. Ein weiteres Modell von Kyutai ist Hibiki, das Simultanübersetzung in Echtzeit bietet. Da Kyutai auf „Open-Science“ setzt, ist die Technologie besonders in der Entwickler-Szene beliebt.

Fazit: Chatbots aus Europa

Die Auswahl an europäischen Chatbots ist inzwischen recht vielfältig. Wer einen alltagstauglichen Assistenten mit Fokus auf Transparenz sucht, ist bei Le Chat bestens aufgehoben. Die KI ist momentan das Vorzeigeprodukt der EU. Für Privatanwender, bei denen der Schutz ihrer persönlichen Daten ganz oben steht, ist Lumo von Proton eine gute Wahl. Unternehmen und staatliche Institutionen, die auf Verlässlichkeit und Transparenz angewiesen sind, finden in Aleph Alpha den idealen Partner. Und die Modelle von Kyutai bieten in Sachen Sprach-Features echte Innovationen.

Auch interessant: 

Der Beitrag Brauchen wir noch ChatGPT? 4 KI-Chatbots aus Europa im Überblick erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Neuer Apple-Chef: Wer ist eigentlich John Ternus?

21. April 2026 um 20:20

Der Beitrag Neuer Apple-Chef: Wer ist eigentlich John Ternus? erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Wer ist John Ternus Apple Chef neuer CEO

John Ternus wird der neue Apple-Chef. Doch wer ist eigentlich der Mann, der seit 25 Jahren im Apple-Universum seine Kreise zieht? Wir aktivieren die iPhone-Taschenlampe und richten die Kamera auf seine Ausbildung, Karriere und Zukunft.

Noch wird er offiziell als Senior Vice President für die Hardware-Entwicklung gelistet. Doch die Personalie John Ternus verändert sich bei Apple zum 1. September 2026 maßgeblich. Den Konzern und seine Produkte kennt er gut, denn Ternus ist seit 25 Jahren bei Apple. Die neue Aufgabe ist aber mehr als nur eine unternehmensinterne Romanze – sie hat klare Herausforderungen.

John Ternus wird Chief Executive Officer bei Apple

Ganz überraschend ist es nicht, dass John Ternus den CEO-Posten bei Apple übernehmen wird. Dahingehend hat der Gerüchtekessel schon ordentlich gebrodelt. Aber eine Ära endet definitiv – oder wird zumindest verlagert, denn Tim Cook macht als Vorstandsvorsitzender bei Apple weiter.

Um Cook soll es hier aber nicht gehen. Wir schauen genauer auf das Leben von John Ternus – vor allem im beruflichen Kontext. Was hat der Tech-Spezialist vor Apple gemacht, seit wann ernährt er sich von Äpfeln und welche Herausforderungen erwarten ihn zukünftig in Cupertino?

Vom VR-Entwickler zum Apple-Ingenieur: Wer ist John Ternus?

John Ternus hat Ingenieurwissenschaften und Maschinenbau an der University of Pennsylvania studiert. Anschließend arbeitete er bei Virtual Research Systems im VR-Sektor und beschäftigte sich mit Headsets. Ternus war und ist ein Produktmensch – das sollte Apple-Fans freuen.

Sein Abschlussprojekt an der Uni war eine mechanische Hilfe für Querschnittsgelähmte, die mittels Kopfbewegungen gesteuert wird. Technisch ausgefeilt und mit einem präzisen Nutzen – etwas, wofür auch Apple-Produkte stehen.

Er verkörpert nicht den schillernden Chef, ist nicht der lauteste Leader. Aber er gilt als verlässlicher und disziplinierter Topmanager. John Ternus ist ein Macher aus dem inneren Kreis, der sich bestens mit den Geräten von Apple auskennt, weil er selbst jahrelang an der Entwicklung beteiligt war – und so Umsätze in Milliardenhöhe mitgeprägt hat.

Seine Laufbahn bei Apple

Inzwischen ist John Ternus 50 Jahre alt. Bei Apple ist er seit 2001 angestellt. Irgendwie erscheint alles wie aus dem Karrierebilderbuch: runder Geburtstag, 25 Jahre Firmenzugehörigkeit – vielleicht die perfekte Zeit, um den wichtigsten Berufsschritt zu gehen.

Das Cinema Display war das erste Apple-Projekt von Ternus. Im Jahr 2013 avancierte er zum Vice President of Hardware Engineering. Spätestens seitdem gehen alle Produkte auch durch seine Denke und Hände. Als sich Apple von Intel löst und eigene Chips designt, ist Ternus ein entscheidender Faktor.

2021 übernimmt John Ternus die Rolle, die er aktuell noch innehat. Zuletzt trat er auch immer häufiger als Präsentator bei Apple-Events auf – beispielsweise, um das iPhone Air vorzustellen. Gerade diese Auftritte interpretierten viele als klares Signal für die Cook-Nachfolge.

Dass er sich über die Entwicklung hinaus auch mit Produktionsabläufen auskennt, war sicherlich ein springender Punkt für die Entscheidung, ihn als kommenden CEO zu besetzen. Seine vielen Reisen zu Fertigungspartnern in Asien könnten sich bezahlt machen – immerhin hat Cook das operative Geschäft mit seinem Lieferkettenfokus perfektioniert.

China, KI und Trump: Welche Probleme muss Ternus lösen?

Asien und die Lieferkette sind gute Stichwörter. Denn Apple hat durchaus eine produktionsbedingte Abhängigkeit von China entwickelt – die meisten iPhones entstehen bei Foxconn. Patrick McGee von der New York Times sagte gegenüber der ARD, dass es „keinen Ort auf der Welt [gebe], wo Apple in dieser Qualität, dieser Menge und zu diesem Preis produzieren könnte – außer in China.“

Sollte die US-Regierung neue Zölle gegen China verhängen, muss Apple bedeutende Entscheidungen treffen – genauer gesagt John Ternus. Generell stellt sich die Frage nach dem Umgang mit der Regierung und speziell mit US-Präsident Donald Trump. Eine Geste von Cook war unlängst stark in der Kritik. Welche Position wird Ternus hier einnehmen?

Künstliche Intelligenz ist ein weiteres Thema, das zahlreiche Veränderungen mit sich bringt, auf die auch Apple reagieren muss. Bislang hat sich das Unternehmen hinsichtlich KI aber eher abwartend gezeigt – und wenig konkurrenzfähig. Ein „gutes“ Beispiel ist Siri. Insgesamt gibt es bei der Apple Intelligence noch viel Nachholbedarf.

Cook bezeichnet Ternus als einen „Visionär, dessen Beiträge für Apple in den letzten 25 Jahren bereits unzählbar sind.“ Er habe „den Verstand eines Ingenieurs, die Seele eines Innovators und das Herz, um integer und ehrenhaft zu führen.“ Ab September liegt es am neuen Apple-CEO, genau das unter Beweis zu stellen.

Auch interessant:

Der Beitrag Neuer Apple-Chef: Wer ist eigentlich John Ternus? erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

❌