Lese-Ansicht

Neuer Apple-Chef: Wer ist eigentlich John Ternus?

Der Beitrag Neuer Apple-Chef: Wer ist eigentlich John Ternus? erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Wer ist John Ternus Apple Chef neuer CEO

John Ternus wird der neue Apple-Chef. Doch wer ist eigentlich der Mann, der seit 25 Jahren im Apple-Universum seine Kreise zieht? Wir aktivieren die iPhone-Taschenlampe und richten die Kamera auf seine Ausbildung, Karriere und Zukunft.

Noch wird er offiziell als Senior Vice President für die Hardware-Entwicklung gelistet. Doch die Personalie John Ternus verändert sich bei Apple zum 1. September 2026 maßgeblich. Den Konzern und seine Produkte kennt er gut, denn Ternus ist seit 25 Jahren bei Apple. Die neue Aufgabe ist aber mehr als nur eine unternehmensinterne Romanze – sie hat klare Herausforderungen.

John Ternus wird Chief Executive Officer bei Apple

Ganz überraschend ist es nicht, dass John Ternus den CEO-Posten bei Apple übernehmen wird. Dahingehend hat der Gerüchtekessel schon ordentlich gebrodelt. Aber eine Ära endet definitiv – oder wird zumindest verlagert, denn Tim Cook macht als Vorstandsvorsitzender bei Apple weiter.

Um Cook soll es hier aber nicht gehen. Wir schauen genauer auf das Leben von John Ternus – vor allem im beruflichen Kontext. Was hat der Tech-Spezialist vor Apple gemacht, seit wann ernährt er sich von Äpfeln und welche Herausforderungen erwarten ihn zukünftig in Cupertino?

Vom VR-Entwickler zum Apple-Ingenieur: Wer ist John Ternus?

John Ternus hat Ingenieurwissenschaften und Maschinenbau an der University of Pennsylvania studiert. Anschließend arbeitete er bei Virtual Research Systems im VR-Sektor und beschäftigte sich mit Headsets. Ternus war und ist ein Produktmensch – das sollte Apple-Fans freuen.

Sein Abschlussprojekt an der Uni war eine mechanische Hilfe für Querschnittsgelähmte, die mittels Kopfbewegungen gesteuert wird. Technisch ausgefeilt und mit einem präzisen Nutzen – etwas, wofür auch Apple-Produkte stehen.

Er verkörpert nicht den schillernden Chef, ist nicht der lauteste Leader. Aber er gilt als verlässlicher und disziplinierter Topmanager. John Ternus ist ein Macher aus dem inneren Kreis, der sich bestens mit den Geräten von Apple auskennt, weil er selbst jahrelang an der Entwicklung beteiligt war – und so Umsätze in Milliardenhöhe mitgeprägt hat.

Seine Laufbahn bei Apple

Inzwischen ist John Ternus 50 Jahre alt. Bei Apple ist er seit 2001 angestellt. Irgendwie erscheint alles wie aus dem Karrierebilderbuch: runder Geburtstag, 25 Jahre Firmenzugehörigkeit – vielleicht die perfekte Zeit, um den wichtigsten Berufsschritt zu gehen.

Das Cinema Display war das erste Apple-Projekt von Ternus. Im Jahr 2013 avancierte er zum Vice President of Hardware Engineering. Spätestens seitdem gehen alle Produkte auch durch seine Denke und Hände. Als sich Apple von Intel löst und eigene Chips designt, ist Ternus ein entscheidender Faktor.

2021 übernimmt John Ternus die Rolle, die er aktuell noch innehat. Zuletzt trat er auch immer häufiger als Präsentator bei Apple-Events auf – beispielsweise, um das iPhone Air vorzustellen. Gerade diese Auftritte interpretierten viele als klares Signal für die Cook-Nachfolge.

Dass er sich über die Entwicklung hinaus auch mit Produktionsabläufen auskennt, war sicherlich ein springender Punkt für die Entscheidung, ihn als kommenden CEO zu besetzen. Seine vielen Reisen zu Fertigungspartnern in Asien könnten sich bezahlt machen – immerhin hat Cook das operative Geschäft mit seinem Lieferkettenfokus perfektioniert.

China, KI und Trump: Welche Probleme muss Ternus lösen?

Asien und die Lieferkette sind gute Stichwörter. Denn Apple hat durchaus eine produktionsbedingte Abhängigkeit von China entwickelt – die meisten iPhones entstehen bei Foxconn. Patrick McGee von der New York Times sagte gegenüber der ARD, dass es „keinen Ort auf der Welt [gebe], wo Apple in dieser Qualität, dieser Menge und zu diesem Preis produzieren könnte – außer in China.“

Sollte die US-Regierung neue Zölle gegen China verhängen, muss Apple bedeutende Entscheidungen treffen – genauer gesagt John Ternus. Generell stellt sich die Frage nach dem Umgang mit der Regierung und speziell mit US-Präsident Donald Trump. Eine Geste von Cook war unlängst stark in der Kritik. Welche Position wird Ternus hier einnehmen?

Künstliche Intelligenz ist ein weiteres Thema, das zahlreiche Veränderungen mit sich bringt, auf die auch Apple reagieren muss. Bislang hat sich das Unternehmen hinsichtlich KI aber eher abwartend gezeigt – und wenig konkurrenzfähig. Ein „gutes“ Beispiel ist Siri. Insgesamt gibt es bei der Apple Intelligence noch viel Nachholbedarf.

Cook bezeichnet Ternus als einen „Visionär, dessen Beiträge für Apple in den letzten 25 Jahren bereits unzählbar sind.“ Er habe „den Verstand eines Ingenieurs, die Seele eines Innovators und das Herz, um integer und ehrenhaft zu führen.“ Ab September liegt es am neuen Apple-CEO, genau das unter Beweis zu stellen.

Auch interessant:

Der Beitrag Neuer Apple-Chef: Wer ist eigentlich John Ternus? erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Erneuerbare schlagen Kernkraft – selbst mit Speicher und Netzausbau

Der Beitrag Erneuerbare schlagen Kernkraft – selbst mit Speicher und Netzausbau erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Erneuerbare Energien Netzausbau a günstigsten Speicher

Atomkraft oder Erneuerbare: Was ist wirklich günstiger, wenn man alle Kosten einrechnet? Forscher der Universität Aalborg haben genau das durchgerechnet und dabei Speicher, Netzausbau und Wasserstoff-Elektrolyse berücksichtigt.

Eine intelligente Kombination verschiedener Energiequellen hat unter Berücksichtigung aller Kosten einen deutlichen Preisvorteil gegenüber der Kernkraft. Das ist das Ergebnis einer Studie der Universität Aalborg, die in der Fachzeitschrift Energy veröffentlicht wurde.

Die Forscher nahmen das gesamte dänische Stromnetz unter die Lupe. Die Ergebnisse können natürlich nicht eins zu eins auf andere Länder übertragen werden, liefern aber dennoch repräsentative Erkenntnisse. Denn für ihre Analyse berücksichtigten die Wissenschaftler nicht nur die reine Stromerzeugung, sondern kalkulierten auch sämtliche Systemkosten mit ein – etwa für den Netzausbau, Stromspeicher oder die Wasserstoffherstellung.

Die Forscher haben eine sogenannte systembasierte Stromgestehungskostenmetrik (SLCOE) entwickelt, die alle Kosten für die Integration einer Technik in das Energiesystem berücksichtigt. Zuvor haben Wissenschaftler bei der Berechnung von Stromgestehungskosten (LCOE) lediglich die Kosten für die Erzeugung einer Einheit Strom herangezogen.

Wie der richtige Mix den Strompreis drückt

Die Studie modelliert das derzeitige reine Stromnetz Dänemarks sowie ein zukünftiges klimaneutrales Energiesystem. Die Autoren weisen darauf hin, dass einige Schlussfolgerungen spezifisch für das Land sind. Im heutigen reinen Stromnetz sind die Systemkosten für alle Technologien hoch, wenn jede einzelne als einzige Versorgungsquelle modelliert wird.

Solarenergie weist in diesem Kontext einen kombinierten SLCOE von etwa 565 Euro pro MWh auf. Die Autoren argumentieren jedoch, dass nicht die Integration von PV an sich teuer ist, sondern jede einzelne Technologie ohne die Flexibilitätsoptionen hohe Kosten verursacht.

Kernenergie erreicht im gleichen reinen Stromszenario etwa 141 Euro pro MWh. Der kostengünstigste Mix aus Offshore-Windkraft, Solarenergie und Gas-Kombikraftwerken liegt bei etwa 66 Euro pro MWh. In einem zukünftigen klimaneutralen integrierten System, das den zentralen Vergleich der Studie bildet, liegt der SLCOE der Kernenergie bei etwa 100 Euro pro MWh. Der kostengünstigste Mix aus Offshore-Windkraft und PV erreicht etwa 46 Euro pro MWh.

Die Stromgestehungskosten sind also 53 Prozent günstiger als bei einem Atomkraftwerk. Offshore-Windkraft allein erreicht ebenfalls etwa 46 Euro pro MWh. Die Onshore-Windkraft liegt wiederum bei 106 Euro pro MWh, während die Solarenergie als eigenständige Technologie etwa 178 Euro pro MWh kostet. Ihre Kosten würden aber stark sinken, wenn sie mit Windkraft kombiniert wird.

10 Milliarden Euro pro Reaktor: Warum Atomkraft so teuer ist

Die Wissenschaftler rechneten bei der Atomkraft mit hohen Investitionen von 10.000 Euro je Kilowatt Leistung. Ein Reaktor mit einer Kapazität von einem Gigawatt würde demnach rund zehn Milliarden Euro an reinen Installationskosten verursachen. Die Zahlen spiegeln die realen Ausgaben für aktuelle europäische Bauvorhaben im Bereich der Kernenergie wider.

Die Autoren ließen die Entsorgungskosten für den atomaren Abfall in ihrer Kalkulation bewusst weg. Sie warnten jedoch davor, dass die Baukosten für neue Kraftwerke zuletzt stiegen, während Erneuerbare immer günstiger wurden. Ohne die Berücksichtigung der Endlagerung bliebe die Atomkraft somit bereits im günstigsten Fall unwirtschaftlich.

IEA-Prognosen schon heute überholt – Solarpreise 25 Prozent niedriger

Die Studie kritisiert zudem die Kostenprognosen der Internationalen Energieagentur (IEA) als teilweise überholt. Die IEA geht für das Jahr 2050 von Kosten für Solaranlagen in Höhe von 480 Euro je Kilowatt aus. Tatsächlich lägen die Preise für moderne Freiflächenanlagen laut den Forschern schon heute rund 25 Prozent unter diesem vorhergesagten Wert.

Unabhängig von der Erzeugungsart könnten die Kosten sinken, wenn die Flexibilität auf der Verbrauchsseite steigt. Das Team empfiehlt, die Volatilität von Wind und Sonne durch steuerbare Wärmeerzeugung und Ladeinfrastruktur auszugleichen. Solche Maßnahmen würden helfen, das gesamte Energiesystem effizienter zu gestalten und den Strompreis für die Zukunft stabil zu halten.

Auch interessant:

Der Beitrag Erneuerbare schlagen Kernkraft – selbst mit Speicher und Netzausbau erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Eurosky: Ein Account für viele Apps – ganz ohne US-Server

Der Beitrag Eurosky: Ein Account für viele Apps – ganz ohne US-Server erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Eurosky Bluesky Europa

Europa will sich digital von den USA emanzipieren. Ein neues Projekt namens Eurosky könnte dabei eine zentrale Rolle spielen. Die gemeinnützige Initiative verspricht einen zentralen Login für verschiedene Dienste wie Bluesky, speichert Nutzerdaten aber ausschließlich in Europa. Doch auch Eurosky hat noch Nachholbedarf. Eine kommentierende Analyse. 

Was ist Eurosky?

  • Eurosky ist eine europäische Initiative, die eine unabhängige Infrastruktur für digitale Medien aufbauen will. Basis des Projekts ist das sogenannte AT‑Protokoll, das auch das Netzwerk Bluesky nutzt. Eurosky verspricht Nutzern vollständige Kontrolle über ihre Daten und eine Alternative zu den Netzwerken von Big Tech, ohne selbst eine eigenständige Social‑Media‑Plattform zu sein.
  • Hinter Eurosky steckt eine gemeinnützige Organisation, die Nutzerdaten ausschließlich auf europäischen Servern und in europäischen Clouds speichern will, damit diese unter Europarecht fallen. Ziel ist es nicht nur, digitale Souveränität zu stärken, sondern eine Schnittstelle zwischen digitalen Diensten zu etablieren.
  • Nutzer können sich bei Eurosky anmelden und verschiedene kompatible Anwendungen nutzen, ohne sich jedes Mal erneut zu registrieren und ihre Daten preisgeben zu müssen. Heißt konkret: Du kannst einmalig eine digitale Identität von dir erstellen und damit auf andere Dienste (Entitäten) zugreifen. Eine Eurosky‑Identität ermöglicht eine Verbindung zum AT‑Protokoll und damit digitale Plattformen wie Bluesky und weitere Apps.

Warum Eurosky gerade jetzt eine echte Chance hat

Neu ist die Idee von Eurosky nicht. Doch: Sie war bislang kaum populär. Spätestens seit dem zweiten Amtsantritt von US‑Präsident Donald Trump erleben europäische Software‑Lösungen aber einen regelrechten Aufschwung. Die Chancen für Eurosky stehen deshalb nicht schlecht.

Vor allem im Bereich der digitalen Medien gab es bislang kaum Alternativen zu Big Tech. Die Twitter‑Alternative Bluesky hat sich zwar allmählich zu einem erfrischenden Konkurrenten entwickelt. Doch wer bislang Daten über die Plattform übermittelt hat, musste hinnehmen, dass Bilder, Texte und Nachrichten unter Umständen in den USA landen und nach dortigem Recht behandelt werden.

Das Problem: Die USA haben sich unter Trump zu einem Staat entwickelt, der zunehmend polarisiert und Daten oder digitale Dienstleistungen als Druckmittel nutzt. Eurosky könnte dem zumindest teilweise ein Ende bereiten.

Denn Daten, die im europäischen Raum bleiben, unterliegen auch europäischen Standards. Das klingt vielleicht etwas trocken, ist aber im Kern ein großes Datenschutz‑ und Privatsphärenversprechen: mehr Kontrolle sowie weniger Abhängigkeit von den Launen von Big Tech und der US‑Regierung.

Was Gründer, Nutzer und EU-Politiker sagen

  • Sebastian Vogelsang, Mitgründer von Eurosky, in einer Medienrunde: „Der soziale Teil ist von Big Tech chirurgisch entfernt worden. Die eigentliche Chance besteht darin, das Soziale in den sozialen Medien zurückzubringen. (…) Nur in einem florierenden Ökosystem für Innovationen im Bereich sozialer Netzwerke können wir die Dominanz von Meta, X, Alphabet und ByteDance ernsthaft infrage stellen.“
  • Ein Reddit‑Nutzer zeigt sich von Eurosky begeistert: „Einer der vielen Vorteile des AT‑Protokolls ist die Interoperabilität zwischen sozialen Netzwerken. Daher habe ich meinen Bluesky‑Account zu Eurosky verschoben. Alle meine Daten werden jetzt in Europa gespeichert, was ich wegen der DSGVO‑Gesetzgebung bevorzuge. Genauso können wir alle weiterhin auf einem sozialen Netzwerk aufbauen, das frei von Big Tech ist.“
  • Insgesamt 54 Abgeordnete des Europäischen Parlaments fordern parteiübergreifend in einem offenen Brief an Kommissionspräsidentin Ursula von der Leyen: „Jetzt ist der richtige Zeitpunkt, europäische Alternativen zu den marktbeherrschenden Social‑Media‑Plattformen zu fördern. Die Europäische Kommission und die europäischen Regierungen können diesen Ausbau unterstützen, indem sie private Initiativen finanziell fördern, die Innovationen im Bereich der europäischen sozialen Medien vorantreiben.“

Größte Hürde: Nutzerbasis

Die vielleicht größte Herausforderung für Eurosky ist keine rein technische, sondern eine soziale. Letztlich geht es nämlich darum, eine gewisse Nutzerbasis aufzubauen – etwa, um das Projekt zu finanzieren und aufrechtzuerhalten. Denn ohne eine ausreichende Anzahl an Nutzern hält selbst die beste Infrastruktur nicht stand.

Doch da die Marktmacht von Big Tech enorm ist, haben es alternative Anbieter stets schwer. Nutzer und App‑Entwickler gleichermaßen zu überzeugen, wird deshalb zur eigentlichen Bewährungsprobe. Hinzu kommt eine gewisse Komplexität. Was für viele Tech‑Enthusiasten zweifellos digitale Selbstermächtigung offenbart, wirkt auf viele wie ein Login zu viel.

Denn: Die Idee von Eurosky ist zwar elegant, doch ihre Vermittlung eher weniger. Mit Begriffen wie Entität, universeller Identität oder AT‑Protokoll können viele nichts anfangen. Im Gegenteil: Sie können sogar abschreckend wirken. Dabei könnte man das Grundprinzip auch ohne Fachbegriffe erklären: Mit einem Eurosky‑Account kannst du dich bei verschiedenen Diensten anmelden – ohne zusätzliche Konten und ohne Datenübermittlung in die USA.

Dennoch: Das Projekt wurde langfristig gedacht. Mit jeder neuen App wächst etwa das Ökosystem, das Schritt für Schritt unabhängiger wird. Noch hängt Eurosky teilweise am Tropf der Bluesky‑Infrastruktur, etwa bei der Moderation. Doch der Plan zur kompletten Eigenständigkeit steht – und mit ihm die Hoffnung, dass Europas digitale Zukunft nicht nur reguliert, sondern auch gestaltet wird.

Auch interessant:

Der Beitrag Eurosky: Ein Account für viele Apps – ganz ohne US-Server erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Diese Anzeichen sprechen dafür, dass ein Unternehmen einen Onlineshop benötigt

Der Beitrag Diese Anzeichen sprechen dafür, dass ein Unternehmen einen Onlineshop benötigt erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Onlineshop

Volle Auftragsbücher und eine Produktion, die auf Hochtouren läuft – was könnte sich ein Unternehmen mehr wünschen? Die Aussicht, jetzt eine Menge Geld zu investieren und einen Onlineshop zu eröffnen, erscheint vielen als unnötiges Risiko. Dabei kann es sich lohnen. Immerhin shoppen in Deutschland inzwischen mehr als 80 Prozent der 16- bis 74-jährigen im Internet.

Doch wann ist der Zeitpunkt gekommen, an dem eine Firma kaum noch am Thema E-Commerce vorbeikommt? Die folgenden Anzeichen verraten es.

Warum lohnt sich die Digitalisierung des Vertriebs überhaupt?

Für Unternehmen, die bislang auf den analogen Vertrieb setzen konnten – und damit große Erfolge feierten – hört sich ein Onlineshop nach einer Herausforderung an, der man sich nicht unbedingt stellen muss. Schließlich ist er mit hohen Risiken verbunden. 

Einerseits den Kosten für die Erstellung der passenden Website und deren Pflege. Andererseits dem Zeit- und Kostenaufwand bei möglichen Retouren. Jedes Hin- und Herschicken von Waren verbraucht schließlich Ressourcen, wie Bitkom-Hauptgeschäftsführer Dr. Bernhard Rohleder in einer 2024 veröffentlichten Studie zum Thema Online-Shopping erklärt.

Zwar stimmen diese Argumente. Jedoch muss dagegengehalten werden: Anbieter wie die Digitalagentur onacy unterstützen Unternehmen beim professionellen Einstieg ins E-Commerce. Sie entwickeln Plattformen, die einerseits Prozesse vereinfachen und andererseits Marken stärken sowie nachhaltig den Umsatz steigern können.

Und dass ein Onlineshop Unternehmen zu höheren Gewinnen verhelfen kann, zeigen zahlreiche Untersuchungen. Auch triftige Gründe sprechen dafür. Denn ein Onlineshop:

  • erhöht die Reichweite eines Unternehmens und kann dadurch eine größere Zielgruppe ansprechen
  • ist rund um die Uhr geöffnet
  • ermöglicht personalisierte Kundenerlebnisse und steigert damit die Kundenzufriedenheit

Ebenso lassen sich mit einem eigenen Onlineshop Daten über das Kundenverhalten sammeln und analysieren. Das wiederum hilft nicht nur bei Verkaufsprognosen und der Preisoptimierung. Es kann ebenfalls dazu beitragen, die Marketingeffektivität und die Kundenbindung zu stärken.

Wann empfiehlt sich der Aufbau eines Onlineshops?

Vor allem kleine und mittlere Unternehmen – sogenannte KMUs – schrecken häufig aufgrund des Kostenaufwands vor einem eigenen Onlineshop zurück. Jedoch gibt es Zeichen, die dafürsprechen, sich ins kalte E-Commerce-Wasser zu wagen:

Bestellungen per Telefon oder E-Mail werden bereits akzeptiert

Die Kunden können bereits telefonisch oder mit einer E-Mail im Unternehmen bestellen? Dann ist der Weg zum eigenen Onlineshop nicht mehr weit. Denn insbesondere ein hohes Bestellaufkommen per E-Mail zeigt: Das Interesse der Kundschaft an digitalen Vertriebsmöglichkeiten ist da.

Zudem spart ein Onlineshop Geld. Denn die Prozesskosten für die Bestellannahme und die Verarbeitung fallen bei ihm deutlich niedriger aus als beim Bestellprozess übers Telefon. 

Schließlich muss eine telefonische Order nicht nur von einem Kundenmitarbeiter angenommen werden. Meist wird sie auch händisch ins ERP-System übertragen. Das bindet menschliche Ressourcen, erhöht Fehlerquoten und verursacht unnötige Kosten.

Die verkauften Waren und Dienstleistungen sind nicht zu komplex

Zwar entwickelt sich der Onlinehandel stetig weiter. Doch für den Verkauf komplexer, für jeden Kunden einzeln zu konfigurierender Produkte reichen Standard-Onlineshops meist nicht aus. Stattdessen wird ein spezieller Produkt-Konfigurator gebraucht, dessen Entwicklung hohe Kosten verursachen kann.

Verkaufen Unternehmen jedoch „einfache“ Produkte oder Dienstleistungen, lassen sich die E-Commerce-Standards nutzen. Das bedeutet, der Shop bleibt auch für potenzielle Kunden übersichtlich, unkompliziert nutzbar und komfortabel.

Viele Mitbewerber nutzen bereits E-Commerce-Kanäle

Eines der stärksten Argumente für einen eigenen Onlineshop lautet, dass die meisten Mitbewerber bereits einen solchen betreiben. Denn das bedeutet einerseits, dass genug Kundeninteresse am Online-Shopping in der jeweiligen Branche besteht. 

Andererseits weisen vor allem professionell aufgebaute Onlineshops der Konkurrenz auf die hohe Erfolgswahrscheinlichkeit beim E-Commerce hin. Schließlich lohnt es sich nur dann, viel Aufwand in die Online-Produktvorstellung zu stecken, wenn daraus ein merklicher Anstieg der Verkaufszahlen folgt.

Der Beitrag Diese Anzeichen sprechen dafür, dass ein Unternehmen einen Onlineshop benötigt erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Ohne Strom: Solarpanel erzeugt Wasserstoff nur aus Sonne und Wasser

Der Beitrag Ohne Strom: Solarpanel erzeugt Wasserstoff nur aus Sonne und Wasser erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

grüner Wasserstoff ohne Strom Photoreaktorpaneel

Grüner Wasserstoff ist bisher teuer und an Stromnetze gebunden. Ein Karlsruher Forscherteam will das ändern. Die KIT-Ausgründung photreon hat ein Solarpanel entwickelt, das Wasser allein mit Sonnenlicht spaltet und dabei komplett auf Elektrolyseure verzichtet. Ein erster Prototyp läuft bereits. 

Grüner Wasserstoff gilt als Schlüssel für die klimafreundliche Transformation von Industrie und Energiesystemen. Bisher ist die Herstellung jedoch oft teuer, komplex und an feste Netzinfrastrukturen gebunden. Das Ausgründungsprojekt photreon vom Karlsruher Institut für Technologie (KIT) möchte diese Abhängigkeiten auflösen.

Die Forscher haben spezielle Photoreaktorpanels entwickelt, die Wasserstoff allein aus Sonnenlicht und Wasser produzieren. Im Gegensatz zu herkömmlichen Methoden benötigt das System laut KIT keine Elektrolyseure und verbraucht keine externe elektrische Energie.

Photoreaktorpanel wandelt Sonnenlicht direkt in Wasserstoff um

Paul Kant vom Institut für Mikroverfahrenstechnik (IMVT) des KIT dazu: „Wir überspringen den Umweg über stromgebundene Elektrolyse und produzieren chemische Energie aus Sonne und Wasser“.

Hinter der Technik steckt das Prinzip der Photokatalyse, bei der Licht direkt eine chemische Reaktion auslöst, statt zunächst Strom zu erzeugen. Speziell entwickelte, lichtaktive Materialien nehmen die Energie der Sonnenstrahlung auf. Dabei versetzt das Licht Elektronen unmittelbar in einen hochenergetischen, angeregten Zustand.

Diese Ladungsträger treiben aktiv die Spaltung von Wasser (H2O) in Wasserstoff und Sauerstoff an. Laut Mitgründerin Maren Cordts ersetzt das Panel die Photovoltaik und den Elektrolyseur in einem einzigen Prozessschritt. Dieser integrierte Ansatz soll die Systemkomplexität und die Kosten für grünen Wasserstoff deutlich senken.

Patentierte Reaktorgeometrie für grünen Wasserstoff

Das Projekt nutzt ein vom KIT zum Patent angemeldetes Design der Reaktorgeometrie. Die Geometrie sorgt dafür, dass das Licht den Photokatalysator effizient erreicht und die chemische Reaktion antreibt. Erst durch diese Führung kann die chemische Wasserspaltung effizient vollzogen werden.

Für eine hohe Effizienz müssen Lichttransport, Reaktion und der Abtransport der Produkte perfekt ineinandergreifen. Die Forscher legten die Geometrie des Reaktors exakt auf diese Anforderungen aus. Ein Prototyp bewies die erfolgreiche Wasserstoffproduktion bereits im Ein-Quadratmeter-Maßstab.

Die Panels bestehen aus kostengünstigen Materialien, um eine spätere Massenproduktion zu ermöglichen. Dank des modularen Ansatzes lassen sie sich zu größeren Flächen verschalten. So könnten künftig sowohl kleine Dachanlagen als auch riesige Wasserstoffsolarparks entstehen.

Für welche Branchen sich eine dezentrale Produktion lohnt

Viele Unternehmen scheiterten bisher oft an den hohen Kosten oder der komplizierten Logistik bei der Wasserstoffversorgung. Firmen aus der Spezialchemie, der Lebensmittelindustrie oder der Metallverarbeitung könnten ihren Bedarf mit der neuen Technik künftig direkt am eigenen Fabrikstandort decken.

Maren Cordts vom IMVT dazu: „Gerade dort, wo weder Stromnetze noch eine Anbindung an ein Wasserstoffnetz vorhanden sind, eröffnet unsere Technologie neue Spielräume für die lokale Erzeugung.“ Laut den Entwicklern von photreon wäre zudem eine industrielle Erzeugung in sonnenreichen Regionen für den internationalen Markt denkbar.

Auch interessant:

Der Beitrag Ohne Strom: Solarpanel erzeugt Wasserstoff nur aus Sonne und Wasser erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Blitzer-Hochburgen: Köln hat die meisten Blitzer, liegt aber nicht vorn

Der Beitrag Blitzer-Hochburgen: Köln hat die meisten Blitzer, liegt aber nicht vorn erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Blitzer-Hochburgen Städte meisten Blitzer Deutschland

Freiburg ist die Stadt mit der höchsten Blitzer-Dichte in Deutschland. Das zeigt eine aktuelle Auswertung. Überraschend: Köln hat zwar die meisten fest installierten Geräte, landet im Gesamtranking aber nur auf Platz zehn. Wir zeigen dir die zehn Städte, in denen du besonders aufs Tempo achten solltest.

Wird man geblitzt, ist das schon mal ärgerlich genug. Noch ärgerlicher ist es, wenn es dann auch noch teuer wird oder gar ein Fahrverbot droht. So manches Mal nimmt man die Blitzer im Straßenverkehr gar nicht unbedingt wahr. Und das Tempolimit hat man unter Umständen auch nicht immer im Blick, auch wenn dies natürlich generell stets so sein sollte. Doch in manchen deutschen Städten finden sich zudem auch eine Vielzahl an Blitzern wieder – in anderen Gegenden sind es vergleichsweise deutlich weniger.

Die Webseite allright.de hat aktuell ausgewertet, in welchen deutschen Städten die meisten Blitzer stehen. Dabei gibt es mit Köln wohl den absoluten Spitzenreiter, was fest installierte Blitzer angeht. Ganze 57 Stück stehen davon in der Stadt. Doch zusammen mit mobilen Blitzern ist Köln im Durchschnitt nicht mehr führend. Dafür gibt es durchaus Überraschungen und Städte, in denen man so viele Blitzer wohl nicht erwarten würde.

Die Städte mit den meisten Blitzern

Großstadt oder ländliche Gegend? Wo stehen in Deutschland die meisten Blitzer? Genau darauf liefert unser aktuelles Ranking die passenden Antworten und zeigt dir somit ganz genau, wo du die Tempolimits lieber ganz besonders berücksichtigen solltest:

Platz 10: Köln – 57 feste Blitzer, trotzdem nur Schlussplatz

Köln belegt im Ranking der Städte mit den meisten Blitzern den zehnten Platz und schafft es somit gerade eben ins Ranking. 57 feste Blitzer gibt es in Köln und im Schnitt findet man in der Stadt 11,7 mobile und teilstationäre Blitzer zur gleichen Zeit. Auf 1.000 Hektar Straßenfläche kommen in Köln allerdings „nur“ 16,81 Blitzer (mobil und fest), sodass andere Städte im Endeffekt noch mehr Blitzer aufweisen.

Der Beitrag Blitzer-Hochburgen: Köln hat die meisten Blitzer, liegt aber nicht vorn erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

EcoFlow Stream Ultra: Neue Bundle-Deals schon ab 699 Euro sichern

Der Beitrag EcoFlow Stream Ultra: Neue Bundle-Deals schon ab 699 Euro sichern erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

EcoFlow Stream Ultra Bundles

Powerness stellt neue Bundle-Deals rund um den EcoFlow Stream Ultra vor – inklusive attraktiver Multi-Pack-Angebote und kompletter PV-Sets mit JA Solar. Besonders wichtig: Dank der deutschlandweiten Selbstabholung an acht Standorten können Nutzer erhebliche Zusatzkosten einsparen und ihre Bestellung schneller erhalten. Wir zeigen dir die besten Deals.

Der EcoFlow Stream Ultra hat sich als einer der vielseitigsten All-in-One-Speicher für moderne Balkonkraftwerke etabliert. Powerness erweitert das Angebot nun erstmals um spezielle Multi-Pack-Pakete und komplette Kombi-Sets mit bifazialen Hochleistungsmodulen. Im Mittelpunkt steht dabei nicht eine Rabattlogik pro Stück, sondern die klare Gesamtersparnis im Vergleich zu Einzelkäufen. Nutzer profitieren zusätzlich von der Möglichkeit der Selbstabholung, wodurch das Preis-Leistungs-Verhältnis noch einmal deutlich steigt.

Mit acht strategisch verteilten Abholpunkten – in Mönchengladbach, Weinheim, Berlin, Hamburg, Tuningen, Riegelsberg, München und Westerkappeln – setzt Powerness auf Kundennähe, kurze Wege und maximale Flexibilität. Die Standorte ermöglichen schnelle Abholungstermine und vermeiden Lieferengpässe, die sich derzeit im PV-Markt häufiger zeigen. Gleichzeitig sparen Nutzer Versandkosten und können ihr System praktisch ohne Wartezeit installieren.

Neue Multi-Pack-Bundles: Hohe Gesamtersparnisse gegenüber Einzelkäufen

Die neue Bundle-Strategie von Powerness basiert nicht darauf, den Preis pro Gerät kontinuierlich zu senken. Stattdessen konzentriert sich das Unternehmen bewusst auf den Gesamtvorteil für Nutzer, die mehrere Speichergeräte benötigen – etwa für größere Balkonkraftwerke, Garagen-Installationen, Gartenhäuser oder zur Kopplung mehrerer PV-Stränge.

Der EcoFlow Stream Ultra ist ideal geeignet, um flexible Speicherlösungen für Setup-Erweiterungen zu schaffen. Viele Privathaushalte betreiben heute zwei oder mehr PV-Module und erweitern ihre Systeme Schritt für Schritt. Entsprechend sind Multi-Packs eine logische Weiterentwicklung des Portfolios.

Besonders hervorzuheben ist das 2er-Bundle: Würde man zwei EcoFlow Stream Ultra einzeln kaufen, würden bei Selbstabholung 1.138 Euro anfallen. Das Bundle kostet hingegen nur 959 Euro – ein direkter Vorteil von 179 Euro, ohne dass Nutzer auf Funktionen verzichten.

  • 2× EcoFlow Stream Ultra
    ab 959 Euro (Abholung) / 1.099 Euro (Versand)
    Zum 2er-Bundle
  • 3× EcoFlow Stream Ultra
    ab 1.459 Euro (Abholung) / 1.649 Euro (Versand)
    Zum 3er-Bundle
  • 4× EcoFlow Stream Ultra
    ab 1.959 Euro (Abholung) / 2.199 Euro (Versand)
    Zum 4er-Bundle

EcoFlow Multi‑Pack-Angebote entdecken

Warum Multi-Packs sinnvoll sind – gerade für moderne Balkonkraftwerke

Balkonkraftwerke sind längst mehr als reine Einspeisungsanlagen. Viele Haushalte setzen auf Speicher, um Strom zeitversetzt zu nutzen und ihre Autarkie zu erhöhen. Wer mehrere Module betreibt oder verschiedene Gebäudeabschnitte versorgen möchte, braucht oft mehr als nur ein Speichersystem.

Multi-Pack-Bundles wie von Powerness bieten folgende Vorteile:

  • Erweiterbare Systeme – ideal für Nutzer, die ihre PV‑Anlage nach und nach ausbauen.
  • Unabhängige Nutzung – mehrere Speicher lassen sich flexibel in Gartenhäusern, Garagen oder an Nebenstromkreisen einsetzen.
  • Keine technischen Nachteile – alle Bundles enthalten vollwertige EcoFlow Stream Ultra Einheiten.
  • Kürzere Installationszeit – mehrere Stränge lassen sich gleichzeitig realisieren.

Der hohe Gesamtersparnis-Aspekt macht Multi-Packs somit nicht nur finanziell attraktiv, sondern auch praktisch für alle, die versetzt oder zeitgleich mehrere Speicher betreiben wollen.

Komplett-Sets: EcoFlow Stream Ultra + JA Solar Module

Neben den Multi-Packs bietet Powerness zwei weitere Paketlösungen an, die besonders für Nutzer interessant sind, die direkt ein vollständiges, leistungsstarkes Setup aufbauen möchten. Die Kombination aus EcoFlow Stream Ultra und vier bifazialen JA Solar Modulen zählt zu den effizientesten Paketlösungen im Privatanwenderbereich.

Die bifazialen Module nutzen direkte sowie indirekte Sonneneinstrahlung und liefern selbst bei ungünstigen Lichtverhältnissen hohe Werte. In Verbindung mit dem EcoFlow Stream Ultra entsteht so ein System, das auch an weniger sonnigen Tagen eine stabile Versorgung sicherstellt.

Technische Vorteile der JA Solar Module im Überblick

JA Solar zählt zu den größten und zuverlässigsten Modulherstellern weltweit. Die bifazialen Module der 450‑ und 500‑Watt-Klasse bieten eine hohe Flächenleistung und eignen sich besonders für Balkone, Terrassen oder Hauswände. In Kombination mit dem EcoFlow Stream Ultra entsteht ein Setup mit:

  • hoher Gesamteffizienz auch bei diffusem Licht,
  • robuster Bauweise für langlebigen Betrieb,
  • optimaler Modulspannung für Speicherlösungen,
  • verlässlicher Energieausbeute im Jahresverlauf.

Selbstabholung bei Powerness: maximale Preisvorteile und schnelle Verfügbarkeit

Ein zentraler Vorteil von Powerness ist die Möglichkeit der Selbstabholung an acht unterschiedlichen Standorten in Deutschland. Diese Strategie unterscheidet das Unternehmen klar von vielen Marktbegleitern und schafft eine Mischung aus Kostentransparenz, schneller Verfügbarkeit und persönlicher Nähe.

Die Standorte in Mönchengladbach, Weinheim, Berlin, Hamburg, Tuningen, Riegelsberg, München und Westerkappeln decken große Teile des Landes ab und bieten kurze Wege für tausende potenzielle Nutzer. Der Ablauf ist dabei unkompliziert: Bestellung im Shop, Terminvereinbarung und direkte Abholung vor Ort.

Für viele Kunden sind damit folgende Vorteile verbunden:

  • keine Versandkosten,
  • keine Verzögerungen durch Paketdienste,
  • persönliche Übergabe und klare Ansprechpartner,
  • geringere Fehlerquote durch transportoptimierte Übergabe,
  • sofortige Installationsmöglichkeit.

Warum Powerness eine der attraktivsten Anlaufstellen für PV-Sets ist

Powerness kombiniert hochwertige Hardware mit einem kundenorientierten Logistikmodell. Die Produktauswahl fokussiert sich auf Geräte, die im Alltag zuverlässig funktionieren und hohen Wirkungsgrad bieten. Durch die neuen Bundles wird diese Strategie weiter ausgebaut und schafft Zugang zu Speicherlösungen, die sowohl Preisbewusstsein als auch technische Ansprüche bedienen.

Besonders die Multi-Pack-Angebote zeigen, dass Powerness nicht nur Produkte anbietet, sondern aktiv darauf achtet, wie Nutzer ihre PV‑Systeme tatsächlich aufbauen und erweitern. Die Konzentration auf Gesamtersparnisse statt auf künstliche Einzelpreis-Reduktionen schafft Transparenz und Vertrauen. Nutzer sehen sofort, wie viel sie durch ein Bundle wirklich sparen.

Fazit: Neue Sparmöglichkeiten für moderne Balkonkraftwerke

Mit den neuen EcoFlow Stream Ultra Bundles und Komplett-Sets bietet Powerness attraktive Möglichkeiten für den Ausbau der eigenen Solarstromversorgung. Die Kombination aus hoher Gesamtersparnis, flexibler Abholung und hochwertigen Komponenten macht die neuen Pakete zu einer der interessantesten Optionen für alle, die ihre Energieversorgung verbessern wollen.

Wer sein Balkonkraftwerk erweitern oder direkt ein komplettes System erwerben möchte, findet bei Powerness jetzt genau die passenden Angebote – effizient, flexibel und mit klaren Preisvorteilen.

Jetzt alle Powerness-Bundles ansehen

Der Beitrag EcoFlow Stream Ultra: Neue Bundle-Deals schon ab 699 Euro sichern erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Souveränität oder Amerikanisierung? Deutsche KI-Hoffnung DeepL am Scheideweg

Der Beitrag Souveränität oder Amerikanisierung? Deutsche KI-Hoffnung DeepL am Scheideweg erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

DeepL KI Künstliche Intelligenz Voice-to-Voice

Das Kölner KI-Unternehmen DeepL hat eine neue Funktion präsentiert, die Stimmen live übersetzen soll. Mit Voice-to-Voice will sich die deutsche KI-Hoffnung die Konkurrenz in einem umkämpften Wettbewerb vom Leib halten. Das Unternehmen stand zuletzt aber vermehrt in der Kritik. Eine kommentierende Analyse.

Was steckt hinter DeepL – und wer investiert?

  • DeepL ist ein deutsches KI-Unternehmen aus Köln, das vor allem für seinen gleichnamigen Online-Übersetzer bekannt ist. Offiziellen Angaben zufolge nutzen über 200.000 Teams und mehrere Millionen Einzelnutzer die KI-Sprachtechnologie von DeepL. Das Unternehmen wurde 2017 von CEO Jarek Kutylowski gegründet und beschäftigt laut eigenen Angaben über 1.000 Menschen. DeepL wirbt damit, der präziseste Übersetzer auf dem Markt zu sein. Einer Studie zufolge weisen vor allem Übersetzungen von Sprachaufnahmen eine höhere Qualität als Google Meet, Microsoft Teams oder Zoom auf.
  • Mittlerweile sind mit Benchmark und IVP zwei große US-Investoren bei DeepL an Bord. Das Unternehmen agiert seither deutlich globaler. Sogar ein Börsengang in den USA scheint möglich. Wie das Handelsblatt unter Berufung auf Insider berichtet, klagen Angestellte über eine „Amerikanisierung“ des Unternehmens. Auch die Geschäftszahlen würden Fragen aufwerfen. DeepL bestreitet den Bericht, will aber auch nicht über konkrete Zahlen sprechen.
  • Mit der neuen Voice-to-Voice-Funktion will DeepL künftig Spracheingaben direkt übersetzen. Heißt konkret: Gespräche sollen in verschiedenen Sprachen möglich sein, indem eine KI Stimmen live übersetzt. Das Tool soll in den kommenden Wochen und Monaten von diversen Partnern getestet werden. DeepL Voice-to-Voice ist zunächst für den Einsatz in Unternehmen gedacht, um in Meetings Sprachbarrieren zu überwinden.

Präzision statt Tempo: Die Herausforderungen für DeepL

DeepL will mit Voice-to-Voice einen Dolmetscher in Meetings und Büros bringen – zunächst allerdings über einen Umweg. Denn der Ansatz ist weitaus pragmatischer als revolutionär. Das eigens entwickelte System soll Sprache zunächst in Text umwandeln, diesen übersetzen und anschließend in Form einer anderen Sprache ausgeben.

Langfristig soll dieser Zwischenschritt zwar entfallen, aber zunächst vor allem für qualitativ hochwertige Übersetzungen sorgen, mit denen sich DeepL einen Namen gemacht hat. Die Idee: Präzision statt reinem Tempo. Wer etwa schon einmal erlebt hat, wie schnell maschinelle Übersetzungen entgleisen können, kann sich vielleicht vorstellen, dass falsch gesetzte oder übersetzte Wörter viel Schaden anrichten können.

Doch Sprache-zu-Sprache-Übersetzungen sollten möglichst auch in Echtzeit und mit einer geringen Latenz ablaufen, da zu lange Pausen die Gespräche stören und für Verwirrung sorgen können. Die eigentliche Kunst liegt deshalb nicht im Übersetzen allein, sondern in der technischen Herausforderung, die beste Balance zwischen minimaler Latenz und präzisen Ergebnissen zu finden.

Dass DeepL seine KI-Modelle selbst entwickelt, ist derweil weniger romantischer Tech-Patriotismus als knallharte Kontrolle über die eigene Technologie. Gleichzeitig entbehrt das Vorgehen von DeepL aber nicht einer gewissen Ironie. Denn ausgerechnet im Streben nach technologischer Unabhängigkeit ist das Unternehmen nicht vor den Rechenzentren globaler Cloudanbieter sowie US-Investoren gefeit.

Was Nutzer und Partner über sagen

  • Jarek Kutylowski, Gründer und CEO von DeepL, in einem Statement: „Unsere Mission war es schon immer, Sprachbarrieren abzubauen – und genau das gelingt uns jetzt auch bei einer der größten Hürden. DeepL Voice-to-Voice ermöglicht es jedem, ganz natürlich in der eigenen Sprache zu sprechen – ohne die Reibungsverluste oder Kosten, die mit Dolmetschern verbunden sind. Wir vereinen erstklassige Sprachmodelle mit unserer bewährten KI-Übersetzungstechnologie, die wir kontinuierlich weiterentwickeln. So kann der Fokus auf der Expertise liegen – nicht auf der Sprache.“
  • Geoffrey Wright, Global Solution Owner bei Mondelēz International, lässt sich von DeepL zitieren: „Bei Mondelēz geben wir uns nicht mit Langsamkeit zufrieden. Unser alter Übersetzungsprozess war wie das Fahren mit einem platten Reifen – DeepL hingegen liefert Full Service bei Tempo 160. Durch die Einbindung der KI-Sprachtechnologie bearbeiten Teams wie M&A und unsere Rechtsabteilung sensible Dokumente mit höchster Geschwindigkeit und absoluter Vertraulichkeit.“
  • Ein Reddit-Nutzer lobt: „Während Google aus dem Spanischen und Italienischen zuverlässig Schrott ins Deutsche übersetzt, produziert Deepl schon seit Jahren verständliche und brauchbare Texte. Ein großartiges Tool.“ Eine andere Nutzerin ergänzt: „Was mich freut: Es ist eine in Deutschland / EU entwickelte App, nicht aus dem Land, wo ein Spinner sein Unwesen treibt.“

Reicht  einerÜbersetzer allein?

Die Voice-to-Voice-Funktion von DeepL wirkt wie ein logischer nächster Schritt, doch auch wie einer, den auch die Konkurrenz gehen wird. Das Unternehmen liefert keine radikale Neuerfindung, sondern eine sorgfältige Weiterentwicklung des Bestehenden. Dieser pragmatische Ansatz könnte sich auszahlen, solange Qualität den Ausschlag gibt. Doch in einem Markt, in dem große Plattformen Funktionen im Monatsrhythmus nachrüsten, ist Vorsprung oft nur ein sehr kurzer Zustand.

Hinzu kommt die strategische Unschärfe jenseits des Kerngeschäfts. Denn DeepL hat auch eigene KI-Agenten angekündigt, scheint in diesem Bereich bislang aber keine großen Fortschritte zu erzielen. Stattdessen scheint das Unternehmen sich zunächst einmal wieder seinen Kernkompetenzen zu widmen.

Ob ein guter Übersetzer langfristig reicht, ist aber offen. Denn: Der Wettbewerb ist knallhart. Gleichzeitig könnte aber auch genau darin eine Chance liegen: sich nicht zu verzetteln, sondern den eigenen Anspruch gegen eine schier übermächtige Konkurrenz auszuspielen. Denn was passiert, wenn das Kerngeschäft vernachlässigt wird, hat kürzlich kein Geringerer als KI‑Platzhirsch OpenAI demonstriert.

Auch interessant:

Der Beitrag Souveränität oder Amerikanisierung? Deutsche KI-Hoffnung DeepL am Scheideweg erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Solarzaun statt Balkonkraftwerk: Mehr Eigenverbrauch dank Vertikalmontage

Der Beitrag Solarzaun statt Balkonkraftwerk: Mehr Eigenverbrauch dank Vertikalmontage erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Solarzaun Solaranlage Zaun Mauer vertikal

Balkonkraftwerke boomen. Doch ihr grösstes Problem bleibt: Sie liefern den meisten Strom mittags, wenn kaum jemand zu Hause ist. Ein österreichisches Unternehmen will das mit einer Solaranlage lösen, die direkt in den Gartenzaun eingefädelt wird. Die vertikale Ausrichtung soll Strom gezielt morgens und abends erzeugen, wenn der Verbrauch im Haushalt am höchsten ist.

Balkonkraftwerke haben in den vergangenen Jahren deutlich an Beliebtheit gewonnen. Die steckerfertigen Mini-Solaranlagen ermöglichen es inzwischen vielen Haushalten, eigenen Strom zu erzeugen und so die Energiekosten zu senken.

Einer der Treiber dieser Entwicklung sind auch regulatorische Veränderungen, wie die Anhebung der maximalen Einspeisung von 600 auf 800 Watt im Jahr 2024. Diese hatte unter anderem zur Folge, dass sich allein im Jahr 2025 die Zahl der neu installierten Anlagen im Vergleich zum Vorjahr mehr als verdoppelt hat und somit der stärkste Zubau seit 2018 verzeichnet werden konnte.

Bis Ende 2025 waren in Deutschland bereits mehr als 1,2 Millionen Balkonkraftwerke in Betrieb gemeldet. Diese finden sich oft an Balkonbrüstungen, auf Terrassen oder an Hausfassaden und ermöglichen eine vergleichsweise einfache Nutzung von Solarenergie im Alltag.

Aber auch Zäune rücken als alternative Installationsorte immer mehr in den Fokus. Die Entwicklung eines Unternehmens aus Graz setzt hier an und kombiniert dafür Sichtschutz mit integrierter Solartechnik zur Stromerzeugung.

Solarzaun dient gleichzeitig als Sichtschutz

Die Zaunsolaranlage des österreichischen Unternehmens Sunbooster ist als Ergänzung für bestehende Doppelstabmattenzäune gedacht. Denn die flexiblen PV-Module des Modells Vertical+ werden einfach in den Gartenzaun eingefädelt.

Dafür hat Sunbooster bewegliche Streifen mit integrierten PV-Modulen entwickelt. Diese können laut dem Unternehmen herkömmliche Sichtschutzbänder im Gartenzaun ersetzen und auf beiden Seiten Strom erzeugen.

Eine ältere Version der Entwicklung war nur auf eine Zaunlänge von maximal zehn Metern und eine Leistung von 800 Watt ausgelegt. Mit Vertical+ hingegen soll es laut dem Unternehmen nun möglich sein, auch Zäune mit einer Länge von 100 Metern zu verkleiden.

Dabei kommt die Anlage laut Herstellerangaben auf einen Wirkungsgrad von bis zu 92 Prozent. Bei einem Einzelsystem mit einer Länge von 2,5 Metern und 468 Wp Leistung konnten bei Messungen demnach 430 Watt erreicht werden. Inklusive Inverser und zehn Meter Anschlusskabel bietet Sunbooster ein zwei Meter langes Solarzaun-Modul für 568,70 Euro an (Stand: 13. April 2026).

Vertikale Ausrichtung bietet Vorteil gegenüber Balkonkraftwerk

Herkömmliche Balkonkraftwerke erreichen typischerweise über den Tag verteilt ihre höchste Stromproduktion zur Mittagszeit, wenn die Sonneneinstrahlung am stärksten ist. Die Erzeugung in den Morgen- und Abendstunden fällt meist deutlich geringer aus.

Das wiederum steht jedoch häufig im Gegensatz zum typischen Strombedarf in einem Haushalt. Denn dieser ist meist vor allem in den frühen Morgenstunden sowie in den Abendstunden am höchsten.

Die vertikale Ausrichtung der Anlage von Sunbooster setzt genau hier an und soll die typischen Bedarfsspitzen morgens und abends abfangen. Denn die Anlage ist so konzipiert, dass sie Sonnenenergie vor allem dann besonders effektiv aufnehmen kann, wenn die Sonne sehr tief steht.

Am besten funktioniert das laut dem Hersteller bei einer Ost-West-Ausrichtung. Es sei allerdings auch eine Ausrichtung nach Süden möglich, wenn besonders hohe Mittagserträge erzielt werden sollen. Das sei allerdings meist nur in offenen, schattenfreien Bereichen sinnvoll.

Auch interessant:

Der Beitrag Solarzaun statt Balkonkraftwerk: Mehr Eigenverbrauch dank Vertikalmontage erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

planqc: Münchner Start-up liefert Quantencomputer an den Staat

Der Beitrag planqc: Münchner Start-up liefert Quantencomputer an den Staat erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

planqc, tech, informatik, quanteninformatik, software, raumfahrt

Quantencomputer sollen die Pharmaforschung, Klimamodelle und die Finanzwelt revolutionieren. Doch bisher fehlt der Beweis, dass sie klassischen Supercomputern wirklich überlegen sind. Das Münchner Start-up planqc will das ändern. In unserem Start-up-Check schauen wir uns an, was hinter der Technologie steckt, woher das Geld kommt und wie realistisch die Pläne sind.

Start-ups: Das klingt nach Erfindergeist, Zukunftstechnologien, neuen Märkten. Doch in der Realität erweisen sich viele der Neugründungen leider oft als eine Mischung aus einer E-Commerce-Idee, planlosen Gründern und wackeligen Zukunftsaussichten.

Dabei gibt es sie durchaus: die Vordenker, die an den großen Problemen tüfteln und Geschäftsmodelle revolutionieren. Sie zu finden und vorzustellen, ist die Aufgabe des Formats „Start-up-Check“. Heute: planqc, Deep-Tech-Start-up aus dem Bereich Quantencomputing.

Wer steckt hinter planqc – und woher kommt die Expertise?

  • Branche: Quantencomputing/DeepTech
  • Gründer: Alexander Glätzle, Sebastian Blatt und Johannes Zeiher
  • Gründungsjahr: 2022
  • Geschäftsmodell: Entwicklung skalierbarer Quantenprozessoren auf Basis neutraler Atome; mittelfristig Bereitstellung von Quantencomputing as a Service über die Cloud
  • Ziel: Quantencomputer mit mehr als 1.000 Qubits, die in Chemie, Pharma, Automotive und Finanzindustrie praktische Rechenvorteile gegenüber klassischen Supercomputern liefern

Quantencomputer sollen Krebs heilen, Klimamodelle revolutionieren und die Finanzwelt neu erfinden. Wann genau das geschehen wird, bleibt jedoch meist offen.

planqc aus Garching bei München ist hier längst einen Schritt weiter und punktet mit konkreten Aufträgen, Lieferverpflichtungen und einem laufenden Zeitplan. Das 2022 als Spin-off des Max-Planck-Instituts für Quantenoptik (MPQ) und der LMU München gegründete Start-up hat sich in kurzer Zeit zu einem der wichtigsten europäischen Quantencomputing-Unternehmen entwickelt – mit einer technologischen Wette, die in der Szene zunehmend als vielversprechend gilt.

Hinter planqc stecken Wissenschaftler, die nicht erst seit gestern mit Quantensystemen arbeiten: CEO Dr. Alexander Glätzle und seine Mitgründer kommen direkt aus der Forschungsgruppe um den renommierten Physiker Immanuel Bloch am MPQ, einem der weltweit führenden Institute auf dem Gebiet der Quantenoptik. Das verleiht dem Unternehmen eine wissenschaftliche Glaubwürdigkeit, die sich nicht einfach einkaufen lässt.

Wie funktioniert ein Quantencomputer aus Licht und Atomen?

Die bekanntesten Quantencomputer, etwa von IBM oder Google, basieren auf supraleitenden Schaltkreisen und müssen bei extrem tiefen Temperaturen nahe dem absoluten Nullpunkt betrieben werden.

planqc geht einen anderen Weg. Das Unternehmen setzt auf neutrale Atome als Qubits, also die kleinsten Recheneinheiten eines Quantencomputers. Im Gegensatz zu klassischen Bits können Qubits nicht nur die Werte null oder eins annehmen, sondern auch beide Zustände gleichzeitig.

Das planqc-Prinzip: Einzelne Strontium-Atome werden in einem Vakuum mit Laserlicht eingefangen und in sogenannten optischen Gittern, einem „Kristall aus Licht“, positioniert. Jedes Atom fungiert als ein Qubit. Präzise Laserimpulse manipulieren die Quantenzustände der Atome und führen Rechenoperationen durch.

Der Abschied vom Millikelvin-Zwang

Der entscheidende Vorteil ist, dass neutrale Atome von Natur aus identisch sind. Kein Atom weicht vom nächsten ab, was bei anderen Qubit-Technologien eine erhebliche Fehlerquelle darstellt. Das führt zu langen Kohärenzzeiten, hoher Stabilität und einer Architektur, die auf über 1.000 Qubits ausgelegt ist.

Zum Vergleich: In einem Forschungsprojekt am MPQ, an dem planqc beteiligt war, wurde ein Register mit 1.200 neutralen Atomen über eine Stunde stabil betrieben. Ein Skalierungsergebnis, das in der Branche für Aufmerksamkeit gesorgt hat.

Ein weiterer Vorteil gegenüber supraleitenden Systemen: Der Betrieb ist bei nahezu Raumtemperatur möglich, zumindest im Vergleich zu den Millikelvin-Temperaturen, die Konkurrenten wie IBM benötigen. Das vereinfacht die Infrastruktur erheblich und könnte langfristig die Betriebskosten senken.

Einordnung und Mehrwert

planqc positioniert sich als Brückenbauer zwischen Grundlagenforschung und industrieller Anwendung und hat dafür konkrete Zielbranchen: Chemie und Pharma (Molekülsimulation, Wirkstoffdesign), Batterietechnologie und Climate Tech, Automotive sowie die Finanzindustrie. Erste Use Cases rund um Quantum Machine Learning für Klimasimulationen und Batterieoptimierung befinden sich bereits in der Entwicklung.

Ob und wann Quantencomputer klassischen Supercomputern in diesen Anwendungsfällen wirklich überlegen sein werden, ist die offene Frage der gesamten Branche, planqc eingeschlossen.

Der sogenannte „quantum advantage“ für industriell relevante Probleme ist bislang nirgendwo belegt. Das Unternehmen steckt, wie alle Wettbewerber, noch in der Phase, in der man Systeme baut, die diesen Nachweis irgendwann erbringen sollen.

Im europäischen Wettbewerbsumfeld hat planqc jedoch eine klare Nische: Der Fokus auf neutrale Atome unterscheidet das Unternehmen von Anbietern wie IQM (supraleitend) oder Quantinuum (Ionenfallen) und erlaubt ein „Made in Germany“-Narrativ, das bei europäischen Industriekunden Vertrauen schafft – gerade gegenüber US-amerikanischen und chinesischen Anbietern.

90 Millionen Euro und zwei Staatsaufträge: So finanziert sich planqc

planqc ist für ein vier Jahre altes Deep-Tech-Unternehmen bemerkenswert gut kapitalisiert. Die Series-A-Runde von 50 Millionen Euro (2024), angeführt von Catron Holding und dem DeepTech & Climate Fonds, ergänzt um Fördermittel des BMBF, summiert sich, inklusive öffentlicher Fördermittel, auf rund 80 bis 90 Millionen Euro Gesamtkapital.

Wichtiger noch: Das Unternehmen hat bereits konkrete öffentliche Aufträge gewonnen. Vom Deutschen Zentrum für Luft- und Raumfahrt (DLR) erhielt planqc einen Auftrag über 29 Millionen Euro zum Aufbau eines Quantencomputers in Ulm – der erste europäische Auftrag dieser Art überhaupt.

Das Leibniz-Rechenzentrum (LRZ) beauftragte das Start-up zusätzlich, einen 1.000-Qubit-Quantencomputer zu entwickeln, mit einer Zielmarke vor 2027. Beide Projekte sind keine Piloten, sondern reale Infrastrukturmaßnahmen mit konkreten Lieferverpflichtungen.

planqc ist dabei eng in das Münchner Quantenökosystem eingebettet: als erster Spin-off der Munich Quantum Valley Initiative, mit Technologiepartnern wie Menlo Systems (Lasersysteme) und ParityQC (Software/Architektur) sowie der fortlaufenden wissenschaftlichen Anbindung an das MPQ. Diese Vernetzung ist kein Marketingargument, sondern struktureller Bestandteil der Entwicklungsstrategie.

planqc: Zwischen Wissenschaftspionierarbeit und industriellem Beweis

planqc adressiert eine der technologisch anspruchsvollsten Herausforderungen der Digitalwirtschaft: den Bau von Quantencomputern, die über Forschungslabors hinaus tatsächlich industriellen Mehrwert liefern. Die neutrale-Atome-Plattform ist wissenschaftlich fundiert, gut finanziert und durch öffentliche Aufträge bereits in der Praxis verankert.

Entscheidend wird sein, ob planqc den Übergang von beeindruckenden Qubit-Zahlen zu nachweisbarem Rechenvorsprung schafft und ob die Zielbranchen bereit sind, Quantencomputing von der Roadmap in ihre tatsächliche IT-Infrastruktur zu überführen.

Gelingt das, wäre planqc gut positioniert, um als europäischer Champion in einem Markt zu bestehen, der bislang von amerikanischen Schwergewichten dominiert wird.

Auch interessant: 

Der Beitrag planqc: Münchner Start-up liefert Quantencomputer an den Staat erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Australiens Heimspeicher-Boom: Kapazität verfünffacht sich in einem Jahr

Der Beitrag Australiens Heimspeicher-Boom: Kapazität verfünffacht sich in einem Jahr erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Heimspeicher Australien Batterien Förderung

Australien hat 2025 einen Wendepunkt bei Heimspeichern erreicht: 221.000 neue Systeme, eine Verfünffachung der installierten Kapazität und fast doppelt so große Batterien pro Haushalt. Auslöser ist das staatliche „Cheaper Home Batteries Program“, das nicht nur die Nachfrage antreibt, sondern auch verändert, welche Produkte Kunden wählen. 

Die australische Branche für Energiespeicher verzeichnete im Jahr 2025 einen Zuwachs auf 221.000 installierten Heimspeichersystemen. Das entspricht einer Verdreifachung gegenüber dem Vorjahr. Mit einer neu installierten Gesamtkapazität von 4.790 Megawattstunden ist die Technologie im Massenmarkt angekommen. Inzwischen verfügen etwa 4,6 Prozent der australischen Wohnhäuser über einen eigenen Batteriespeicher.

Das australische Bertungsunternehmen SunWiz stellt in seiner Untersuchung fest, dass sich die installierte Basis in Australien rasant entwickelt. Das Analyseportal fungiert seit 2009 als Referenzquelle für Hersteller, Einzelhändler, Investoren und politische Entscheidungsträger. Die Daten des Berichts stützen sich auf eine detaillierte Auswertung der Installationszahlen pro Bundesstaat und Systemgröße. Demnach zeigt sich, dass staatliche Subventionen nicht nur die Menge erhöhen, sondern auch die Art der erworbenen Produkte beeinflussen.

Heimspeicher in Australien: Förderung verdoppelt Batteriegröße

Das Förderprogramm CHBP trieb vor allem den Erwerb größerer Speichereinheiten voran. Die durchschnittliche Kapazität eines installierten Heimspeichers kletterte im Jahr 2025 auf 21,6 Kilowattstunden. Im Vorjahr lag dieser Wert noch bei 11,8 Kilowattstunden. Haushalte nutzten die Fördermittel vorrangig, um die Speicherkapazität zu maximieren, anstatt lediglich die Gesamtausgaben für die Installation zu senken.

Die Analyse verdeutlicht, dass die Kosten pro Kilowattstunde im Vergleich zu den vorangegangenen Quartalen relativ stabil geblieben sind. Gleichzeitig stiegen die Ausgaben der Endkunden für einzelne Systeme kaum an, während die Speicherdichte der Anlagen zunahm. Batterien der Leistungsklasse zwischen 20 und 25 Kilowattstunden machten im Berichtszeitraum einen signifikanten Teil des Marktes aus.

Dieser Trend betreffe sowohl Nachrüstungen als auch Neuinstallationen in Verbindung mit Photovoltaik-Anlagen. SunWiz schreibt dazu: „Das Programm „Cheaper Home Batteries“ hat nicht nur den Absatz angekurbelt – es hat auch grundlegend verändert, was die Australier kaufen.“

Nicht nur Heimspeicher: Warum Australiens Unternehmen jetzt mitziehen

In Zusammenarbeit mit Energieunternehmen Orkestra analysierte SunWiz die Treiber für gewerbliche Verkäufe und die Marktsegmentierung. Neben dem Privatsektor zeigten auch Unternehmen ein wachsendes Interesse an Speicherlösungen zur Optimierung der Energiekosten. Die Untersuchung umfasst Leaderboards der 20 führenden Einzelhändler auf nationaler und bundesstaatlicher Ebene.

Ein wesentlicher Teil befasst sich mit den Amortisationszeiten in den verschiedenen australischen Bundesstaaten. Die Studie differenziert hierbei präzise zwischen Nachrüstungen bestehender Anlagen (ESS-only) und kombinierten Neuinstallationen (PV+ESS), um die Wirtschaftlichkeit realitätsnah abzubilden.

Die finanzielle Attraktivität hänge stark von regionalen Förderprogrammen sowie den lokalen Strompreisstrukturen ab. Hersteller erhielten durch die monatlichen Trends zum Marktanteil einen präzisen Einblick in die Wettbewerbssituation.

Wie sich der Markt bis 2030 entwickeln könnte

Technologische Fortschritte, optimierte Garantiebedingungen und die Weiterentwicklung bei Wechselrichtern dürften das Marktwachstum bis zum Jahr 2030 stützen. Ebenso sollte die Einbindung in intelligente Stromnetze sowie die Teilnahme an virtuellen Kraftwerken die Attraktivität der Systeme weiter erhöhen.

Die staatlichen Programme blieben dabei ein entscheidender Faktor für die langfristige Planbarkeit von Investitionen. Branchengrößen wie SolarEdge oder Solargain stützen sich bei ihren Strategien maßgeblich auf diese Datenbasis. Letztlich lässt sich festhalten, dass die finanzielle Unterstützung die Hemmschwelle für Endverbraucher gesenkt hat. Australien festigt damit seine Position im globalen Vergleich der Energiespeichermärkte.

Australiens Heimspeicher-Boom zeigt, wie stark gezielte Förderprogramme die Kaufentscheidungen von Privathaushalten lenken können – nicht nur in der Menge, sondern auch bei der Systemgröße. In Deutschland wächst der Heimspeicher-Markt ebenfalls, allerdings fehlt bislang ein vergleichbar zentrales Förderprogramm auf Bundesebene.

Die australischen Zahlen liefern ein starkes Argument für alle, die eine einheitliche Speicherförderung auch hierzulande fordern. Wer Kapazität subventioniert statt nur Anschaffung, bekommt größere Speicher ins Netz und damit mehr Nutzen für die Energiewende.

Auch interessant:

Der Beitrag Australiens Heimspeicher-Boom: Kapazität verfünffacht sich in einem Jahr erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Pannenursache Nr. 1: Forscher machen die 12-Volt-Batterie im E-Auto überflüssig

Der Beitrag Pannenursache Nr. 1: Forscher machen die 12-Volt-Batterie im E-Auto überflüssig erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Starterbatterie Elektroauto E-Auto 12-Volt-Batterie

Elektroautos könnten bald auf eine zentrale Komponente verzichten: die klassische 12-Volt-Batterie. Das österreichische Forschungsprojekt REDSEL hat eine Bordnetzarchitektur entwickelt, die genau das möglich machen soll – durch redundante Hochvolt-Systeme und moderne Halbleitertechnik. 

Forscher von Silicon Austria Labs (SAL), Infineon Technologies Austria und AVL List haben das Forschungsprojekt REDSEL nach zwei Jahren Laufzeit am Standort Graz erfolgreich abgeschlossen. Sie entwickelten eine neue Architektur für das Bordnetz von Elektrofahrzeugen, die künftig eine flexiblere Energieversorgung ermöglichen soll.

Die Struktur umfasst laut dem Forschungsbericht eine redundante Auslegung sowohl für den Hochvolt- als auch für den Niedervolt-Bereich. Ziel ist es, die Zuverlässigkeit und Sicherheit künftiger elektrischer Systeme zu steigern. Die Forscher präsentierten die Ergebnisse im spezialisierten Power Lab bei SAL in Graz.

Warum die 12-Volt-Batterie im E-Auto wegfallen könnte

Das Forschungszentrum konzentriert sich an den Standorten Graz, Villach und Linz auf elektronik- und softwarebasierte Systeme. Die wissenschaftliche Arbeit erfolgt in enger Abstimmung mit Partnern aus Industrie und Wissenschaft entlang der gesamten Wertschöpfungskette.

Albert Frank, Projekt­leiter bei Silicon Austria Labs, dazu: „Die entwi­ckelten Tech­no­lo­gien schaffen die Grund­lage für leich­tere und robus­tere Bord­netz­sys­teme und leisten damit einen wich­tigen Beitrag zur Weiter­ent­wick­lung der Elek­tro­mo­bi­lität – bis hin zu zukünf­tigen auto­nomen Anwen­dungen“.

Ein zentraler Vorteil des neuen Konzepts liegt laut den Beteiligten in der Einsparung von Bauteilen im Fahrzeug. Durch einen redundanten Aufbau könnte im Elektroauto langfristig die klassische Niedervoltbatterie entfallen. Der Wegfall dieser Komponente verschafft Konstrukteuren mehr Flexibilität beim Fahrzeugdesign. Frei werdender Bauraum lässt sich für die Integration zusätzlicher technischer Komponenten nutzen.

NeueS System verteilt Energie im Fahrzeug

Kommende Fahrzeuggenerationen könnten durch die verbesserten Spezifikationen Vorteile im täglichen Betrieb haben. Die Ergebnisse sollen den Bau kompakterer und fehlertoleranter elektrischer Architekturen erlauben. Solche stabilen Systeme gelten als eine wesentliche Voraussetzung für das autonome Fahren.

Eine zuverlässige Stromversorgung fungiert für die künftigen Anwendungen als sicherheitskritisches Element. Den Kern der REDSEL-Architektur bildet ein aktives Balancing zwischen zwei Hochvoltbatterien. Dieses Verfahren stellt eine gleichmäßige Lastverteilung im Fahrzeug sicher und erhöht die Betriebssicherheit.

Die Ingenieure entwarfen zudem einen Leistungselektronikwandler mit mehreren Eingängen. Ein neuartiges magnetisches Integrationskonzept ermöglichte es, diesen Wandler besonders kompakt und platzsparend zu realisieren. Das System arbeite hocheffizient und spare im Vergleich zu herkömmlichen Modellen erheblichen Raum ein.

Für die Steuerung der Spannungen auf der Hochvoltseite installierten die Partner 750-Volt-Siliziumkarbid-MOSFETs der Reihe CoolSiC. Diese Komponenten ermöglichen laut Projektbericht eine zuverlässige Verarbeitung hoher Energieströme. Sie bilden das technologische Rückgrat für die Hochvolt-Architektur des Systems.

Halbleiter statt Relais: Leichter, sicherer und kompakter

Halbleiter erlauben eine präzise Steuerung der Energieflüsse, was für die Effizienz des Antriebsstrangs entscheidend ist. Auf der Niedervoltseite nutzten Forscher erstmals OptiMOS-7-Bauelemente mit einer Spannung von 30 Volt. Diese sollen laut Forschungsbericht signifikante Effizienzvorteile gegenüber den bisher üblichen Lösungen mit 40 Volt bieten.

Verbesserte Bordnetzspezifikationen moderner Fahrzeuge machten den Einsatz dieser frühen Entwicklungsmuster erst möglich. Ein Schwerpunkt der Kooperation lag auf einer neuen Sicherheitsarchitektur für Abschaltfunktionen. Techniker ersetzten dabei herkömmliche mechanische Relais durch moderne Halbleiterschalter.

Die Umstellung reduziert das Gewicht und erhöht die Betriebssicherheit des Systems. Diplomingenieur Ernst Katzmaier, Projektleiter bei Infineon Technologies Austria, erklärt, dass der Systemdemonstrator eindrucksvoll die Vorteile neuer Bordnetzarchitekturen belegt. Die Kooperation zeigt, wie praxisnahe Lösungen durch die Zusammenarbeit von Industrie und Forschung entstehen.

Auch interessant:

Der Beitrag Pannenursache Nr. 1: Forscher machen die 12-Volt-Batterie im E-Auto überflüssig erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Das älteste Land der Welt ist über 5.000 Jahre alt

Der Beitrag Das älteste Land der Welt ist über 5.000 Jahre alt erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Griechenland Länder

Manche Staaten blicken auf eine Geschichte zurück, die über 5.000 Jahre in die Vergangenheit reicht. Die Suche nach dem ältesten Land der Welt führt uns tief in die Entstehungsgeschichte menschlicher Zivilisation. 

Wann ist eine Ansammlung von Siedlungen eigentlich ein Land? Diese Frage ist nicht so simpel, wie sie zunächst erscheinen mag. Denn letztendlich kommt es auf die jeweilige Definition an. In der Geschichtswissenschaft existieren verschiedene Herangehensweisen, die jeweils ihre eigene Logik haben. Trotzdem wagen wir uns in diesem Artikel an die Suche nach den ältesten Ländern der Welt.

Drei Methoden: Wie identifiziert man die ältesten Länder der Welt?

Eine Methode ist die konstitutionelle Kontinuität. Hierbei wird das Alter eines Staates an der Geburtsstunde seiner heute noch gültigen Verfassung oder seiner politischen Grundordnung gemessen. Nach dieser Lesart wäre San Marino der Spitzenreiter, das als die älteste Republik der Welt gilt. Die Wurzeln des Landes reichen bis ins Jahr 301 zurück. Die Verfassung stammt aus dem Jahr 1600 und ist bis heute in Kraft.

Eine andere Herangehensweise ist die kulturelle Kontinuität, also seit wann in einer Region eine zusammenhängende Gesellschaft besteht. In dieser Liste wäre Japan als älteste noch bestehende Monarchie der Welt ziemlich weit oben angesiedelt. Zudem wird China oft als das Land mit der ältesten erhaltenen Kultur bezeichnet. Manche Quellen nennen auch den Iran, dessen proto-elamitische Periode bereits 3200 v. Chr. staatliche Strukturen besaß.

Die am häufigsten genutzte Methode ist jedoch die Bestimmung des Gründungsjahres als zentralisierter Staat. Entscheidend ist, wann unabhängige Stammesfürstentümer erstmals unter einer einheitlichen militärischen, politischen und religiösen Herrschaft zusammengeführt wurden. Das folgende Ranking basiert auf dieser Definition (via Atanango).

Platz 10: Indien – organisierte Staaten schon seit 1500 v. Chr.

Indien eröffnet unsere Top Ten. Die staatliche Tradition des Landes reicht bis etwa 1500 v. Chr. zurück. Lange bevor moderne Grenzen gezogen wurden, entwickelten sich im Norden des Subkontinents organisierte Gesellschaften, deren soziale Strukturen die Region bis heute prägen.

Indien Burg
Bild: Depositphotos

Der Beitrag Das älteste Land der Welt ist über 5.000 Jahre alt erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Brennende Elektroautos: Medien befeuern einen Mythos

Der Beitrag Brennende Elektroautos: Medien befeuern einen Mythos erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

E-Auto Brände brennt Feuer brennende Elektroautos

Bilder von brennenden Elektroautos verbreiten sich oftmals rasend schnell und schüren Ängste. Auch zahlreiche Medien befeuern den Mythos, dass E‑Autos häufig Feuer fangen würden und gefährlich seien. Statistisch gesehen gibt es aber keinen übermäßigen Grund zur Sorge. Doch das Narrativ hält sich hartnäckig. Eine kommentierende Analyse. 

Wie verbreitet sind E-Autos in Deutschland?

  • 2025 war jeder fünfte neu zugelassene Pkw in Deutschland ein E‑Auto. Damit lag der Anteil am gesamten Fahrzeugbestand bei rund vier Prozent. Seit Anfang 2026 werden Elektroautos beliebter – auch, weil sie im Betrieb oft deutlich günstiger sind als Verbrenner. Im März 2026 haben Stromer bei den Neuzulassungen sogar erstmals Benziner überholt. Insgesamt verläuft der Umstieg von Verbrenner‑ auf Elektroautos in Deutschland bisher schleppend und er liegt deutlich hinter dem Niveau, das nötig ist, um die Klimaziele zu erreichen.
  • Die Gründe für die Zurückhaltung gegenüber E‑Autos sind vielfältig. Häufig werden zu hohe Anschaffungskosten, die Sorge vor zu geringen Reichweiten, eine schlechte Ladeinfrastruktur oder Sicherheitsbedenken als Argument gegen einen Kauf genannt. Doch die meisten Bedenken sind mittlerweile überholt. Nicht nur die Anschaffungskosten sinken, auch eine neue Kaufprämie steht in den Startlöchern. Reichweiten nehmen zu und auch die Ladeinfrastruktur kann sich sehen lassen. Größtes Problem: Viele öffentliche Ladesäulen sind zu teuer. Hinzu kommt eine unbegründete Angst vor Bränden, obwohl Studien belegen, dass Elektroautos keine statistisch höhere Brandwahrscheinlichkeit aufweisen als Verbrenner.
  • Brennende E‑Autos sind dennoch eine der größten Sorgen potenzieller Käufer, auch wenn sie meist unbegründet sind. Forscher aus China haben derweil eine Natrium‑Ionen‑Batterie vorgestellt, die sich bei Überhitzung selbst abschaltet, indem ihr Elektrolyt bei Gefahr fest wird und eine physische Brandschutzmauer bildet. Seltene Brände durch den sogenannten Thermal Runaway sollen dadurch verhindert werden. Der Effekt beschreibt eine unkontrollierte Kettenreaktion, bei der sich eine Batterie selbst immer weiter aufheizt, bis es zu einem Brand oder einer Explosion kommt. Mit Technologien wie diesen könnten Elektroautos künftig sogar deutlich seltener brennen als Verbrenner.

Warum brennende E-Autos mehr Aufmerksamkeit bekommen als brennende Verbrenner

Brennende Elektroautos sind ein gefundenes Fressen für sensationsgeile Medien. Sie sind futuristisch, nahezu lautlos und gehen wie in einem Katastrophenfilm urplötzlich in Flammen auf. So zumindest das Narrativ. Der Haken an der Sache ist nur, dass solche medialen Inszenierungen wenig mit der Realität zu tun haben.

Während ein brennender Diesel oder Benziner höchstens eine Randnotiz wert ist, wird von qualmenden Stromern häufig ein brandgefährliches Bild gezeichnet. Die Logik dahinter ist simpel: neu ist gleich verdächtig, und Batterie gleich Bombe. Ein Narrativ, das sich hervorragend klicken lässt, aber schlichtweg nicht belegbar ist.

Denn statistisch ist die Aufregung ungefähr so gerechtfertigt wie die Angst vor explodierenden Toastern. Elektroautos brennen nicht häufiger als Verbrenner, eher im Gegenteil – nur eben anders. Ein Batteriebrand entwickelt sich schneller, spektakulärer und ist damit auch fotogener. Genau das macht brennende Elektroautos zu einem idealen Rohstoff für Sensationsschlagzeilen, die mehr Hitze erzeugen als die Fahrzeuge selbst.

Das Problem ist eine verzerrte Wahrnehmung, in der Einzelfälle zur gefühlten Regel werden. Viele Medien verstärken diesen Effekt, indem sie das Außergewöhnliche zum Dauerzustand erklären. Die Realität bleibt dabei oft auf der Strecke. Denn sie ist schlicht zu unspektakulär: Millionen unauffällige Fahrten ohne Flammen, ohne Drama und ohne virales Potenzial.

Das sagen Versicherer und TÜV

  • Anja Käfer-Rohrbach, stellvertretende Geschäftsführerin des Gesamtverbandes der Versicherer (GDV), in einem Statement: „Je mehr Elektroautos auf der Straße unterwegs sind, desto weniger unterscheiden sich ihre Schadenbilanzen von vergleichbaren Autos mit Verbrennungsmotoren (…) Elektroautos kommen zunehmend im Alltag an: Eine breitere Modellpalette erreicht einen größeren Kundenkreis, zudem haben Werkstätten, Abschleppunternehmen, Feuerwehren und Gutachter inzwischen mehr Erfahrungen mit beschädigten Elektroautos. Mit dieser neuen Normalität verringern sich aktuell auch die anfänglich beobachteten Besonderheiten in den Schadenbilanzen.“
  • Hermann Dinkler, Experte für Brand- und Explosionsschutz beim TÜV-Verband, fasst zusammen: „Tatsächlich ist die Gefahr eines Fahrzeugbrands sehr gering, und E-Autos stehen klassischen Verbrennern in puncto Sicherheit in nichts nach. Ein Fahrzeugbrand ist in der Regel kein Zufall, sondern die Folge technischer Ursachen. Häufig führt eine Verkettung mehrerer Faktoren zum Feuer. Das können ein Kurzschluss im Bordnetz, beschädigte Kabelisolierungen, undichte Kraftstoffleitungen oder eine übermäßige Wärmeentwicklung im Motorraum sein.“
  • Carsten Reinkemeyer, Leiter der Sicherheitsforschung des Allianz Zentrums für Technik (AZT), zu einer Untersuchung: „Schon eine ausreichende Zahl ausgebrannter E-Autos zu finden, war gar nicht so einfach. Unsere Untersuchung hat gezeigt, dass Elektrofahrzeuge im Vergleich zu Fahrzeugen mit herkömmlichen Antriebsarten deutlich weniger oft in Brand geraten. Selbst wenn man nur Fahrzeuge betrachtet, die weniger als zwei Jahre alt sind, nähert sich die Brandwahrscheinlichkeit von Elektrofahrzeugen zwar der von Benzinern an, sie liegt aber weiterhin deutlich unter der von Dieselfahrzeugen.“

E-Auto-Brände werden zur Ausnahme der Ausnahme

Mit der zunehmenden Verbreitung von Elektroautos wird auch ihr Exotenstatus verschwinden. Und damit der Reflex, jeden Brand wie eine technische Apokalypse zu inszenieren. Was aktuell noch als Katastrophe gilt, wird bald statistische Normalität – und damit medial deutlich langweiliger.

Hinzu kommt, dass die Feuerwehren längst und viel schneller aufgeholt haben als so manche Schlagzeilen. Was früher als kaum beherrschbar galt, ist heute Teil der Ausbildung: spezielle Schulungen, klare Einsatzprotokolle und angepasste Taktiken. Dass ein E‑Auto‑Brand innerhalb kurzer Zeit gelöscht werden kann, ist inzwischen Routine.

Und ja: E‑Autos brennen anders – oft schneller und manchmal hartnäckiger. Der Akku lässt sich nicht einfach ersticken, sondern muss gekühlt werden, meist mit viel Wasser und Geduld. Doch genau darauf sind Einsatzkräfte inzwischen vorbereitet: neue Löschdecken, verbesserte Ausrüstung, mehr Erfahrung. E-Autos stellen übrigens auch in Tiefgaragen keine erhöhte Brandgefahr dar, da sind sich Feuerwehr und Versicherer einig. Das Feuer ist also weniger das Problem als früher. Allerdings sind es die Bilder davon noch.

Während sich das mediale Narrativ weiter an Flammen klammert, entwickelt sich auch die Technik längst weiter. Batterien werden stabiler, Systeme erkennen Risiken früher und neue Materialien verhindern Kettenreaktionen. Kurzum: Brände sind schon heute selten und könnten künftig zur Ausnahme der Ausnahme werden. Dann bleibt vom großen Mythos vor allem eines übrig: viel Rauch um nichts.

Auch interessant:

Der Beitrag Brennende Elektroautos: Medien befeuern einen Mythos erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Balkonkraftwerk ab 200 Euro: So schnell rechnet sich die Investition

Der Beitrag Balkonkraftwerk ab 200 Euro: So schnell rechnet sich die Investition erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

wann sich ein Balkonkraftwerk

Selbstproduzierter Strom, direkt vom Balkon: Balkonkraftwerke machen das bereits ab 200 Euro möglich. Doch seit Dezember 2025 gelten mit der neuen VDE-Produktnorm strengere Regeln für die Geräte, und die Preise könnten steigen. Gleichzeitig sparen Haushalte bei einem Strompreis von 35 Cent bis zu 280 Euro pro Jahr.

Balkonkraftwerke machen Mieter und Wohnungseigentümer zu Stromproduzenten. Die kompakten Systeme speisen die gewonnene Energie direkt in das heimische Stromnetz ein. Auf diese Weise können Haushalte ihre Abhängigkeit von Energieversorgern verringern und einen persönlichen Beitrag zum Klimaschutz leisten.

Vor allem für Mieter bieten Stecker-Solargeräte einen praktischen Vorteil: Bei einem Umzug lassen sie sich ohne großen Aufwand abbauen und in die neue Wohnung mitnehmen. Technisch gesehen handelt es sich bei einem Balkonkraftwerk nicht um eine Anlage, sondern um ein elektrisches Haushaltsgerät. Der Betrieb ist dank einer neuen Produktnorm mittlerweile offiziell über eine normale Haushaltssteckdose möglich.

Was schreibt die neue VDE-Norm vor?

Seit Dezember 2025 regelt die Produktnorm VDE 0126-95 den technischen Aufbau der Geräte verbindlich. Hersteller müssen seither eine mindestens fünf Meter lange Anschlussleitung bereitstellen. Nutzer dürfen die Geräte keinesfalls über eine Mehrfachsteckdose anschließen. Zudem schreibt die Norm verbindliche Vorgaben zur mechanischen Sicherheit und zur Statik der Geräte vor.

Die Einspeiseleistung über den Wechselrichter darf höchstens 800 Watt betragen. Bei Verwendung eines herkömmlichen Schuko-Steckers leisten die Solarmodule maximal 960 Watt. Anlagen mit Leistungen bis zu 2.000 Watt benötigen zwingend einen Wieland-Stecker als Energie-Steckvorrichtung. Für die Installation dieser größeren Systeme aus drei oder vier Modulen müssen Haushalte in den meisten Fällen wohl einen Elektriker beauftragen.

Werden Balkonkraftwerke jetzt teurer?

Aufwendige Zertifizierungsverfahren verteuern laut Einschätzung der Verbraucherzentrale voraussichtlich die künftigen Anschaffungspreise. Kleine Anbieter verschwinden möglicherweise vom Markt, wenn sie die hohen Kosten für diese Verfahren nicht tragen können. Die neue Produktnorm bietet Verbrauchern zwar mehr Klarheit, schränkt aber die Vielfalt der Anbieter ein.

Zudem drängt die neue Norm gebrauchte Solarmodule faktisch aus dem Betrieb. Diese kommen bei Balkonkraftwerken laut Verbraucherzentrale künftig wohl nicht mehr zum Einsatz. Die Hersteller müssen nun sicherstellen, dass jedes Modul die strengen Sicherheitsvorgaben erfüllt, was den Einsatz von Alt-Hardware erschwert. Matthias Döring, von der Verbraucherzentrale Hamburg, dazu:

Mit den neuen Regeln bekommen Verbraucherinnen und Verbraucher endlich Sicherheit bei Balkonkraftwerken. Wer jetzt normgerecht baut, kann auf einen stabilen Rechtsrahmen vertrauen und sein Zuhause mit Solarstrom bereichern. Leider hat die Norm auch einige Schattenseiten.

So schnell rechnet sich ein Balkonkraftwerk

Aktuell bieten Händler einfache 400-Watt-Geräte für etwa 200 Euro an, während 800-Watt-Sets zwischen 400 und 500 Euro kosten. Beim Kauf dieser Photovoltaikanlagen entfällt für Kunden die Mehrwertsteuer. Ein 800-Watt-Gerät erzeugt jährlich je nach Ausrichtung zwischen 600 und 800 Kilowattstunden Strom. Eine genaue Einschätzung für den jeweiligen Standort liefert der Steckersolar-Simulator der Hochschule für Technik und Wirtschaft Berlin.

Bei einem Strompreis von 35 Cent sparen Haushalte jährlich zwischen 210 und 280 Euro. Da Stecker-Solargeräte häufig 20 Jahre oder länger halten, lohnt sich die Anschaffung fast immer. Die Investition rechnet sich je nach Standort und Nutzungsverhalten bereits nach wenigen Jahren. Um den Ertrag zu optimieren, empfiehlt sich eine Südausrichtung in einem Winkel von etwa 30 Grad.

Speichernutzung und Eigenverbrauch

Ein Batteriespeicher ermöglicht es, den produzierten Solarstrom auch in den Abendstunden effizient zu nutzen. Für eine Anlage mit 800 Watt Leistung liegt die ideale Kapazität des Speichers zwischen einer und zwei Kilowattstunden. Solche Speicher nehmen mit Maßen von circa 35 × 30 Zentimetern etwa so viel Platz ein wie ein klassischer Desktop-PC. Komplettsets inklusive passendem Speicher gibt es ab 850 Euro.

Ein Speicher steigert den Anteil des selbst genutzten Stroms im Haushalt deutlich. Während ein Standard-Balkonkraftwerk etwa zehn bis 20 Prozent des Bedarfs deckt, liefert eine Batterie gut ein Drittel mehr. Die tatsächliche Energieausbeute hängt jedoch stark von den jährlichen Sonnenstunden in der jeweiligen Region ab.

Anmeldung in wenigen Minuten: So geht’s

Den bürokratischen Aufwand haben die zuständigen Stellen mittlerweile deutlich reduziert. Betreiber können ihre Geräte mit nur wenigen Daten im Marktstammdatenregister der Bundesnetzagentur registrieren. Eine separate Meldung beim Netzbetreiber ist im Gegensatz zu früher nicht mehr notwendig. Dieser erfährt durch das Register automatisch von der Anlage.

Der Netzbetreiber kümmert sich nach der Anmeldung eigenständig um den Einbau eines modernen Stromzählers. Für eine Übergangszeit werden rücklaufende Stromzähler offiziell geduldet. Nutzer dürfen das Balkonkraftwerk sofort nach der Installation in Betrieb nehmen, auch wenn noch ein alter Zähler installiert ist.

Welche Förderungen gibt es 2026 noch?

Solargeräte gelten seit 2024 als privilegierte bauliche Veränderungen, weshalb Vermieter die Installation grundsätzlich erlauben müssen. Auch Wohnungseigentümergemeinschaften müssen der Montage in der Regel zustimmen. Die Betreiber müssen lediglich sicherstellen, dass sie die Module sturmfest montieren. Bei denkmalgeschützten Gebäuden können jedoch zusätzliche Gestaltungsvorgaben existieren.

In Hamburg übernimmt die Stadt für Haushalte mit geringem Einkommen Zuschüsse von bis zu 90 Prozent der Kosten. Mieter in Mecklenburg-Vorpommern erhalten eine Förderung von bis zu 500 Euro. Für Eigentümer in diesem Bundesland sind die entsprechenden Mittel hingegen bereits verbraucht. In Niedersachsen fördern Städte wie Lüneburg und Braunschweig die Geräte mit bis zu 350 Euro.

In anderen Städten wie Göttingen, Jever oder Oldenburg sind die Fördertöpfe derzeit hingegen ausgeschöpft. Ein entsprechendes Programm in Schleswig-Holstein endete bereits im Jahr 2024. Interessierte informieren sich deshalb am besten vorab über aktuell verfügbare regionale Zuschüsse. Trotz regionaler Unterschiede machen die niedrigen Einstiegspreise die Technik für eine breite Masse attraktiv.

Auch interessant:

Der Beitrag Balkonkraftwerk ab 200 Euro: So schnell rechnet sich die Investition erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

DFKI entwickelt KI-Detektor: Fake-Bilder per Instagram entlarven

Der Beitrag DFKI entwickelt KI-Detektor: Fake-Bilder per Instagram entlarven erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI-Detektor DFKI Instagram Fake Bilder entlarven

Deepfakes und manipulierte Bilder bedrohen zunehmend demokratische Wahlen – und sind mit bloßem Auge kaum noch zu erkennen. Das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) hat deshalb einen KI-Detektor entwickelt, der verdächtige Bilder direkt über Instagram in nur zwei Klicks überprüft.

Die zunehmende Verbreitung von Künstlicher Intelligenz verändert auch die Spielregeln für demokratische Wahlen und birgt dabei auch erhebliche Risiken. Denn KI kann heute täuschend echte Inhalte generieren und so beispielsweise mit Deepfakes von Politikern gezielt Meinungen beeinflussen.

Das große Problem dabei ist, dass diese Inhalte oft kaum noch von echten zu unterscheiden sind. Außerdem verbreiten sie sich über soziale Netzwerke in rasanter Geschwindigkeit.

In den vergangenen Jahren hat sich bereits gezeigt, dass die sogenannten Desinformationskampagnen Wahlprozesse unter Druck setzen und das Vertrauen in demokratische Institutionen untergraben können. Das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) hat für die Entlarvung solcher Inhalte nun einen KI-Detektor entwickelt, mit dem Nutzer verdächtige Bilder in nur wenigen Klicks überprüfen lassen können.

Was kann der neue KI-Detektor des DFKI?

Für das Projekt „Check First. Vote Smart“ hat das DFKI mit dem DFKI-Spin-off Gretchen AI und der Landeszentrale für politische Bildung Rheinland-Pfalz zusammengearbeitet. Entstanden ist ein KI-Detektor der verdächtige Bilder, die beispielsweise von Instagram stammen, in nur wenigen Klicks überprüfen kann.

„KI-gesteuerte Bots simulieren gesellschaftliche Mehrheiten, Deepfakes verfälschen Aussagen, ausländische Akteure greifen gezielt in Wahlkämpfe ein“, erklärt Dr. Tobias Wirth, Themenfeldleiter im Forschungsbereich Smarte Daten & Wissensdienste am DFKI Kaiserslautern. „Wir entwickeln KI, die diese Manipulationen aufdeckt – bevor sie verfangen.“

Das entwickelte Tool beschränkt sich bei der Überprüfung jedoch nicht nur auf Pixelartefakte, wie es bei herkömmlichen Ansätzen der Fall ist. Vielmehr werden die forensische Bild- und Audioanalyse mit einer Art „logischem Gegenlesen“ kombiniert.

Denn während das Bild überprüft wird, können KI-Agenten parallel im Internet Parallelen recherchieren und geprüfte Faktenbanken einbeziehen. Hier kommt unter anderem eine enge Kooperation mit dem Faktencheck-Team der dpa zum Tragen.

So prüfst du verdächtige Bilder in zwei Klicks

Hast du einen verdächtigen Post bei Instagram entdeckt, kannst du diesen über die Teilen-Funktion an den Checker-Account „gretchen_ai_berlin“ senden. Von dem KI-Detektor erhältst du dann eine Einschätzung zur Wahrscheinlichkeit eines Fakes und eine kurze Einschätzung zu Einflussfaktoren.

In der Beta-Phase soll der Detektor bereits mehr als 80 verschiedene Manipulationsarten erkennen können. Dies reicht laut dem DFKI von klassischen Deepfake-Videos bis hin zu scheinbar harmlosen Screenshots.​

Erkannt werden beispielsweise Eingriffe wie Face-Swaps oder Lip-Sync-Manipulationen. Aber auch Image Splicing, bei dem echte Fotos zu einer irreführenden Szene zusammengesetzt werden, soll der Detektor ausmachen können.

Die Analyse soll ohne zusätzliche App oder Anmeldung besonders niedrigschwellig bleiben. „Wir nutzen ausschließlich Funktionen, die Instagram ohnehin bereitstellt – Direct Message, Teilen, Weiterleiten“, betont das Team, das die Umsetzung DSGVO-konform gestaltet.​

Das gilt allerdings nur für die Bildanalyse. Wer auf die Videoanalyse und die Analyse nach früheren Kontexten und Originalmaterial zugreifen will, muss auf die Dashboard Lösung von Gretchen AI zugreifen.

Auch interessant:

Der Beitrag DFKI entwickelt KI-Detektor: Fake-Bilder per Instagram entlarven erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Headless CMS für Enterprises: Darum wird Hybrid Headless mit KI-Governance zum neuen Standard

Der Beitrag Headless CMS für Enterprises: Darum wird Hybrid Headless mit KI-Governance zum neuen Standard erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Headless CMS

Die Art, wie Unternehmen digitale Inhalte erstellen, verwalten und ausspielen, verändert sich grundlegend. Künstliche Intelligenz, steigende Erwartungen der Kunden und die Notwendigkeit zur globalen Skalierung zwingen Enterprise-Unternehmen dazu, ihre Content-Infrastruktur neu zu denken. Der klassische Ansatz – ein monolithisches CMS, das alles in einem System bündelt – ist längst überholt. Doch auch das ursprüngliche Versprechen von reinen Headless-CMS-Lösungen reicht nicht mehr aus.

Was sich gerade am Markt abzeichnet, ist eine klare Bewegung hin zu einem neuen Standard: Hybrid Headless CMS mit integrierter KI-Governance. Wer im Enterprise-Umfeld langfristig wettbewerbsfähig bleiben will, muss Content schneller skalieren, personalisieren und kontrollieren können, ohne dabei die Hoheit über Daten, Prozesse und Qualität zu verlieren.

Content-Geschwindigkeit entscheidet über Wettbewerbsvorteile

Digitale Touchpoints wachsen in einem Tempo, das viele Unternehmen noch vor wenigen Jahren nicht für möglich gehalten hätten. Websites, mobile Apps, E-Commerce-Plattformen, interaktive Portale, Contact Center und neuerdings auch KI-gestützte Interfaces wie Chatbots oder Voice Assistants – all diese Kanäle wollen mit relevanten, aktuellen Inhalten versorgt werden.

Das Ergebnis: Die Menge an benötigten Inhalten steigt exponentiell. Und nicht nur die Menge, auch die Anforderungen an Aktualität und Relevanz nehmen zu. Kunden erwarten, dass Inhalte in Echtzeit auf ihre Situation, ihren Standort, ihr Verhalten und ihre Präferenzen zugeschnitten sind.

Besonders deutlich wird das in bestimmten Branchen:

  • Finanzdienstleistungen und Banken müssen regulatorische Änderungen sofort kommunizieren, personalisierte Produktinformationen bereitstellen und gleichzeitig strikte Compliance-Anforderungen erfüllen.
  • Versicherungsunternehmen stehen unter Druck, komplexe Produktwelten verständlich und kanalübergreifend zu erklären – und das in Echtzeit.
  • Luxury Retail lebt von emotionaler Markenkommunikation, die über alle Touchpoints hinweg konsistent und hochwertig sein muss.
  • Globale Industrieunternehmen benötigen mehrsprachige, auf lokale Märkte zugeschnittene Inhalte, die dennoch einem zentralen Markenstandard entsprechen.

In all diesen Kontexten gilt: Wer Inhalte schneller erstellt, testet und ausspielt, gewinnt Wettbewerbsvorteile. Content-Geschwindigkeit ist kein operatives Detail mehr, sondern ein strategischer Hebel.

Von Headless zu Hybrid Headless: Eine notwendige Evolution

Das Konzept des Headless CMS hat die Content-Welt in den vergangenen Jahren revolutioniert. Der Grundgedanke: Frontend und Backend werden getrennt. Inhalte werden über APIs bereitgestellt und können flexibel auf beliebigen Kanälen ausgespielt werden – unabhängig von festen Templates oder proprietären Darstellungsschichten.

Diese Architektur bringt erhebliche Vorteile mit sich:

  • Technische Flexibilität für Entwicklerteams
  • Saubere API-first-Architektur für Omnichannel-Delivery
  • Unabhängigkeit von einem einzelnen Frontend-Framework
  • Bessere Integrationsfähigkeit in moderne Composable-Stack-Architekturen

Doch in der Praxis stoßen reine Headless-Lösungen schnell an ihre Grenzen. Das größte Problem: Redakteure und Marketing-Teams haben häufig keine komfortable Arbeitsumgebung. Inhalte zu pflegen, Vorschauen zu erstellen, komplexe Content-Strukturen zu verwalten – all das erfordert in vielen Headless-Systemen einen hohen technischen Aufwand. Das Ergebnis: Abhängigkeit von Entwicklern, langsamere Time-to-Market und Frustration auf Seiten der Content-Teams.

Hier setzt das Konzept des Hybrid Headless CMS an. Es kombiniert das Beste aus beiden Welten:

  • Eine API-basierte Architektur für maximale technische Flexibilität und Omnichannel-Delivery
  • Eine leistungsfähige Editor Experience, die Marketing- und Content-Teams eigenständig und effizient arbeiten lässt
  • Integrierte Workflow- und Governance-Funktionen für komplexe redaktionelle Prozesse

Im Headless CMS Vergleich zeigt sich: Unternehmen, die ernsthaft auf Enterprise-Niveau skalieren wollen, entscheiden sich zunehmend für Hybrid-Ansätze – weil sie wissen, dass technische Flexibilität allein nicht ausreicht.

Tool-Fragmentierung: Das stille Problem der Marketing-Teams

Neben der Frage nach der richtigen CMS-Architektur kämpfen viele Unternehmen mit einem anderen, oft unterschätzten Problem: Tool-Fragmentierung. Personalisierung, Content-Management, Analytics, A/B-Testing, SEO und Experimentierung sind auf unterschiedliche Systeme verteilt – mit getrennten Logins, Datenmodellen und Workflows.

Die Folgen sind gravierend:

  • Content-Teams verlieren wertvolle Zeit durch ständige Tool-Wechsel
  • Daten-Silos entstehen, die eine ganzheitliche Sicht auf Customer Intent verhindern
  • Personalisierungsmaßnahmen können nicht schnell genug umgesetzt werden, weil die Abstimmung zwischen verschiedenen Systemen zu viel Zeit kostet
  • Die Time-to-Market für neue Inhalte verlängert sich unnötig

Die Antwort auf dieses Problem liegt in der Konsolidierung: Eine zentrale Plattform, die Content-Management, Personalisierung, Testing und Analytics integriert, ermöglicht es Teams, Inhalte zu erstellen, auszuspielen, zu testen und zu optimieren – ohne ständig den Kontext wechseln zu müssen.

Strukturierter Content: Die Basis für alles Weitere

Ein häufig unterschätzter, aber entscheidender Faktor für den Erfolg moderner Enterprise-Content-Plattformen ist strukturierter Content. Gemeint sind einheitliche Content-Modelle, die definieren, wie Inhalte aufgebaut, gespeichert und verknüpft werden – unabhängig davon, auf welchem Kanal sie am Ende erscheinen.

Strukturierter Content bietet mehrere entscheidende Vorteile:

  • Single Source of Truth: Inhalte werden einmal erstellt und können überall wiederverwendet werden – auf der Website, in der App, im E-Mail-Newsletter oder im Chatbot.
  • Konsistenz über alle Kanäle: Globale Unternehmen können sicherstellen, dass Markenbotschaften und Produktinformationen überall identisch sind – unabhängig von Sprache, Region oder Kanal.
  • Grundlage für Automatisierung: Nur wer Inhalte strukturiert speichert, kann sie automatisiert verarbeiten, anreichern und personalisieren.
  • Voraussetzung für KI-gestützte Prozesse: Künstliche Intelligenz braucht saubere, konsistente Daten als Input. Ohne strukturierten Content verstärkt KI bestehendes Chaos, anstatt es zu lösen.

KI-Governance: Kontrolle als Wettbewerbsvorteil

Kein Thema prägt die aktuelle Diskussion rund um Enterprise Content Management so sehr wie Künstliche Intelligenz. KI-Tools können Texte generieren, Bilder erstellen, Inhalte übersetzen, personalisieren und optimieren – und das mit einer Geschwindigkeit, die menschliche Teams allein nie erreichen könnten.

Doch mit der wachsenden Menge an KI-generierten Inhalten entstehen neue Risiken:

  • Qualitätskontrolle: Wer prüft, ob KI-generierte Inhalte sachlich korrekt, markenkonform und rechtlich unbedenklich sind?
  • Compliance: Besonders in regulierten Branchen wie dem Bankwesen, dem Versicherungssektor oder der öffentlichen Verwaltung müssen Inhalte strengen rechtlichen Anforderungen genügen.
  • Verantwortlichkeit: Wer ist verantwortlich, wenn ein KI-generierter Inhalt falsch ist oder einen Kunden schädigt?
  • Markenkonsistenz: KI, die ohne klare Leitplanken arbeitet, produziert möglicherweise Inhalte, die nicht zur Markenidentität passen.

Die Antwort lautet: KI-Governance. Darunter versteht man klare Freigabeprozesse, definierte Verantwortlichkeiten, integrierte Qualitätssicherung und transparente Workflows. KI darf kein Add-on sein – sie muss tief in redaktionelle Workflows integriert sein:

  • KI-generierte Entwürfe durchlaufen automatisch definierte Freigabe- und Review-Prozesse
  • Jeder KI-Eingriff ist nachvollziehbar und auditierbar
  • Redakteure behalten die volle Kontrolle – das Prinzip „Human in control“ ist in der Plattformarchitektur verankert

Ein KI-gestütztes CMS, das diese Anforderungen erfüllt, wird in regulierten Branchen nicht mehr als Innovation wahrgenommen, sondern als notwendige Grundvoraussetzung.

Digitale Souveränität: Wer kontrolliert die Daten?

Eng verbunden mit dem Thema Governance ist die Frage der digitalen Souveränität. Besonders für Unternehmen in regulierten Industrien ist es eine strategische und oft regulatorische Frage: Wo werden Systeme betrieben? Wer hat Zugriff auf welche Daten?

Unternehmen müssen bei der Wahl eines Enterprise-CMS darauf achten, welche Hosting-Optionen eine Plattform bietet:

  • Public Cloud: Maximale Skalierbarkeit und Effizienz, aber abhängig vom Cloud-Anbieter
  • Private Cloud: Mehr Kontrolle, eigene Infrastruktur, höhere Sicherheit für sensible Daten
  • On-Premises: Vollständige Datensouveränität, besonders relevant für kritische Infrastruktur und hochregulierte Branchen

Digitale Souveränität ist kein Nice-to-have – sie ist ein Entscheidungskriterium im Headless CMS Vergleich für Großunternehmen, Banken und Versicherer.

Praxisbeispiel: Deutsche Bundesbank setzt auf Enterprise-CMS

Wie eine solche Architektur in der Praxis aussieht, zeigt das Beispiel der Deutschen Bundesbank. Als eine der wichtigsten Institutionen des deutschen Finanzsystems steht die Bundesbank vor besonderen Anforderungen: höchste Sicherheitsstandards, strikte regulatorische Anforderungen und die Notwendigkeit, Inhalte für ein breites, internationales Publikum bereitzustellen.

Die Bundesbank setzt auf CoreMedia als Enterprise-Content-Plattform. Die Lösung ermöglicht es, strukturierte Inhalte zentral zu verwalten und kanalübergreifend auszuspielen – ohne Abstriche bei Compliance, Datensouveränität oder redaktioneller Kontrolle. Ein Paradebeispiel dafür, wie Hybrid Headless in einer hochregulierten Umgebung funktioniert.

CoreMedia im Headless CMS Vergleich

Bei der Auswahl eines Headless CMS für Großunternehmen spielen mehrere Kriterien eine zentrale Rolle:

  • API-first-Architektur: Inhalte müssen über standardisierte REST- oder GraphQL-APIs flexibel abrufbar sein – für beliebige Frontends, Apps oder KI-Interfaces.
  • Redaktions-Experience: Marketing- und Content-Teams müssen ohne Entwickler-Unterstützung effizient arbeiten können.
  • Omnichannel Content Delivery: Inhalte müssen konsistent und schnell auf allen relevanten Kanälen ausgespielt werden können.
  • Integration in den Composable Stack: Nahtlose Integration in CRM, PIM, DAM, Commerce-Systeme und Analytics-Tools.
  • Skalierbarkeit und Performance: Technische Skalierbarkeit für globale Unternehmen mit hohem Traffic.
  • Zukunftsfähigkeit durch KI und Personalisierung: Native KI-Integration, Personalisierungsfunktionen und eine klare Produkt-Roadmap.

CoreMedia adressiert all diese Kriterien mit einer Plattformarchitektur, die speziell für die Anforderungen von Enterprise- und B2B-Unternehmen entwickelt wurde. Die Kombination aus API-basierter Headless-Architektur, einer leistungsfähigen redaktionellen Oberfläche und integrierter KI-Governance macht CoreMedia zu einem der wenigen Anbieter, die den Hybrid-Headless-Ansatz konsequent umsetzen.

Fazit: Der neue Standard heißt Hybrid Headless mit KI-Governance

Die Enterprise-Content-Welt steht an einem Wendepunkt. Reine Headless-Systeme bieten technische Freiheit, aber zu wenig Unterstützung für redaktionelle Teams. Klassische CMS-Lösungen bieten Komfort, aber zu wenig Flexibilität für moderne Omnichannel-Anforderungen. Die Zukunft liegt in der Mitte: Hybrid Headless CMS, die beide Welten verbinden.

Der neue Standard für Enterprise Content Management kombiniert vier Elemente:

  • Hybrid Headless Architektur für maximale Flexibilität und Editor Experience
  • Strukturierter Content als gemeinsame Basis für alle Kanäle und KI-Prozesse
  • Integrierte KI-Governance für kontrollierten, compliance-gerechten Einsatz von KI
  • Digitale Souveränität durch flexible Hosting-Optionen und volle Datenkontrolle

Wer jetzt in die richtige Plattform investiert, schafft die Grundlage für Content-Skalierung, Personalisierung und Wettbewerbsfähigkeit. Der Headless CMS Vergleich für Großunternehmen, Industrieunternehmen, Banken und Versicherer führt dabei immer öfter zu einer klaren Erkenntnis: Hybrid Headless mit KI-Governance ist kein Trend – es ist der neue Standard.

Häufig gestellte Fragen (FAQ)

Was ist ein Headless CMS und wie unterscheidet es sich von einem klassischen CMS?

Ein Headless CMS trennt das Backend (Inhaltsverwaltung) vom Frontend (Darstellung). Inhalte werden über eine API-first-Architektur bereitgestellt und können auf beliebigen Kanälen ausgespielt werden – Websites, Apps, Chatbots oder Voice Assistants. Ein klassisches CMS hingegen ist eng mit einer festen Darstellungsschicht verbunden, was die Flexibilität stark einschränkt. Der entscheidende Vorteil eines Headless CMS: Omnichannel Content Delivery ohne technische Abhängigkeit von einem einzigen Frontend.

Was ist der Unterschied zwischen Headless CMS und Hybrid Headless CMS?

Ein reines Headless CMS bietet maximale technische Flexibilität, ist aber oft schwierig für Redakteure und Marketing-Teams zu bedienen. Ein Hybrid Headless CMS kombiniert die API-basierte Architektur mit einer leistungsfähigen redaktionellen Oberfläche. Das bedeutet:

  • Entwickler profitieren von der vollen technischen Flexibilität
  • Marketing-Teams können Inhalte eigenständig und effizient verwalten
  • Integrierte Workflow- und Governance-Funktionen ermöglichen komplexe redaktionelle Prozesse

Für Enterprise-Unternehmen ist Hybrid Headless deshalb häufig die bessere Wahl als ein reines Headless-System.

Welche Kriterien sind beim Headless CMS Vergleich für Großunternehmen besonders wichtig?

Im Headless CMS Vergleich für Enterprise-Unternehmen spielen folgende Kriterien eine zentrale Rolle:

  • API-first-Architektur für flexible Omnichannel-Delivery
  • Redaktions-Experience – Marketing-Teams müssen ohne Entwickler-Unterstützung arbeiten können
  • Skalierbarkeit und Performance für globale Unternehmen mit hohem Traffic
  • Integration in den Composable Stack (CRM, PIM, DAM, Commerce)
  • KI-Governance und Zukunftsfähigkeit
  • Digitale Souveränität und flexible Hosting-Optionen

Was versteht man unter KI-Governance im Content Management?

KI-Governance bezeichnet klare Regeln, Prozesse und Verantwortlichkeiten für den Einsatz von Künstlicher Intelligenz in der Content-Erstellung. Konkret bedeutet das:

  • KI-generierte Inhalte durchlaufen definierte Freigabe- und Review-Prozesse
  • Jeder KI-Eingriff ist nachvollziehbar und auditierbar
  • Das Prinzip „Human in control“ ist fest in der Plattformarchitektur verankert
  • KI ist kein Add-on, sondern tief in redaktionelle Workflows integriert

Besonders in regulierten Branchen wie Banken, Versicherungen oder der öffentlichen Verwaltung ist KI-Governance keine Option, sondern eine Pflicht.

Warum ist modularer Content so wichtig für Enterprise-Unternehmen?

Modularer Content ermöglicht es, Inhalte in wiederverwendbare Bausteine zu zerlegen, die flexibel über verschiedene Kanäle, Märkte und Anwendungsfälle hinweg eingesetzt werden können.

Das bringt entscheidende Vorteile:

  • Single Source of Truth: Inhalte werden einmal erstellt und überall wiederverwendet
  • Konsistenz über Kanäle, Sprachen und Märkte hinweg
  • Schnellere Time-to-Market durch Wiederverwendung
  • Grundlage für Personalisierung und Automatisierung

Gleichzeitig fördert ein modularer Ansatz die Erstellung strukturierter Daten, da Inhalte in klar definierten Modellen und Komponenten organisiert werden müssen, sodass Inhalte von KI-Systemen besser verstanden, verarbeitet und genutzt werden können.

Was bedeutet digitale Souveränität im Kontext eines Enterprise CMS?

Digitale Souveränität bedeutet, dass Unternehmen die volle Kontrolle über ihre Systeme, Daten und Infrastruktur behalten. Im Kontext eines Enterprise CMS umfasst das die Wahl der Hosting-Umgebung:

  • Public Cloud: Maximale Skalierbarkeit, aber Abhängigkeit vom Cloud-Anbieter
  • Private Cloud: Mehr Kontrolle und Sicherheit für sensible Daten
  • On-Premises: Vollständige Datensouveränität – besonders relevant für kritische Infrastruktur und regulierte Branchen

Darüber hinaus gewinnen hybride Ansätze zunehmend an Bedeutung: Unternehmen können bestimmte Systeme oder Prozesse gezielt in der Cloud betreiben, während sensible Daten oder kritische Anwendungen on-premises bleiben. Für Banken, Versicherungen und Industrieunternehmen ist digitale Souveränität ein zentrales Auswahlkriterium im Headless CMS Vergleich.

Für welche Unternehmen eignet sich CoreMedia als Headless CMS?

CoreMedia richtet sich vor allem an Enterprise- und B2B-Unternehmen, die ihre Content-Strategie schnell skalieren und gleichzeitig Kontrolle und Qualität sicherstellen möchten. Die Plattform ist besonders geeignet für:

  • Finanzdienstleister und Banken mit hohen Compliance- und Governance-Anforderungen
  • Versicherungsunternehmen mit komplexen Produktwelten und regulatorischen Vorgaben
  • Globale Industrieunternehmen mit mehrsprachigen, mehrkanaligen Content-Anforderungen
  • Versorgungsunternehmen (Utilities) mit komplexen Kundenkommunikations- und Serviceprozessen über digitale und persönliche Kanäle hinweg
  • Luxury Retail mit hochwertigem Markenanspruch über alle Touchpoints

Gemeinsam ist all diesen Unternehmen: Sie wollen Content mit KI skalieren – ohne die Kontrolle über Inhalte, Prozesse und Daten zu verlieren.

Der Beitrag Headless CMS für Enterprises: Darum wird Hybrid Headless mit KI-Governance zum neuen Standard erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Kennst du die EUDI-Wallet? 52 Prozent der Deutschen tun es nicht

Der Beitrag Kennst du die EUDI-Wallet? 52 Prozent der Deutschen tun es nicht erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

EUDI-Wallet Europa

Eine aktuelle Umfrage zeigt, dass mehr als die Hälfte der deutschen Bevölkerung keine Ahnung hat, was EUDI-Wallet ist. Fakt ist aber, dass sie nächstes Jahr kommen wird. Grund genug, die Brieftasche weiter zu öffnen und auch in den kleinen Münzen zu kramen – digital natürlich.

EUDI, das ist nicht der Name einer putzigen Animationsfigur, sondern … weißt du es? Laut einer repräsentativen Umfrage von Bitkom können nur 5 Prozent der Deutschen richtig erklären, was es damit auf sich hat. Die Abkürzung steht für European Digital Identity Wallet.

Was ist die EUDI-Wallet?

Die Planungen dafür gehen mehr als zwei Jahre zurück. Im Februar 2024 hat das Europäische Parlament eine EU-Verordnung verabschiedet. Nach dieser novellierten eIDAS-Verordnung sind alle EU-Mitgliedstaaten dazu verpflichtet, bis 2027 eine EUDI-Wallet verfügbar zu machen.

Auch BASIC Thinking hat damals von der digitalen Brieftasche berichtet – und darauf verwiesen, dass die Wallet an sich keine neue Erfindung ist. Fast jedes Smartphone hat bereits eine. Darin kannst du beispielsweise Tickets wie Bordkarten speichern. Zahlungen mit entsprechenden Pay-Diensten sind ebenfalls möglich.

Mit der EUDI-Wallet hast du deinen Identitätsnachweis und andere Belege wie den Personalausweis, Führerschein oder Zeugnisse europaweit immer dabei. Allerdings nicht als physische Karten im Portemonnaie oder gefaltete DIN-A4-Ausdrucke in der Tasche, sondern digital in einer App auf dem Smartphone.

Vom deutschen eID zur europäischen Wallet

Es begann mit nationalen digitalen Identitäten und mündet am 2. Januar 2027 in der EUDI-Wallet. Schon heute ist die Online-Ausweisfunktion des Personalausweises (eID) in Deutschland anerkannt. Die Technologie entspricht dem höchsten eIDAS-Vertrauensniveau. Als Nächstes kommt eIDAS 2.0.

Waren nationale digitale Identitäten wie eID die Basis, werden sie von der EUDI-Wallet europaweit zu einem interoperablen System skaliert. Doch viele fragen sich jetzt oder bald: Warum denn? Digitalisierung verspricht vor allem mehr Nutzerfreundlichkeit durch weniger Bürokratie. Außerdem sind digitale Lösungen nachhaltiger, wenn Sie Papier und andere Rohstoffe ersetzen.

Auf der anderen Seite bietet Technologie trotz proklamierten Sicherheitsstandards automatisch Sicherheitsrisiken hinsichtlich des Datenschutzes. Bei einer Kreditkarte sowie ausgedruckten Versicherungs- oder Kaufverträgen liegt es in erster Linie bei dir, ob du sie sicher aufbewahrst oder verlierst respektive preisgibst.

Stell dir vor, du mietest im Urlaub in Portugal einen Wagen. Bisher bedeutet das: Führerschein rauskramen, Kreditkarte vorzeigen, vielleicht noch eine Kopie der Versicherungspolice suchen. Mit der EUDI-Wallet läuft das anders.

Du öffnest die App, gibst per Fingerabdruck oder Gesichtserkennung die nötigen Dokumente frei – und der Vermieter kann Führerschein und Identität in Sekunden digital prüfen. Kein Papierkram, keine Sprachbarriere bei handschriftlichen Formularen, kein Risiko, ein wichtiges Dokument im Hotel vergessen zu haben.

Dasselbe Prinzip gilt für die Kontoeröffnung bei einer Bank, die Einschreibung an einer Uni im Ausland oder den Abschluss eines Mietvertrags: Ein Fingertipp ersetzt den Gang zum Amt oder das Einscannen von Dokumenten. Grundlegend spannender ist aber zunächst die Frage: Wie viel wissen die Deutschen überhaupt von der EUDI-Wallet?

Mehr als die Hälfte kennt die EUDI-Wallet nicht

An der Befragung im Auftrag des Digitalverbands Bitkom haben 1.004 Menschen ab einem Alter von 16 Jahren teilgenommen. Die Umfrage ergab, dass 52 Prozent – und damit die Mehrheit – der deutschen Bevölkerung noch nie von der EUDI-Wallet gehört haben.

18 Prozent kennen den Begriff zwar, wissen aber nicht, was sich dahinter verbirgt. Minimal mehr (20 Prozent) kennen die Hintergründe zur digitalen Brieftasche, während nur 5 Prozent sie gut erklären können. Weitere 5 Prozent haben sich enthalten.

Bitkom-Präsident Ralf Wintergerst bezeichnet die EUDI-Wallet als „eine der bedeutendsten Innovationen dieser Jahre – eine sichere digitale Identität für alle Europäerinnen und Europäer.“ Doch es braucht eine Aufklärungskampagne, denn die „EUDI-Wallet sollte zum Standard werden.“

Damit das gelingt, haben sich schon jetzt über 100 Unternehmen einem gemeinsamen „Memorandum of Understanding“ des Bundesministeriums für Digitales und Staatsmodernisierung und Biktom angeschlossen. Sie wollen schnell relevante Anwendungen anbieten, um die EUDI-Wallet zu verbreiten.

Auch interessant:

Der Beitrag Kennst du die EUDI-Wallet? 52 Prozent der Deutschen tun es nicht erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Geld zurück bei schlechtem Netz: Wer macht wirklich 30 Messungen?

Der Beitrag Geld zurück bei schlechtem Netz: Wer macht wirklich 30 Messungen? erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Kein Netz Funkloch kein Empfang Preisnachlass Erstattung Geld zurück Internet Mobilfunk

Wer regelmäßig schlechten Handyempfang durch Lücken im Netz hat, soll von Mobilfunkanbietern künftig einfacher Geld zurückbekommen oder schneller aus seinem Vertrag kommen können. Das ist zumindest die Idee der Bundesnetzagentur. Kritiker halten die neuen Regeln aber für kaum praxistauglich und für zu lasch. Eine kommentierende Analyse.

Geld zurück bei schlechtem Netz: Das plant die Bundesnetzagentur

  • Die Bundesnetzagentur hat eine Allgemeinverfügung zu den Minderleistungsregelungen für Mobilfunk-Internetzugänge sowie konkrete Vorgaben zum Nachweis veröffentlicht. Die Idee: Verbraucher sollen bei schlechtem Handynetz künftig einfacher gegen Mobilfunkanbieter vorgehen können. Sie sollen Tests durchführen, um vorzeitig aus einem Vertrag herauszukommen oder um weniger zu zahlen.
  • Wie hoch Preisminderungen genau ausfallen, muss jeder mit seinem Provider klären – oder man muss notfalls vor Gericht ziehen. In Gebieten mit hoher Haushaltsdichte wie Städten dürfen Verbraucher sich beschweren und Preisminderungen geltend machen, wenn ihre Internetgeschwindigkeit dauerhaft unter 25 Prozent der vertraglich vereinbarten maximalen Geschwindigkeit liegt. Für Gebiete mit mittlerer Haushaltsdichte gilt dies, wenn weniger als 15 Prozent erreicht werden, während in Regionen mit niedriger Haushaltsdichte eine Beschwerde möglich ist, sobald die Geschwindigkeit dauerhaft unter zehn Prozent der vereinbarten Maximalleistung fällt.
  • Insgesamt 30 Messungen an fünf verschiedenen Tagen sind nötig, um bei einem Anbieter Beschwerde einzureichen. Diese können ab dem 20. April 2026 über eine Breitbandmessung-App der Bundesnetzagentur durchgeführt werden. Laut Vorschlag müssen die entsprechenden Mindestgeschwindigkeiten an drei Tagen mindestens einmal erreicht werden. Sollten die notwendigen Nachweise bereits nach drei Messtagen vorliegen, endet die Messkampagne vorzeitig.

Ein guter Ansatz mit zu laschen Schwellen

Das Grundprinzip des Vorschlags der Bundesnetzagentur ist begrüßenswert und richtig. Denn: Wer für schnelles Netz zahlt, sollte bei Funklöchern oder einer geringeren Leistung als versprochen nicht den vollen Preis schlucken müssen. Dass die Bundesnetzagentur hier nachschärft, war lange überfällig.

Doch Verbraucherschutz endet nicht am Sendemast. Indes: Die vorgeschlagenen Schwellen wirken wie aus einer Welt der 1990er-Jahre, in der „irgendwie online“ schon als Erfolg galt. Will heißen: Wenn in ländlichen Regionen faktisch nur ein Zehntel der versprochenen Leistung nötig ist, wird aus Kontrolle schnell ein Kulanz-Geschenk an die Mobilfunk-Anbieter.

Natürlich sind auch die Provider nicht an allem Schuld und vor jeder Widrigkeit gefeit. Aber wer 200 Mbit/s verspricht, sollte doch zumindest ansatzweise an diesem Leistungsversprechen kratzen. Oder: einfach mal kleinere Mbit/s backen und vorab prüfen. Um es kurz zu machen: Die Ansätze der Bundesnetzagentur sind zwar löblich, die Prüfungen aber viel zu bürokratisch und die Schwellen zu lasch.

Stimmen und Kritik

  • Klaus Müller, Präsident der Bundesnetzagentur, in einem Statement: „Unsere Regelungen konkretisieren eine Minderleistung im Mobilfunk. Mit unserem Messtool können Verbraucherinnen und Verbraucher prüfen und nachweisen, ob die Qualität ihres Mobilfunk-Internetzugangs erheblich von dem abweicht, was im Vertrag als Maximalleistung vereinbart worden ist. So können sie Minderungs- oder Sonderkündigungsrechte gegenüber ihrem Anbieter geltend machen.“
  • Felix Flosbach von der Verbraucherzentrale NRW kritisierte gegenüber der Deutschen Presseagentur (dpa): „Im schlimmsten Fall müssen Mobilfunkanbieter lediglich zehn Prozent der vertraglich vereinbarten Maximalgeschwindigkeit liefern, ohne dass dies Konsequenzen hat. Das ist aus Sicht der Verbraucherzentrale NRW kein ausgeglichenes vertragliches Verhältnis mehr zwischen Anbietern und Kunden.“
  • Frederic Ufer, Geschäftsführer des Branchenverbandes VATM, moniert, dass der politisch beschlossene Minderungsanspruch „kaum praxistauglich“ sei: „Unter dem Strich kann ein gesetzlich verankerter Minderungsanspruch kein praxistaugliches Instrument für mehr Verbraucherschutz sein, sondern er bleibt lediglich ein weiteres bürokratisches Ungetüm.“

Werden die neuen Regeln im Alltag überhaupt genutzt?

Entscheidend wird sein, ob die neuen Regeln im Alltag überhaupt genutzt werden. Denn 30 Messungen könnten viele mehr abschrecken, als dass sie genutzt werden. Doch Verbraucherschutz darf nicht mit der Geduld der Nutzer konkurrieren.

Für Anbieter könnten die Vorschläge der Bundesnetzagentur derweil ein stiller Anreiz sein, besonders auffällige Mobilfunklücken zu schließen. Weniger aus Einsicht, sondern vielmehr, um Ärger zu vermeiden. Hier und da können die neuen Regeln offenlegen, wo wirkliche schwarze Funklöcher die Leistung einsaugen.

Doch ein solcher Effekt ist keineswegs garantiert. Vor allem dann nicht, wenn die Schwellen so gering bleiben oder zu wenige Leute messen. Denn damit verpufft der gewünschte Druck auf die Provider schnell. Langfristig dürfte die Debatte damit alles andere als beendet sein.

Die ohnehin schon geringen Grenzwerte werden mit dem 5G-Ausbau und steigenden Erwartungen nämlich schnell weiter auseinanderklaffen. Die nächste Runde um echte Netzqualität ist damit eigentlich schon seit gestern vorprogrammiert.

Auch interessant: 

Der Beitrag Geld zurück bei schlechtem Netz: Wer macht wirklich 30 Messungen? erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

4 Passwort-Manager aus Europa, die deine Daten sicher schützen

Der Beitrag 4 Passwort-Manager aus Europa, die deine Daten sicher schützen erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Passwortmanager Europa USA Software

Wer seine Passwörter einem US-Dienst anvertraut, gibt sensible Daten in Hände, deren Schutz zunehmend unsicher erscheint. Doch der europäische Markt bietet inzwischen starke Alternativen mit konsequentem Datenschutz. Wir stellen vier Passwort-Manager aus der Schweiz, Deutschland und Luxemburg vor.

Über Jahrzehnte hinweg war die Abhängigkeit Europas von amerikanischer Technologie akzeptiert und bildete das Fundament unserer modernen IT-Infrastruktur. Doch neben der in den letzten Jahren gewachsenen Abneigung gegen digitale Services aus China werden inzwischen auch Produkte aus den Vereinigten Staaten in Frage gestellt.

Unternehmen wie Apple, Microsoft, Amazon, Google und Meta haben nicht nur eine enorme Marktmacht, sondern nutzen diese auch aus – teilweise mit wettbewerbswidrigen Praktiken. Viele Nutzer hegen zudem Bedenken, dass sensible Daten in den Händen von US-Unternehmen nicht gut aufgehoben sind.

Seit dem erneuten Amtsantritt von US-Präsident Donald Trump hat das Thema wieder an Bedeutung gewonnen, da sich zunehmend die Frage stellt, ob die USA noch ein verlässlicher Partner für Europa sind. Trumps außen- und handelspolitische Entscheidungen wie seine Zollpolitik nähren zumindest die Zweifel.

Warum europäische Passwort-Manager jetzt gefragt sind

Kritiker sehen in den USA eine immer engere Verflechtung von Politik und Wirtschaft, denn Trump scheint mit vielen Tech-CEOs zu kooperieren. Geld und Fortschritt stehen an erstere Stelle, Nutzerinteressen und Datenschutz müssen hinten anstehen. Zum Glück hat Europa in den letzten Jahren technologisch deutlich aufgeholt.

Viele Alternativen „Made in Europe“ sehen sich als Gegenmodell zu amerikanischen Technologien. Die Anbieter setzen häufig auf Nachhaltigkeit, Datenschutz und klare Nutzungsbedingungen. Deshalb präsentieren wir an dieser Stelle vier Passwort-Manager aus Europa. Zuvor haben wir uns bereits Office-Anwendungen und Zahlungsanbieter angesehen.

1. Proton Pass: Open-Source-Manager aus der Schweiz

Proton Pass stammt aus der Schweiz und ist Teil des Proton-Ökosystems, das für seinen Fokus auf Privatsphäre bekannt ist. Der Dienst ist vollständig Open-Source und wird regelmäßig von unabhängigen Stellen geprüft, um die hohen Sicherheitsstandards zu garantieren. Neben der bewährten Ende-zu-Ende-Verschlüsselung, die alle gespeicherten Daten wie Benutzernamen und Webadressen schützt, bietet Proton Pass auch einen integrierten „Identitätsverwaltungsdienst“. Mit diesem können Nutzer alternative Namen für ihre E-Mails erstellen, um ihre echten Adressen vor Drittanbietern zu verbergen. Auf diese Weise können Spam und Tracking verhindert werden. Die Software ist für alle gängigen Plattformen wie iOS, Android, Windows und macOS kostenlos verfügbar. Die Plus-Version für 4,99 Euro bietet zusätzliche Funktionen wie einen integrierten 2FA-Generator.

2. Password Depot: Volle Datenkontrolle für Unternehmen

Auch aus Deutschland kommt eine gute Alternative. Der Fokus von Password Depot liegt besonders auf Unternehmen, die sensible Informationen nicht auf externen Servern lagern wollen. Mit dem Service können Kunden selbst entscheiden, ob Passwörter lokal auf dem Gerät, im Servernetzwerk des Unternehmens, in einer privaten Cloud oder auf USB-Sticks gespeichert werden. Der Manager unterstützt zudem professionelle Rollen- und Rechtesysteme sowie SSO-Anbindungen. Das macht ihn ideal für komplexe Team-Strukturen. Dank detaillierter Audit-Berichte und Protokollfunktionen unterstützt die Software Unternehmen aktiv bei der Einhaltung der DSGVO-Nachweispflichten. Die Preisgestaltung basiert auf einem Lizenzmodell – eine Konfiguration für fünf Benutzer kostet zum Beispiel einmalig 499 Euro.

3. Passbolt: OpenPGP-Verschlüsselung für IT-Teams

Passbolt wurde in Luxemburg speziell für IT-Teams mit hohen Sicherheitsstandards entwickelt. Das System basiert komplett auf Open-Source und nutzt den bewährten OpenPGP-Standard für die Verschlüsselung. Berechtigungen werden auf Passwortebene vergeben, und sensible Daten werden für jeden berechtigten Nutzer individuell verschlüsselt. Alle Operationen sind kryptografisch signiert, sodass jederzeit nachvollziehbar ist, wer ein Passwort erstellt oder geändert hat. Passbolt bietet sowohl Cloud-Hosting in der EU als auch eine Self-Hosting-Variante an, die dem Nutzer die vollständige Kontrolle über seine privaten Schlüssel lässt. Für kleinere Teams ist die Community-Version kostenlos verfügbar. Größere Organisationen können auf den Business-Tarif (ab 4,50 Euro pro Nutzer und Monat) umsteigen, der zusätzliche Funktionen wie Single Sign-On (SSO) und Aktivitätsprotokolle für Audits enthält.

4. heylogin: Der Passwort-Manager ohne Master-Passwort

Einen völlig neuen Weg geht heylogin aus Deutschland. Hier gibt es kein Master-Passwort mehr, das man sich merken muss und vergessen kann. Stattdessen nutzt heylogin das Smartphone oder einen Sicherheitsschlüssel als physischen „Schlüssel“ zu den digitalen Daten. Logins werden einfach per Swipe auf dem Handy oder per Touch am Sicherheitsschlüssel bestätigt. Das macht den Dienst benutzerfreundlich und sicher. Die Sicherheitsarchitektur basiert auf einer Zero-Knowledge-Struktur mit hardwarebasierter Ende-zu-Ende-Verschlüsselung. Das bedeutet, dass die Daten nur auf dem Gerät des Nutzers entschlüsselt werden können. heylogin wird in Deutschland entwickelt und auch hierzulande gehostet. Für die persönliche Nutzung ist der Dienst kostenlos, und für Unternehmen starten die Preise bei 4,99 Euro pro Nutzer und Monat. Eine nahtlose Integration in Systeme wie Microsoft Entra ID oder Google Workspace ist möglich.

Fazit: Passwort-Manager aus Europa

Wer ein klassisches, sicheres Ökosystem mit Zusatzfunktionen wie alternative Namen für E-Mails sucht, ist bei Proton Pass bestens aufgehoben. Unternehmen, die absolute Kontrolle über ihre gespeicherten Daten benötigen, finden in Password Depot oder Passbolt leistungsstarke Services, die zudem die Anforderungen der DSGVO erfüllen. Und heylogin bietet mit seinem innovativen Ansatz die Möglichkeit, sich komplett ohne Passwort einzuloggen.

Alle vier Anbieter aus Europa eint der Fokus auf den Schutz der Nutzerdaten. Diese werden nicht nur vor Hackern geschützt, sondern auch vor den gierigen Greifarmen anderer Unternehmen. Die Services zeigen deutlich, dass Sicherheit und Komfort Hand in Hand gehen können. Wer auf einen Partner aus Europa setzen möchte, hat also diverse valide Alternativen zur Auswahl.

Auch interessant: 

Der Beitrag 4 Passwort-Manager aus Europa, die deine Daten sicher schützen erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •