Normale Ansicht

Received yesterday — 19. April 2026

planqc: Münchner Start-up liefert Quantencomputer an den Staat

19. April 2026 um 06:00

Der Beitrag planqc: Münchner Start-up liefert Quantencomputer an den Staat erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

planqc, tech, informatik, quanteninformatik, software, raumfahrt

Quantencomputer sollen die Pharmaforschung, Klimamodelle und die Finanzwelt revolutionieren. Doch bisher fehlt der Beweis, dass sie klassischen Supercomputern wirklich überlegen sind. Das Münchner Start-up planqc will das ändern. In unserem Start-up-Check schauen wir uns an, was hinter der Technologie steckt, woher das Geld kommt und wie realistisch die Pläne sind.

Start-ups: Das klingt nach Erfindergeist, Zukunftstechnologien, neuen Märkten. Doch in der Realität erweisen sich viele der Neugründungen leider oft als eine Mischung aus einer E-Commerce-Idee, planlosen Gründern und wackeligen Zukunftsaussichten.

Dabei gibt es sie durchaus: die Vordenker, die an den großen Problemen tüfteln und Geschäftsmodelle revolutionieren. Sie zu finden und vorzustellen, ist die Aufgabe des Formats „Start-up-Check“. Heute: planqc, Deep-Tech-Start-up aus dem Bereich Quantencomputing.

Wer steckt hinter planqc – und woher kommt die Expertise?

  • Branche: Quantencomputing/DeepTech
  • Gründer: Alexander Glätzle, Sebastian Blatt und Johannes Zeiher
  • Gründungsjahr: 2022
  • Geschäftsmodell: Entwicklung skalierbarer Quantenprozessoren auf Basis neutraler Atome; mittelfristig Bereitstellung von Quantencomputing as a Service über die Cloud
  • Ziel: Quantencomputer mit mehr als 1.000 Qubits, die in Chemie, Pharma, Automotive und Finanzindustrie praktische Rechenvorteile gegenüber klassischen Supercomputern liefern

Quantencomputer sollen Krebs heilen, Klimamodelle revolutionieren und die Finanzwelt neu erfinden. Wann genau das geschehen wird, bleibt jedoch meist offen.

planqc aus Garching bei München ist hier längst einen Schritt weiter und punktet mit konkreten Aufträgen, Lieferverpflichtungen und einem laufenden Zeitplan. Das 2022 als Spin-off des Max-Planck-Instituts für Quantenoptik (MPQ) und der LMU München gegründete Start-up hat sich in kurzer Zeit zu einem der wichtigsten europäischen Quantencomputing-Unternehmen entwickelt – mit einer technologischen Wette, die in der Szene zunehmend als vielversprechend gilt.

Hinter planqc stecken Wissenschaftler, die nicht erst seit gestern mit Quantensystemen arbeiten: CEO Dr. Alexander Glätzle und seine Mitgründer kommen direkt aus der Forschungsgruppe um den renommierten Physiker Immanuel Bloch am MPQ, einem der weltweit führenden Institute auf dem Gebiet der Quantenoptik. Das verleiht dem Unternehmen eine wissenschaftliche Glaubwürdigkeit, die sich nicht einfach einkaufen lässt.

Wie funktioniert ein Quantencomputer aus Licht und Atomen?

Die bekanntesten Quantencomputer, etwa von IBM oder Google, basieren auf supraleitenden Schaltkreisen und müssen bei extrem tiefen Temperaturen nahe dem absoluten Nullpunkt betrieben werden.

planqc geht einen anderen Weg. Das Unternehmen setzt auf neutrale Atome als Qubits, also die kleinsten Recheneinheiten eines Quantencomputers. Im Gegensatz zu klassischen Bits können Qubits nicht nur die Werte null oder eins annehmen, sondern auch beide Zustände gleichzeitig.

Das planqc-Prinzip: Einzelne Strontium-Atome werden in einem Vakuum mit Laserlicht eingefangen und in sogenannten optischen Gittern, einem „Kristall aus Licht“, positioniert. Jedes Atom fungiert als ein Qubit. Präzise Laserimpulse manipulieren die Quantenzustände der Atome und führen Rechenoperationen durch.

Der Abschied vom Millikelvin-Zwang

Der entscheidende Vorteil ist, dass neutrale Atome von Natur aus identisch sind. Kein Atom weicht vom nächsten ab, was bei anderen Qubit-Technologien eine erhebliche Fehlerquelle darstellt. Das führt zu langen Kohärenzzeiten, hoher Stabilität und einer Architektur, die auf über 1.000 Qubits ausgelegt ist.

Zum Vergleich: In einem Forschungsprojekt am MPQ, an dem planqc beteiligt war, wurde ein Register mit 1.200 neutralen Atomen über eine Stunde stabil betrieben. Ein Skalierungsergebnis, das in der Branche für Aufmerksamkeit gesorgt hat.

Ein weiterer Vorteil gegenüber supraleitenden Systemen: Der Betrieb ist bei nahezu Raumtemperatur möglich, zumindest im Vergleich zu den Millikelvin-Temperaturen, die Konkurrenten wie IBM benötigen. Das vereinfacht die Infrastruktur erheblich und könnte langfristig die Betriebskosten senken.

Einordnung und Mehrwert

planqc positioniert sich als Brückenbauer zwischen Grundlagenforschung und industrieller Anwendung und hat dafür konkrete Zielbranchen: Chemie und Pharma (Molekülsimulation, Wirkstoffdesign), Batterietechnologie und Climate Tech, Automotive sowie die Finanzindustrie. Erste Use Cases rund um Quantum Machine Learning für Klimasimulationen und Batterieoptimierung befinden sich bereits in der Entwicklung.

Ob und wann Quantencomputer klassischen Supercomputern in diesen Anwendungsfällen wirklich überlegen sein werden, ist die offene Frage der gesamten Branche, planqc eingeschlossen.

Der sogenannte „quantum advantage“ für industriell relevante Probleme ist bislang nirgendwo belegt. Das Unternehmen steckt, wie alle Wettbewerber, noch in der Phase, in der man Systeme baut, die diesen Nachweis irgendwann erbringen sollen.

Im europäischen Wettbewerbsumfeld hat planqc jedoch eine klare Nische: Der Fokus auf neutrale Atome unterscheidet das Unternehmen von Anbietern wie IQM (supraleitend) oder Quantinuum (Ionenfallen) und erlaubt ein „Made in Germany“-Narrativ, das bei europäischen Industriekunden Vertrauen schafft – gerade gegenüber US-amerikanischen und chinesischen Anbietern.

90 Millionen Euro und zwei Staatsaufträge: So finanziert sich planqc

planqc ist für ein vier Jahre altes Deep-Tech-Unternehmen bemerkenswert gut kapitalisiert. Die Series-A-Runde von 50 Millionen Euro (2024), angeführt von Catron Holding und dem DeepTech & Climate Fonds, ergänzt um Fördermittel des BMBF, summiert sich, inklusive öffentlicher Fördermittel, auf rund 80 bis 90 Millionen Euro Gesamtkapital.

Wichtiger noch: Das Unternehmen hat bereits konkrete öffentliche Aufträge gewonnen. Vom Deutschen Zentrum für Luft- und Raumfahrt (DLR) erhielt planqc einen Auftrag über 29 Millionen Euro zum Aufbau eines Quantencomputers in Ulm – der erste europäische Auftrag dieser Art überhaupt.

Das Leibniz-Rechenzentrum (LRZ) beauftragte das Start-up zusätzlich, einen 1.000-Qubit-Quantencomputer zu entwickeln, mit einer Zielmarke vor 2027. Beide Projekte sind keine Piloten, sondern reale Infrastrukturmaßnahmen mit konkreten Lieferverpflichtungen.

planqc ist dabei eng in das Münchner Quantenökosystem eingebettet: als erster Spin-off der Munich Quantum Valley Initiative, mit Technologiepartnern wie Menlo Systems (Lasersysteme) und ParityQC (Software/Architektur) sowie der fortlaufenden wissenschaftlichen Anbindung an das MPQ. Diese Vernetzung ist kein Marketingargument, sondern struktureller Bestandteil der Entwicklungsstrategie.

planqc: Zwischen Wissenschaftspionierarbeit und industriellem Beweis

planqc adressiert eine der technologisch anspruchsvollsten Herausforderungen der Digitalwirtschaft: den Bau von Quantencomputern, die über Forschungslabors hinaus tatsächlich industriellen Mehrwert liefern. Die neutrale-Atome-Plattform ist wissenschaftlich fundiert, gut finanziert und durch öffentliche Aufträge bereits in der Praxis verankert.

Entscheidend wird sein, ob planqc den Übergang von beeindruckenden Qubit-Zahlen zu nachweisbarem Rechenvorsprung schafft und ob die Zielbranchen bereit sind, Quantencomputing von der Roadmap in ihre tatsächliche IT-Infrastruktur zu überführen.

Gelingt das, wäre planqc gut positioniert, um als europäischer Champion in einem Markt zu bestehen, der bislang von amerikanischen Schwergewichten dominiert wird.

Auch interessant: 

Der Beitrag planqc: Münchner Start-up liefert Quantencomputer an den Staat erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Received before yesterday

Samsung R95H im Check: Schlägt Micro RGB jetzt QLED und OLED?

18. April 2026 um 09:34

Samsung will mit Micro RGB die LCD-Technik auf ein ganz neues Level heben. Der R95H imponiert durch eigenständige Stärken und setzt damit QLED und OLED unter Druck. Winzige RGB-LEDs ersetzen beim R95H den klassischen QLED-Aufbau. Erste Messwerte zeigen: Extremes HDR-Farbvolumen und eine überraschend hohe Effizienz bei echten BT.2020-Farben sind mit Micro RGB möglich. Technologiesprung zeigt […]

Der Beitrag Samsung R95H im Check: Schlägt Micro RGB jetzt QLED und OLED? erschien zuerst auf DIGITAL FERNSEHEN.

Pannenursache Nr. 1: Forscher machen die 12-Volt-Batterie im E-Auto überflüssig

18. April 2026 um 05:45

Der Beitrag Pannenursache Nr. 1: Forscher machen die 12-Volt-Batterie im E-Auto überflüssig erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Starterbatterie Elektroauto E-Auto 12-Volt-Batterie

Elektroautos könnten bald auf eine zentrale Komponente verzichten: die klassische 12-Volt-Batterie. Das österreichische Forschungsprojekt REDSEL hat eine Bordnetzarchitektur entwickelt, die genau das möglich machen soll – durch redundante Hochvolt-Systeme und moderne Halbleitertechnik. 

Forscher von Silicon Austria Labs (SAL), Infineon Technologies Austria und AVL List haben das Forschungsprojekt REDSEL nach zwei Jahren Laufzeit am Standort Graz erfolgreich abgeschlossen. Sie entwickelten eine neue Architektur für das Bordnetz von Elektrofahrzeugen, die künftig eine flexiblere Energieversorgung ermöglichen soll.

Die Struktur umfasst laut dem Forschungsbericht eine redundante Auslegung sowohl für den Hochvolt- als auch für den Niedervolt-Bereich. Ziel ist es, die Zuverlässigkeit und Sicherheit künftiger elektrischer Systeme zu steigern. Die Forscher präsentierten die Ergebnisse im spezialisierten Power Lab bei SAL in Graz.

Warum die 12-Volt-Batterie im E-Auto wegfallen könnte

Das Forschungszentrum konzentriert sich an den Standorten Graz, Villach und Linz auf elektronik- und softwarebasierte Systeme. Die wissenschaftliche Arbeit erfolgt in enger Abstimmung mit Partnern aus Industrie und Wissenschaft entlang der gesamten Wertschöpfungskette.

Albert Frank, Projekt­leiter bei Silicon Austria Labs, dazu: „Die entwi­ckelten Tech­no­lo­gien schaffen die Grund­lage für leich­tere und robus­tere Bord­netz­sys­teme und leisten damit einen wich­tigen Beitrag zur Weiter­ent­wick­lung der Elek­tro­mo­bi­lität – bis hin zu zukünf­tigen auto­nomen Anwen­dungen“.

Ein zentraler Vorteil des neuen Konzepts liegt laut den Beteiligten in der Einsparung von Bauteilen im Fahrzeug. Durch einen redundanten Aufbau könnte im Elektroauto langfristig die klassische Niedervoltbatterie entfallen. Der Wegfall dieser Komponente verschafft Konstrukteuren mehr Flexibilität beim Fahrzeugdesign. Frei werdender Bauraum lässt sich für die Integration zusätzlicher technischer Komponenten nutzen.

NeueS System verteilt Energie im Fahrzeug

Kommende Fahrzeuggenerationen könnten durch die verbesserten Spezifikationen Vorteile im täglichen Betrieb haben. Die Ergebnisse sollen den Bau kompakterer und fehlertoleranter elektrischer Architekturen erlauben. Solche stabilen Systeme gelten als eine wesentliche Voraussetzung für das autonome Fahren.

Eine zuverlässige Stromversorgung fungiert für die künftigen Anwendungen als sicherheitskritisches Element. Den Kern der REDSEL-Architektur bildet ein aktives Balancing zwischen zwei Hochvoltbatterien. Dieses Verfahren stellt eine gleichmäßige Lastverteilung im Fahrzeug sicher und erhöht die Betriebssicherheit.

Die Ingenieure entwarfen zudem einen Leistungselektronikwandler mit mehreren Eingängen. Ein neuartiges magnetisches Integrationskonzept ermöglichte es, diesen Wandler besonders kompakt und platzsparend zu realisieren. Das System arbeite hocheffizient und spare im Vergleich zu herkömmlichen Modellen erheblichen Raum ein.

Für die Steuerung der Spannungen auf der Hochvoltseite installierten die Partner 750-Volt-Siliziumkarbid-MOSFETs der Reihe CoolSiC. Diese Komponenten ermöglichen laut Projektbericht eine zuverlässige Verarbeitung hoher Energieströme. Sie bilden das technologische Rückgrat für die Hochvolt-Architektur des Systems.

Halbleiter statt Relais: Leichter, sicherer und kompakter

Halbleiter erlauben eine präzise Steuerung der Energieflüsse, was für die Effizienz des Antriebsstrangs entscheidend ist. Auf der Niedervoltseite nutzten Forscher erstmals OptiMOS-7-Bauelemente mit einer Spannung von 30 Volt. Diese sollen laut Forschungsbericht signifikante Effizienzvorteile gegenüber den bisher üblichen Lösungen mit 40 Volt bieten.

Verbesserte Bordnetzspezifikationen moderner Fahrzeuge machten den Einsatz dieser frühen Entwicklungsmuster erst möglich. Ein Schwerpunkt der Kooperation lag auf einer neuen Sicherheitsarchitektur für Abschaltfunktionen. Techniker ersetzten dabei herkömmliche mechanische Relais durch moderne Halbleiterschalter.

Die Umstellung reduziert das Gewicht und erhöht die Betriebssicherheit des Systems. Diplomingenieur Ernst Katzmaier, Projektleiter bei Infineon Technologies Austria, erklärt, dass der Systemdemonstrator eindrucksvoll die Vorteile neuer Bordnetzarchitekturen belegt. Die Kooperation zeigt, wie praxisnahe Lösungen durch die Zusammenarbeit von Industrie und Forschung entstehen.

Auch interessant:

Der Beitrag Pannenursache Nr. 1: Forscher machen die 12-Volt-Batterie im E-Auto überflüssig erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Samsung TVs 2026: Mehr Farbbrillanz, mehr Effizienz, mehr Auswahl

17. April 2026 um 08:50

Samsung weitet sein TV-Lineup deutlich aus: Neue Technologien wie Micro RGB sollen die Bildqualität sichtbar verbessern und auch die Auswahl an Premium-OLEDs steigt.

Der Beitrag Samsung TVs 2026: Mehr Farbbrillanz, mehr Effizienz, mehr Auswahl erschien zuerst auf DIGITAL FERNSEHEN.

Balkonkraftwerk ab 200 Euro: So schnell rechnet sich die Investition

17. April 2026 um 05:45

Der Beitrag Balkonkraftwerk ab 200 Euro: So schnell rechnet sich die Investition erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

wann sich ein Balkonkraftwerk

Selbstproduzierter Strom, direkt vom Balkon: Balkonkraftwerke machen das bereits ab 200 Euro möglich. Doch seit Dezember 2025 gelten mit der neuen VDE-Produktnorm strengere Regeln für die Geräte, und die Preise könnten steigen. Gleichzeitig sparen Haushalte bei einem Strompreis von 35 Cent bis zu 280 Euro pro Jahr.

Balkonkraftwerke machen Mieter und Wohnungseigentümer zu Stromproduzenten. Die kompakten Systeme speisen die gewonnene Energie direkt in das heimische Stromnetz ein. Auf diese Weise können Haushalte ihre Abhängigkeit von Energieversorgern verringern und einen persönlichen Beitrag zum Klimaschutz leisten.

Vor allem für Mieter bieten Stecker-Solargeräte einen praktischen Vorteil: Bei einem Umzug lassen sie sich ohne großen Aufwand abbauen und in die neue Wohnung mitnehmen. Technisch gesehen handelt es sich bei einem Balkonkraftwerk nicht um eine Anlage, sondern um ein elektrisches Haushaltsgerät. Der Betrieb ist dank einer neuen Produktnorm mittlerweile offiziell über eine normale Haushaltssteckdose möglich.

Was schreibt die neue VDE-Norm vor?

Seit Dezember 2025 regelt die Produktnorm VDE 0126-95 den technischen Aufbau der Geräte verbindlich. Hersteller müssen seither eine mindestens fünf Meter lange Anschlussleitung bereitstellen. Nutzer dürfen die Geräte keinesfalls über eine Mehrfachsteckdose anschließen. Zudem schreibt die Norm verbindliche Vorgaben zur mechanischen Sicherheit und zur Statik der Geräte vor.

Die Einspeiseleistung über den Wechselrichter darf höchstens 800 Watt betragen. Bei Verwendung eines herkömmlichen Schuko-Steckers leisten die Solarmodule maximal 960 Watt. Anlagen mit Leistungen bis zu 2.000 Watt benötigen zwingend einen Wieland-Stecker als Energie-Steckvorrichtung. Für die Installation dieser größeren Systeme aus drei oder vier Modulen müssen Haushalte in den meisten Fällen wohl einen Elektriker beauftragen.

Werden Balkonkraftwerke jetzt teurer?

Aufwendige Zertifizierungsverfahren verteuern laut Einschätzung der Verbraucherzentrale voraussichtlich die künftigen Anschaffungspreise. Kleine Anbieter verschwinden möglicherweise vom Markt, wenn sie die hohen Kosten für diese Verfahren nicht tragen können. Die neue Produktnorm bietet Verbrauchern zwar mehr Klarheit, schränkt aber die Vielfalt der Anbieter ein.

Zudem drängt die neue Norm gebrauchte Solarmodule faktisch aus dem Betrieb. Diese kommen bei Balkonkraftwerken laut Verbraucherzentrale künftig wohl nicht mehr zum Einsatz. Die Hersteller müssen nun sicherstellen, dass jedes Modul die strengen Sicherheitsvorgaben erfüllt, was den Einsatz von Alt-Hardware erschwert. Matthias Döring, von der Verbraucherzentrale Hamburg, dazu:

Mit den neuen Regeln bekommen Verbraucherinnen und Verbraucher endlich Sicherheit bei Balkonkraftwerken. Wer jetzt normgerecht baut, kann auf einen stabilen Rechtsrahmen vertrauen und sein Zuhause mit Solarstrom bereichern. Leider hat die Norm auch einige Schattenseiten.

So schnell rechnet sich ein Balkonkraftwerk

Aktuell bieten Händler einfache 400-Watt-Geräte für etwa 200 Euro an, während 800-Watt-Sets zwischen 400 und 500 Euro kosten. Beim Kauf dieser Photovoltaikanlagen entfällt für Kunden die Mehrwertsteuer. Ein 800-Watt-Gerät erzeugt jährlich je nach Ausrichtung zwischen 600 und 800 Kilowattstunden Strom. Eine genaue Einschätzung für den jeweiligen Standort liefert der Steckersolar-Simulator der Hochschule für Technik und Wirtschaft Berlin.

Bei einem Strompreis von 35 Cent sparen Haushalte jährlich zwischen 210 und 280 Euro. Da Stecker-Solargeräte häufig 20 Jahre oder länger halten, lohnt sich die Anschaffung fast immer. Die Investition rechnet sich je nach Standort und Nutzungsverhalten bereits nach wenigen Jahren. Um den Ertrag zu optimieren, empfiehlt sich eine Südausrichtung in einem Winkel von etwa 30 Grad.

Speichernutzung und Eigenverbrauch

Ein Batteriespeicher ermöglicht es, den produzierten Solarstrom auch in den Abendstunden effizient zu nutzen. Für eine Anlage mit 800 Watt Leistung liegt die ideale Kapazität des Speichers zwischen einer und zwei Kilowattstunden. Solche Speicher nehmen mit Maßen von circa 35 × 30 Zentimetern etwa so viel Platz ein wie ein klassischer Desktop-PC. Komplettsets inklusive passendem Speicher gibt es ab 850 Euro.

Ein Speicher steigert den Anteil des selbst genutzten Stroms im Haushalt deutlich. Während ein Standard-Balkonkraftwerk etwa zehn bis 20 Prozent des Bedarfs deckt, liefert eine Batterie gut ein Drittel mehr. Die tatsächliche Energieausbeute hängt jedoch stark von den jährlichen Sonnenstunden in der jeweiligen Region ab.

Anmeldung in wenigen Minuten: So geht’s

Den bürokratischen Aufwand haben die zuständigen Stellen mittlerweile deutlich reduziert. Betreiber können ihre Geräte mit nur wenigen Daten im Marktstammdatenregister der Bundesnetzagentur registrieren. Eine separate Meldung beim Netzbetreiber ist im Gegensatz zu früher nicht mehr notwendig. Dieser erfährt durch das Register automatisch von der Anlage.

Der Netzbetreiber kümmert sich nach der Anmeldung eigenständig um den Einbau eines modernen Stromzählers. Für eine Übergangszeit werden rücklaufende Stromzähler offiziell geduldet. Nutzer dürfen das Balkonkraftwerk sofort nach der Installation in Betrieb nehmen, auch wenn noch ein alter Zähler installiert ist.

Welche Förderungen gibt es 2026 noch?

Solargeräte gelten seit 2024 als privilegierte bauliche Veränderungen, weshalb Vermieter die Installation grundsätzlich erlauben müssen. Auch Wohnungseigentümergemeinschaften müssen der Montage in der Regel zustimmen. Die Betreiber müssen lediglich sicherstellen, dass sie die Module sturmfest montieren. Bei denkmalgeschützten Gebäuden können jedoch zusätzliche Gestaltungsvorgaben existieren.

In Hamburg übernimmt die Stadt für Haushalte mit geringem Einkommen Zuschüsse von bis zu 90 Prozent der Kosten. Mieter in Mecklenburg-Vorpommern erhalten eine Förderung von bis zu 500 Euro. Für Eigentümer in diesem Bundesland sind die entsprechenden Mittel hingegen bereits verbraucht. In Niedersachsen fördern Städte wie Lüneburg und Braunschweig die Geräte mit bis zu 350 Euro.

In anderen Städten wie Göttingen, Jever oder Oldenburg sind die Fördertöpfe derzeit hingegen ausgeschöpft. Ein entsprechendes Programm in Schleswig-Holstein endete bereits im Jahr 2024. Interessierte informieren sich deshalb am besten vorab über aktuell verfügbare regionale Zuschüsse. Trotz regionaler Unterschiede machen die niedrigen Einstiegspreise die Technik für eine breite Masse attraktiv.

Auch interessant:

Der Beitrag Balkonkraftwerk ab 200 Euro: So schnell rechnet sich die Investition erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

DFKI entwickelt KI-Detektor: Fake-Bilder per Instagram entlarven

16. April 2026 um 20:07

Der Beitrag DFKI entwickelt KI-Detektor: Fake-Bilder per Instagram entlarven erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI-Detektor DFKI Instagram Fake Bilder entlarven

Deepfakes und manipulierte Bilder bedrohen zunehmend demokratische Wahlen – und sind mit bloßem Auge kaum noch zu erkennen. Das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) hat deshalb einen KI-Detektor entwickelt, der verdächtige Bilder direkt über Instagram in nur zwei Klicks überprüft.

Die zunehmende Verbreitung von Künstlicher Intelligenz verändert auch die Spielregeln für demokratische Wahlen und birgt dabei auch erhebliche Risiken. Denn KI kann heute täuschend echte Inhalte generieren und so beispielsweise mit Deepfakes von Politikern gezielt Meinungen beeinflussen.

Das große Problem dabei ist, dass diese Inhalte oft kaum noch von echten zu unterscheiden sind. Außerdem verbreiten sie sich über soziale Netzwerke in rasanter Geschwindigkeit.

In den vergangenen Jahren hat sich bereits gezeigt, dass die sogenannten Desinformationskampagnen Wahlprozesse unter Druck setzen und das Vertrauen in demokratische Institutionen untergraben können. Das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) hat für die Entlarvung solcher Inhalte nun einen KI-Detektor entwickelt, mit dem Nutzer verdächtige Bilder in nur wenigen Klicks überprüfen lassen können.

Was kann der neue KI-Detektor des DFKI?

Für das Projekt „Check First. Vote Smart“ hat das DFKI mit dem DFKI-Spin-off Gretchen AI und der Landeszentrale für politische Bildung Rheinland-Pfalz zusammengearbeitet. Entstanden ist ein KI-Detektor der verdächtige Bilder, die beispielsweise von Instagram stammen, in nur wenigen Klicks überprüfen kann.

„KI-gesteuerte Bots simulieren gesellschaftliche Mehrheiten, Deepfakes verfälschen Aussagen, ausländische Akteure greifen gezielt in Wahlkämpfe ein“, erklärt Dr. Tobias Wirth, Themenfeldleiter im Forschungsbereich Smarte Daten & Wissensdienste am DFKI Kaiserslautern. „Wir entwickeln KI, die diese Manipulationen aufdeckt – bevor sie verfangen.“

Das entwickelte Tool beschränkt sich bei der Überprüfung jedoch nicht nur auf Pixelartefakte, wie es bei herkömmlichen Ansätzen der Fall ist. Vielmehr werden die forensische Bild- und Audioanalyse mit einer Art „logischem Gegenlesen“ kombiniert.

Denn während das Bild überprüft wird, können KI-Agenten parallel im Internet Parallelen recherchieren und geprüfte Faktenbanken einbeziehen. Hier kommt unter anderem eine enge Kooperation mit dem Faktencheck-Team der dpa zum Tragen.

So prüfst du verdächtige Bilder in zwei Klicks

Hast du einen verdächtigen Post bei Instagram entdeckt, kannst du diesen über die Teilen-Funktion an den Checker-Account „gretchen_ai_berlin“ senden. Von dem KI-Detektor erhältst du dann eine Einschätzung zur Wahrscheinlichkeit eines Fakes und eine kurze Einschätzung zu Einflussfaktoren.

In der Beta-Phase soll der Detektor bereits mehr als 80 verschiedene Manipulationsarten erkennen können. Dies reicht laut dem DFKI von klassischen Deepfake-Videos bis hin zu scheinbar harmlosen Screenshots.​

Erkannt werden beispielsweise Eingriffe wie Face-Swaps oder Lip-Sync-Manipulationen. Aber auch Image Splicing, bei dem echte Fotos zu einer irreführenden Szene zusammengesetzt werden, soll der Detektor ausmachen können.

Die Analyse soll ohne zusätzliche App oder Anmeldung besonders niedrigschwellig bleiben. „Wir nutzen ausschließlich Funktionen, die Instagram ohnehin bereitstellt – Direct Message, Teilen, Weiterleiten“, betont das Team, das die Umsetzung DSGVO-konform gestaltet.​

Das gilt allerdings nur für die Bildanalyse. Wer auf die Videoanalyse und die Analyse nach früheren Kontexten und Originalmaterial zugreifen will, muss auf die Dashboard Lösung von Gretchen AI zugreifen.

Auch interessant:

Der Beitrag DFKI entwickelt KI-Detektor: Fake-Bilder per Instagram entlarven erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Headless CMS für Enterprises: Darum wird Hybrid Headless mit KI-Governance zum neuen Standard

16. April 2026 um 16:00

Der Beitrag Headless CMS für Enterprises: Darum wird Hybrid Headless mit KI-Governance zum neuen Standard erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Headless CMS

Die Art, wie Unternehmen digitale Inhalte erstellen, verwalten und ausspielen, verändert sich grundlegend. Künstliche Intelligenz, steigende Erwartungen der Kunden und die Notwendigkeit zur globalen Skalierung zwingen Enterprise-Unternehmen dazu, ihre Content-Infrastruktur neu zu denken. Der klassische Ansatz – ein monolithisches CMS, das alles in einem System bündelt – ist längst überholt. Doch auch das ursprüngliche Versprechen von reinen Headless-CMS-Lösungen reicht nicht mehr aus.

Was sich gerade am Markt abzeichnet, ist eine klare Bewegung hin zu einem neuen Standard: Hybrid Headless CMS mit integrierter KI-Governance. Wer im Enterprise-Umfeld langfristig wettbewerbsfähig bleiben will, muss Content schneller skalieren, personalisieren und kontrollieren können, ohne dabei die Hoheit über Daten, Prozesse und Qualität zu verlieren.

Content-Geschwindigkeit entscheidet über Wettbewerbsvorteile

Digitale Touchpoints wachsen in einem Tempo, das viele Unternehmen noch vor wenigen Jahren nicht für möglich gehalten hätten. Websites, mobile Apps, E-Commerce-Plattformen, interaktive Portale, Contact Center und neuerdings auch KI-gestützte Interfaces wie Chatbots oder Voice Assistants – all diese Kanäle wollen mit relevanten, aktuellen Inhalten versorgt werden.

Das Ergebnis: Die Menge an benötigten Inhalten steigt exponentiell. Und nicht nur die Menge, auch die Anforderungen an Aktualität und Relevanz nehmen zu. Kunden erwarten, dass Inhalte in Echtzeit auf ihre Situation, ihren Standort, ihr Verhalten und ihre Präferenzen zugeschnitten sind.

Besonders deutlich wird das in bestimmten Branchen:

  • Finanzdienstleistungen und Banken müssen regulatorische Änderungen sofort kommunizieren, personalisierte Produktinformationen bereitstellen und gleichzeitig strikte Compliance-Anforderungen erfüllen.
  • Versicherungsunternehmen stehen unter Druck, komplexe Produktwelten verständlich und kanalübergreifend zu erklären – und das in Echtzeit.
  • Luxury Retail lebt von emotionaler Markenkommunikation, die über alle Touchpoints hinweg konsistent und hochwertig sein muss.
  • Globale Industrieunternehmen benötigen mehrsprachige, auf lokale Märkte zugeschnittene Inhalte, die dennoch einem zentralen Markenstandard entsprechen.

In all diesen Kontexten gilt: Wer Inhalte schneller erstellt, testet und ausspielt, gewinnt Wettbewerbsvorteile. Content-Geschwindigkeit ist kein operatives Detail mehr, sondern ein strategischer Hebel.

Von Headless zu Hybrid Headless: Eine notwendige Evolution

Das Konzept des Headless CMS hat die Content-Welt in den vergangenen Jahren revolutioniert. Der Grundgedanke: Frontend und Backend werden getrennt. Inhalte werden über APIs bereitgestellt und können flexibel auf beliebigen Kanälen ausgespielt werden – unabhängig von festen Templates oder proprietären Darstellungsschichten.

Diese Architektur bringt erhebliche Vorteile mit sich:

  • Technische Flexibilität für Entwicklerteams
  • Saubere API-first-Architektur für Omnichannel-Delivery
  • Unabhängigkeit von einem einzelnen Frontend-Framework
  • Bessere Integrationsfähigkeit in moderne Composable-Stack-Architekturen

Doch in der Praxis stoßen reine Headless-Lösungen schnell an ihre Grenzen. Das größte Problem: Redakteure und Marketing-Teams haben häufig keine komfortable Arbeitsumgebung. Inhalte zu pflegen, Vorschauen zu erstellen, komplexe Content-Strukturen zu verwalten – all das erfordert in vielen Headless-Systemen einen hohen technischen Aufwand. Das Ergebnis: Abhängigkeit von Entwicklern, langsamere Time-to-Market und Frustration auf Seiten der Content-Teams.

Hier setzt das Konzept des Hybrid Headless CMS an. Es kombiniert das Beste aus beiden Welten:

  • Eine API-basierte Architektur für maximale technische Flexibilität und Omnichannel-Delivery
  • Eine leistungsfähige Editor Experience, die Marketing- und Content-Teams eigenständig und effizient arbeiten lässt
  • Integrierte Workflow- und Governance-Funktionen für komplexe redaktionelle Prozesse

Im Headless CMS Vergleich zeigt sich: Unternehmen, die ernsthaft auf Enterprise-Niveau skalieren wollen, entscheiden sich zunehmend für Hybrid-Ansätze – weil sie wissen, dass technische Flexibilität allein nicht ausreicht.

Tool-Fragmentierung: Das stille Problem der Marketing-Teams

Neben der Frage nach der richtigen CMS-Architektur kämpfen viele Unternehmen mit einem anderen, oft unterschätzten Problem: Tool-Fragmentierung. Personalisierung, Content-Management, Analytics, A/B-Testing, SEO und Experimentierung sind auf unterschiedliche Systeme verteilt – mit getrennten Logins, Datenmodellen und Workflows.

Die Folgen sind gravierend:

  • Content-Teams verlieren wertvolle Zeit durch ständige Tool-Wechsel
  • Daten-Silos entstehen, die eine ganzheitliche Sicht auf Customer Intent verhindern
  • Personalisierungsmaßnahmen können nicht schnell genug umgesetzt werden, weil die Abstimmung zwischen verschiedenen Systemen zu viel Zeit kostet
  • Die Time-to-Market für neue Inhalte verlängert sich unnötig

Die Antwort auf dieses Problem liegt in der Konsolidierung: Eine zentrale Plattform, die Content-Management, Personalisierung, Testing und Analytics integriert, ermöglicht es Teams, Inhalte zu erstellen, auszuspielen, zu testen und zu optimieren – ohne ständig den Kontext wechseln zu müssen.

Strukturierter Content: Die Basis für alles Weitere

Ein häufig unterschätzter, aber entscheidender Faktor für den Erfolg moderner Enterprise-Content-Plattformen ist strukturierter Content. Gemeint sind einheitliche Content-Modelle, die definieren, wie Inhalte aufgebaut, gespeichert und verknüpft werden – unabhängig davon, auf welchem Kanal sie am Ende erscheinen.

Strukturierter Content bietet mehrere entscheidende Vorteile:

  • Single Source of Truth: Inhalte werden einmal erstellt und können überall wiederverwendet werden – auf der Website, in der App, im E-Mail-Newsletter oder im Chatbot.
  • Konsistenz über alle Kanäle: Globale Unternehmen können sicherstellen, dass Markenbotschaften und Produktinformationen überall identisch sind – unabhängig von Sprache, Region oder Kanal.
  • Grundlage für Automatisierung: Nur wer Inhalte strukturiert speichert, kann sie automatisiert verarbeiten, anreichern und personalisieren.
  • Voraussetzung für KI-gestützte Prozesse: Künstliche Intelligenz braucht saubere, konsistente Daten als Input. Ohne strukturierten Content verstärkt KI bestehendes Chaos, anstatt es zu lösen.

KI-Governance: Kontrolle als Wettbewerbsvorteil

Kein Thema prägt die aktuelle Diskussion rund um Enterprise Content Management so sehr wie Künstliche Intelligenz. KI-Tools können Texte generieren, Bilder erstellen, Inhalte übersetzen, personalisieren und optimieren – und das mit einer Geschwindigkeit, die menschliche Teams allein nie erreichen könnten.

Doch mit der wachsenden Menge an KI-generierten Inhalten entstehen neue Risiken:

  • Qualitätskontrolle: Wer prüft, ob KI-generierte Inhalte sachlich korrekt, markenkonform und rechtlich unbedenklich sind?
  • Compliance: Besonders in regulierten Branchen wie dem Bankwesen, dem Versicherungssektor oder der öffentlichen Verwaltung müssen Inhalte strengen rechtlichen Anforderungen genügen.
  • Verantwortlichkeit: Wer ist verantwortlich, wenn ein KI-generierter Inhalt falsch ist oder einen Kunden schädigt?
  • Markenkonsistenz: KI, die ohne klare Leitplanken arbeitet, produziert möglicherweise Inhalte, die nicht zur Markenidentität passen.

Die Antwort lautet: KI-Governance. Darunter versteht man klare Freigabeprozesse, definierte Verantwortlichkeiten, integrierte Qualitätssicherung und transparente Workflows. KI darf kein Add-on sein – sie muss tief in redaktionelle Workflows integriert sein:

  • KI-generierte Entwürfe durchlaufen automatisch definierte Freigabe- und Review-Prozesse
  • Jeder KI-Eingriff ist nachvollziehbar und auditierbar
  • Redakteure behalten die volle Kontrolle – das Prinzip „Human in control“ ist in der Plattformarchitektur verankert

Ein KI-gestütztes CMS, das diese Anforderungen erfüllt, wird in regulierten Branchen nicht mehr als Innovation wahrgenommen, sondern als notwendige Grundvoraussetzung.

Digitale Souveränität: Wer kontrolliert die Daten?

Eng verbunden mit dem Thema Governance ist die Frage der digitalen Souveränität. Besonders für Unternehmen in regulierten Industrien ist es eine strategische und oft regulatorische Frage: Wo werden Systeme betrieben? Wer hat Zugriff auf welche Daten?

Unternehmen müssen bei der Wahl eines Enterprise-CMS darauf achten, welche Hosting-Optionen eine Plattform bietet:

  • Public Cloud: Maximale Skalierbarkeit und Effizienz, aber abhängig vom Cloud-Anbieter
  • Private Cloud: Mehr Kontrolle, eigene Infrastruktur, höhere Sicherheit für sensible Daten
  • On-Premises: Vollständige Datensouveränität, besonders relevant für kritische Infrastruktur und hochregulierte Branchen

Digitale Souveränität ist kein Nice-to-have – sie ist ein Entscheidungskriterium im Headless CMS Vergleich für Großunternehmen, Banken und Versicherer.

Praxisbeispiel: Deutsche Bundesbank setzt auf Enterprise-CMS

Wie eine solche Architektur in der Praxis aussieht, zeigt das Beispiel der Deutschen Bundesbank. Als eine der wichtigsten Institutionen des deutschen Finanzsystems steht die Bundesbank vor besonderen Anforderungen: höchste Sicherheitsstandards, strikte regulatorische Anforderungen und die Notwendigkeit, Inhalte für ein breites, internationales Publikum bereitzustellen.

Die Bundesbank setzt auf CoreMedia als Enterprise-Content-Plattform. Die Lösung ermöglicht es, strukturierte Inhalte zentral zu verwalten und kanalübergreifend auszuspielen – ohne Abstriche bei Compliance, Datensouveränität oder redaktioneller Kontrolle. Ein Paradebeispiel dafür, wie Hybrid Headless in einer hochregulierten Umgebung funktioniert.

CoreMedia im Headless CMS Vergleich

Bei der Auswahl eines Headless CMS für Großunternehmen spielen mehrere Kriterien eine zentrale Rolle:

  • API-first-Architektur: Inhalte müssen über standardisierte REST- oder GraphQL-APIs flexibel abrufbar sein – für beliebige Frontends, Apps oder KI-Interfaces.
  • Redaktions-Experience: Marketing- und Content-Teams müssen ohne Entwickler-Unterstützung effizient arbeiten können.
  • Omnichannel Content Delivery: Inhalte müssen konsistent und schnell auf allen relevanten Kanälen ausgespielt werden können.
  • Integration in den Composable Stack: Nahtlose Integration in CRM, PIM, DAM, Commerce-Systeme und Analytics-Tools.
  • Skalierbarkeit und Performance: Technische Skalierbarkeit für globale Unternehmen mit hohem Traffic.
  • Zukunftsfähigkeit durch KI und Personalisierung: Native KI-Integration, Personalisierungsfunktionen und eine klare Produkt-Roadmap.

CoreMedia adressiert all diese Kriterien mit einer Plattformarchitektur, die speziell für die Anforderungen von Enterprise- und B2B-Unternehmen entwickelt wurde. Die Kombination aus API-basierter Headless-Architektur, einer leistungsfähigen redaktionellen Oberfläche und integrierter KI-Governance macht CoreMedia zu einem der wenigen Anbieter, die den Hybrid-Headless-Ansatz konsequent umsetzen.

Fazit: Der neue Standard heißt Hybrid Headless mit KI-Governance

Die Enterprise-Content-Welt steht an einem Wendepunkt. Reine Headless-Systeme bieten technische Freiheit, aber zu wenig Unterstützung für redaktionelle Teams. Klassische CMS-Lösungen bieten Komfort, aber zu wenig Flexibilität für moderne Omnichannel-Anforderungen. Die Zukunft liegt in der Mitte: Hybrid Headless CMS, die beide Welten verbinden.

Der neue Standard für Enterprise Content Management kombiniert vier Elemente:

  • Hybrid Headless Architektur für maximale Flexibilität und Editor Experience
  • Strukturierter Content als gemeinsame Basis für alle Kanäle und KI-Prozesse
  • Integrierte KI-Governance für kontrollierten, compliance-gerechten Einsatz von KI
  • Digitale Souveränität durch flexible Hosting-Optionen und volle Datenkontrolle

Wer jetzt in die richtige Plattform investiert, schafft die Grundlage für Content-Skalierung, Personalisierung und Wettbewerbsfähigkeit. Der Headless CMS Vergleich für Großunternehmen, Industrieunternehmen, Banken und Versicherer führt dabei immer öfter zu einer klaren Erkenntnis: Hybrid Headless mit KI-Governance ist kein Trend – es ist der neue Standard.

Häufig gestellte Fragen (FAQ)

Was ist ein Headless CMS und wie unterscheidet es sich von einem klassischen CMS?

Ein Headless CMS trennt das Backend (Inhaltsverwaltung) vom Frontend (Darstellung). Inhalte werden über eine API-first-Architektur bereitgestellt und können auf beliebigen Kanälen ausgespielt werden – Websites, Apps, Chatbots oder Voice Assistants. Ein klassisches CMS hingegen ist eng mit einer festen Darstellungsschicht verbunden, was die Flexibilität stark einschränkt. Der entscheidende Vorteil eines Headless CMS: Omnichannel Content Delivery ohne technische Abhängigkeit von einem einzigen Frontend.

Was ist der Unterschied zwischen Headless CMS und Hybrid Headless CMS?

Ein reines Headless CMS bietet maximale technische Flexibilität, ist aber oft schwierig für Redakteure und Marketing-Teams zu bedienen. Ein Hybrid Headless CMS kombiniert die API-basierte Architektur mit einer leistungsfähigen redaktionellen Oberfläche. Das bedeutet:

  • Entwickler profitieren von der vollen technischen Flexibilität
  • Marketing-Teams können Inhalte eigenständig und effizient verwalten
  • Integrierte Workflow- und Governance-Funktionen ermöglichen komplexe redaktionelle Prozesse

Für Enterprise-Unternehmen ist Hybrid Headless deshalb häufig die bessere Wahl als ein reines Headless-System.

Welche Kriterien sind beim Headless CMS Vergleich für Großunternehmen besonders wichtig?

Im Headless CMS Vergleich für Enterprise-Unternehmen spielen folgende Kriterien eine zentrale Rolle:

  • API-first-Architektur für flexible Omnichannel-Delivery
  • Redaktions-Experience – Marketing-Teams müssen ohne Entwickler-Unterstützung arbeiten können
  • Skalierbarkeit und Performance für globale Unternehmen mit hohem Traffic
  • Integration in den Composable Stack (CRM, PIM, DAM, Commerce)
  • KI-Governance und Zukunftsfähigkeit
  • Digitale Souveränität und flexible Hosting-Optionen

Was versteht man unter KI-Governance im Content Management?

KI-Governance bezeichnet klare Regeln, Prozesse und Verantwortlichkeiten für den Einsatz von Künstlicher Intelligenz in der Content-Erstellung. Konkret bedeutet das:

  • KI-generierte Inhalte durchlaufen definierte Freigabe- und Review-Prozesse
  • Jeder KI-Eingriff ist nachvollziehbar und auditierbar
  • Das Prinzip „Human in control“ ist fest in der Plattformarchitektur verankert
  • KI ist kein Add-on, sondern tief in redaktionelle Workflows integriert

Besonders in regulierten Branchen wie Banken, Versicherungen oder der öffentlichen Verwaltung ist KI-Governance keine Option, sondern eine Pflicht.

Warum ist modularer Content so wichtig für Enterprise-Unternehmen?

Modularer Content ermöglicht es, Inhalte in wiederverwendbare Bausteine zu zerlegen, die flexibel über verschiedene Kanäle, Märkte und Anwendungsfälle hinweg eingesetzt werden können.

Das bringt entscheidende Vorteile:

  • Single Source of Truth: Inhalte werden einmal erstellt und überall wiederverwendet
  • Konsistenz über Kanäle, Sprachen und Märkte hinweg
  • Schnellere Time-to-Market durch Wiederverwendung
  • Grundlage für Personalisierung und Automatisierung

Gleichzeitig fördert ein modularer Ansatz die Erstellung strukturierter Daten, da Inhalte in klar definierten Modellen und Komponenten organisiert werden müssen, sodass Inhalte von KI-Systemen besser verstanden, verarbeitet und genutzt werden können.

Was bedeutet digitale Souveränität im Kontext eines Enterprise CMS?

Digitale Souveränität bedeutet, dass Unternehmen die volle Kontrolle über ihre Systeme, Daten und Infrastruktur behalten. Im Kontext eines Enterprise CMS umfasst das die Wahl der Hosting-Umgebung:

  • Public Cloud: Maximale Skalierbarkeit, aber Abhängigkeit vom Cloud-Anbieter
  • Private Cloud: Mehr Kontrolle und Sicherheit für sensible Daten
  • On-Premises: Vollständige Datensouveränität – besonders relevant für kritische Infrastruktur und regulierte Branchen

Darüber hinaus gewinnen hybride Ansätze zunehmend an Bedeutung: Unternehmen können bestimmte Systeme oder Prozesse gezielt in der Cloud betreiben, während sensible Daten oder kritische Anwendungen on-premises bleiben. Für Banken, Versicherungen und Industrieunternehmen ist digitale Souveränität ein zentrales Auswahlkriterium im Headless CMS Vergleich.

Für welche Unternehmen eignet sich CoreMedia als Headless CMS?

CoreMedia richtet sich vor allem an Enterprise- und B2B-Unternehmen, die ihre Content-Strategie schnell skalieren und gleichzeitig Kontrolle und Qualität sicherstellen möchten. Die Plattform ist besonders geeignet für:

  • Finanzdienstleister und Banken mit hohen Compliance- und Governance-Anforderungen
  • Versicherungsunternehmen mit komplexen Produktwelten und regulatorischen Vorgaben
  • Globale Industrieunternehmen mit mehrsprachigen, mehrkanaligen Content-Anforderungen
  • Versorgungsunternehmen (Utilities) mit komplexen Kundenkommunikations- und Serviceprozessen über digitale und persönliche Kanäle hinweg
  • Luxury Retail mit hochwertigem Markenanspruch über alle Touchpoints

Gemeinsam ist all diesen Unternehmen: Sie wollen Content mit KI skalieren – ohne die Kontrolle über Inhalte, Prozesse und Daten zu verlieren.

Der Beitrag Headless CMS für Enterprises: Darum wird Hybrid Headless mit KI-Governance zum neuen Standard erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Kennst du die EUDI-Wallet? 52 Prozent der Deutschen tun es nicht

16. April 2026 um 14:00

Der Beitrag Kennst du die EUDI-Wallet? 52 Prozent der Deutschen tun es nicht erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

EUDI-Wallet Europa

Eine aktuelle Umfrage zeigt, dass mehr als die Hälfte der deutschen Bevölkerung keine Ahnung hat, was EUDI-Wallet ist. Fakt ist aber, dass sie nächstes Jahr kommen wird. Grund genug, die Brieftasche weiter zu öffnen und auch in den kleinen Münzen zu kramen – digital natürlich.

EUDI, das ist nicht der Name einer putzigen Animationsfigur, sondern … weißt du es? Laut einer repräsentativen Umfrage von Bitkom können nur 5 Prozent der Deutschen richtig erklären, was es damit auf sich hat. Die Abkürzung steht für European Digital Identity Wallet.

Was ist die EUDI-Wallet?

Die Planungen dafür gehen mehr als zwei Jahre zurück. Im Februar 2024 hat das Europäische Parlament eine EU-Verordnung verabschiedet. Nach dieser novellierten eIDAS-Verordnung sind alle EU-Mitgliedstaaten dazu verpflichtet, bis 2027 eine EUDI-Wallet verfügbar zu machen.

Auch BASIC Thinking hat damals von der digitalen Brieftasche berichtet – und darauf verwiesen, dass die Wallet an sich keine neue Erfindung ist. Fast jedes Smartphone hat bereits eine. Darin kannst du beispielsweise Tickets wie Bordkarten speichern. Zahlungen mit entsprechenden Pay-Diensten sind ebenfalls möglich.

Mit der EUDI-Wallet hast du deinen Identitätsnachweis und andere Belege wie den Personalausweis, Führerschein oder Zeugnisse europaweit immer dabei. Allerdings nicht als physische Karten im Portemonnaie oder gefaltete DIN-A4-Ausdrucke in der Tasche, sondern digital in einer App auf dem Smartphone.

Vom deutschen eID zur europäischen Wallet

Es begann mit nationalen digitalen Identitäten und mündet am 2. Januar 2027 in der EUDI-Wallet. Schon heute ist die Online-Ausweisfunktion des Personalausweises (eID) in Deutschland anerkannt. Die Technologie entspricht dem höchsten eIDAS-Vertrauensniveau. Als Nächstes kommt eIDAS 2.0.

Waren nationale digitale Identitäten wie eID die Basis, werden sie von der EUDI-Wallet europaweit zu einem interoperablen System skaliert. Doch viele fragen sich jetzt oder bald: Warum denn? Digitalisierung verspricht vor allem mehr Nutzerfreundlichkeit durch weniger Bürokratie. Außerdem sind digitale Lösungen nachhaltiger, wenn Sie Papier und andere Rohstoffe ersetzen.

Auf der anderen Seite bietet Technologie trotz proklamierten Sicherheitsstandards automatisch Sicherheitsrisiken hinsichtlich des Datenschutzes. Bei einer Kreditkarte sowie ausgedruckten Versicherungs- oder Kaufverträgen liegt es in erster Linie bei dir, ob du sie sicher aufbewahrst oder verlierst respektive preisgibst.

Stell dir vor, du mietest im Urlaub in Portugal einen Wagen. Bisher bedeutet das: Führerschein rauskramen, Kreditkarte vorzeigen, vielleicht noch eine Kopie der Versicherungspolice suchen. Mit der EUDI-Wallet läuft das anders.

Du öffnest die App, gibst per Fingerabdruck oder Gesichtserkennung die nötigen Dokumente frei – und der Vermieter kann Führerschein und Identität in Sekunden digital prüfen. Kein Papierkram, keine Sprachbarriere bei handschriftlichen Formularen, kein Risiko, ein wichtiges Dokument im Hotel vergessen zu haben.

Dasselbe Prinzip gilt für die Kontoeröffnung bei einer Bank, die Einschreibung an einer Uni im Ausland oder den Abschluss eines Mietvertrags: Ein Fingertipp ersetzt den Gang zum Amt oder das Einscannen von Dokumenten. Grundlegend spannender ist aber zunächst die Frage: Wie viel wissen die Deutschen überhaupt von der EUDI-Wallet?

Mehr als die Hälfte kennt die EUDI-Wallet nicht

An der Befragung im Auftrag des Digitalverbands Bitkom haben 1.004 Menschen ab einem Alter von 16 Jahren teilgenommen. Die Umfrage ergab, dass 52 Prozent – und damit die Mehrheit – der deutschen Bevölkerung noch nie von der EUDI-Wallet gehört haben.

18 Prozent kennen den Begriff zwar, wissen aber nicht, was sich dahinter verbirgt. Minimal mehr (20 Prozent) kennen die Hintergründe zur digitalen Brieftasche, während nur 5 Prozent sie gut erklären können. Weitere 5 Prozent haben sich enthalten.

Bitkom-Präsident Ralf Wintergerst bezeichnet die EUDI-Wallet als „eine der bedeutendsten Innovationen dieser Jahre – eine sichere digitale Identität für alle Europäerinnen und Europäer.“ Doch es braucht eine Aufklärungskampagne, denn die „EUDI-Wallet sollte zum Standard werden.“

Damit das gelingt, haben sich schon jetzt über 100 Unternehmen einem gemeinsamen „Memorandum of Understanding“ des Bundesministeriums für Digitales und Staatsmodernisierung und Biktom angeschlossen. Sie wollen schnell relevante Anwendungen anbieten, um die EUDI-Wallet zu verbreiten.

Auch interessant:

Der Beitrag Kennst du die EUDI-Wallet? 52 Prozent der Deutschen tun es nicht erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

4 Passwort-Manager aus Europa, die deine Daten sicher schützen

16. April 2026 um 05:45

Der Beitrag 4 Passwort-Manager aus Europa, die deine Daten sicher schützen erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Passwortmanager Europa USA Software

Wer seine Passwörter einem US-Dienst anvertraut, gibt sensible Daten in Hände, deren Schutz zunehmend unsicher erscheint. Doch der europäische Markt bietet inzwischen starke Alternativen mit konsequentem Datenschutz. Wir stellen vier Passwort-Manager aus der Schweiz, Deutschland und Luxemburg vor.

Über Jahrzehnte hinweg war die Abhängigkeit Europas von amerikanischer Technologie akzeptiert und bildete das Fundament unserer modernen IT-Infrastruktur. Doch neben der in den letzten Jahren gewachsenen Abneigung gegen digitale Services aus China werden inzwischen auch Produkte aus den Vereinigten Staaten in Frage gestellt.

Unternehmen wie Apple, Microsoft, Amazon, Google und Meta haben nicht nur eine enorme Marktmacht, sondern nutzen diese auch aus – teilweise mit wettbewerbswidrigen Praktiken. Viele Nutzer hegen zudem Bedenken, dass sensible Daten in den Händen von US-Unternehmen nicht gut aufgehoben sind.

Seit dem erneuten Amtsantritt von US-Präsident Donald Trump hat das Thema wieder an Bedeutung gewonnen, da sich zunehmend die Frage stellt, ob die USA noch ein verlässlicher Partner für Europa sind. Trumps außen- und handelspolitische Entscheidungen wie seine Zollpolitik nähren zumindest die Zweifel.

Warum europäische Passwort-Manager jetzt gefragt sind

Kritiker sehen in den USA eine immer engere Verflechtung von Politik und Wirtschaft, denn Trump scheint mit vielen Tech-CEOs zu kooperieren. Geld und Fortschritt stehen an erstere Stelle, Nutzerinteressen und Datenschutz müssen hinten anstehen. Zum Glück hat Europa in den letzten Jahren technologisch deutlich aufgeholt.

Viele Alternativen „Made in Europe“ sehen sich als Gegenmodell zu amerikanischen Technologien. Die Anbieter setzen häufig auf Nachhaltigkeit, Datenschutz und klare Nutzungsbedingungen. Deshalb präsentieren wir an dieser Stelle vier Passwort-Manager aus Europa. Zuvor haben wir uns bereits Office-Anwendungen und Zahlungsanbieter angesehen.

1. Proton Pass: Open-Source-Manager aus der Schweiz

Proton Pass stammt aus der Schweiz und ist Teil des Proton-Ökosystems, das für seinen Fokus auf Privatsphäre bekannt ist. Der Dienst ist vollständig Open-Source und wird regelmäßig von unabhängigen Stellen geprüft, um die hohen Sicherheitsstandards zu garantieren. Neben der bewährten Ende-zu-Ende-Verschlüsselung, die alle gespeicherten Daten wie Benutzernamen und Webadressen schützt, bietet Proton Pass auch einen integrierten „Identitätsverwaltungsdienst“. Mit diesem können Nutzer alternative Namen für ihre E-Mails erstellen, um ihre echten Adressen vor Drittanbietern zu verbergen. Auf diese Weise können Spam und Tracking verhindert werden. Die Software ist für alle gängigen Plattformen wie iOS, Android, Windows und macOS kostenlos verfügbar. Die Plus-Version für 4,99 Euro bietet zusätzliche Funktionen wie einen integrierten 2FA-Generator.

2. Password Depot: Volle Datenkontrolle für Unternehmen

Auch aus Deutschland kommt eine gute Alternative. Der Fokus von Password Depot liegt besonders auf Unternehmen, die sensible Informationen nicht auf externen Servern lagern wollen. Mit dem Service können Kunden selbst entscheiden, ob Passwörter lokal auf dem Gerät, im Servernetzwerk des Unternehmens, in einer privaten Cloud oder auf USB-Sticks gespeichert werden. Der Manager unterstützt zudem professionelle Rollen- und Rechtesysteme sowie SSO-Anbindungen. Das macht ihn ideal für komplexe Team-Strukturen. Dank detaillierter Audit-Berichte und Protokollfunktionen unterstützt die Software Unternehmen aktiv bei der Einhaltung der DSGVO-Nachweispflichten. Die Preisgestaltung basiert auf einem Lizenzmodell – eine Konfiguration für fünf Benutzer kostet zum Beispiel einmalig 499 Euro.

3. Passbolt: OpenPGP-Verschlüsselung für IT-Teams

Passbolt wurde in Luxemburg speziell für IT-Teams mit hohen Sicherheitsstandards entwickelt. Das System basiert komplett auf Open-Source und nutzt den bewährten OpenPGP-Standard für die Verschlüsselung. Berechtigungen werden auf Passwortebene vergeben, und sensible Daten werden für jeden berechtigten Nutzer individuell verschlüsselt. Alle Operationen sind kryptografisch signiert, sodass jederzeit nachvollziehbar ist, wer ein Passwort erstellt oder geändert hat. Passbolt bietet sowohl Cloud-Hosting in der EU als auch eine Self-Hosting-Variante an, die dem Nutzer die vollständige Kontrolle über seine privaten Schlüssel lässt. Für kleinere Teams ist die Community-Version kostenlos verfügbar. Größere Organisationen können auf den Business-Tarif (ab 4,50 Euro pro Nutzer und Monat) umsteigen, der zusätzliche Funktionen wie Single Sign-On (SSO) und Aktivitätsprotokolle für Audits enthält.

4. heylogin: Der Passwort-Manager ohne Master-Passwort

Einen völlig neuen Weg geht heylogin aus Deutschland. Hier gibt es kein Master-Passwort mehr, das man sich merken muss und vergessen kann. Stattdessen nutzt heylogin das Smartphone oder einen Sicherheitsschlüssel als physischen „Schlüssel“ zu den digitalen Daten. Logins werden einfach per Swipe auf dem Handy oder per Touch am Sicherheitsschlüssel bestätigt. Das macht den Dienst benutzerfreundlich und sicher. Die Sicherheitsarchitektur basiert auf einer Zero-Knowledge-Struktur mit hardwarebasierter Ende-zu-Ende-Verschlüsselung. Das bedeutet, dass die Daten nur auf dem Gerät des Nutzers entschlüsselt werden können. heylogin wird in Deutschland entwickelt und auch hierzulande gehostet. Für die persönliche Nutzung ist der Dienst kostenlos, und für Unternehmen starten die Preise bei 4,99 Euro pro Nutzer und Monat. Eine nahtlose Integration in Systeme wie Microsoft Entra ID oder Google Workspace ist möglich.

Fazit: Passwort-Manager aus Europa

Wer ein klassisches, sicheres Ökosystem mit Zusatzfunktionen wie alternative Namen für E-Mails sucht, ist bei Proton Pass bestens aufgehoben. Unternehmen, die absolute Kontrolle über ihre gespeicherten Daten benötigen, finden in Password Depot oder Passbolt leistungsstarke Services, die zudem die Anforderungen der DSGVO erfüllen. Und heylogin bietet mit seinem innovativen Ansatz die Möglichkeit, sich komplett ohne Passwort einzuloggen.

Alle vier Anbieter aus Europa eint der Fokus auf den Schutz der Nutzerdaten. Diese werden nicht nur vor Hackern geschützt, sondern auch vor den gierigen Greifarmen anderer Unternehmen. Die Services zeigen deutlich, dass Sicherheit und Komfort Hand in Hand gehen können. Wer auf einen Partner aus Europa setzen möchte, hat also diverse valide Alternativen zur Auswahl.

Auch interessant: 

Der Beitrag 4 Passwort-Manager aus Europa, die deine Daten sicher schützen erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

YouTube Shorts deaktivieren: Neues Limit stoppt Kurzvideos komplett

16. April 2026 um 11:03
Videoplattform, Youtube, Google YouTube, YouTuber, YouTube Logo Google hat ein Update für die mobile YouTube-App veröffentlicht, mit dem Nutzer das Zeitlimit für Kurzvideos auf null Minuten setzen können. Damit verschwindet der Shorts-Reiter vom Startbildschirm. So lässt sich endloses Scrollen besser vermeiden. (Weiter lesen)

Apple Studio Display XDR: Warum viele Fernseher dagegen alt aussehen

15. April 2026 um 09:03

Das Apple Studio Display XDR übertrifft selbst Premium-Fernseher in zahlreichen Darstellungsbereichen und beeindruckt mit hoher HDR-Qualität.

Der Beitrag Apple Studio Display XDR: Warum viele Fernseher dagegen alt aussehen erschien zuerst auf DIGITAL FERNSEHEN.

Google will das "Kapern" des Zurück-Buttons künftig scharf bestrafen

18. April 2026 um 13:00
Internet, Browser, Notebook, Laptop, Computer, Webbrowser, Stockfotos, Surfen, Website, WWW, World Wide Web, Homepage, Html, internetseite Google geht ab Mitte 2026 weltweit gegen das sogenannte Back-Button-Hijacking vor. Webseiten drohen harte Strafen im Suchranking, wenn sie Nutzer beim Klick auf die Zurück-Taste auf Werbung umleiten. Administratoren müssen jetzt reagieren. (Weiter lesen)

Microsoft killt das Surface Hub: Aus für die Riesen-Touch-Displays

15. April 2026 um 08:37
Microsoft, Surface, Surface Hub, Surface Hub 2 Nach fast zehn Jahren beendet Microsoft die Produktion der riesigen Surface-Hub-Bildschirme. Damit zieht sich der Konzern komplett aus dem Markt für interaktive Whiteboards zurück. Der neue Fokus liegt nun auf Software wie Teams. (Weiter lesen)

China baut Solarkraftwerk auf 4.550 Metern Höhe in Tibet

14. April 2026 um 05:45

Der Beitrag China baut Solarkraftwerk auf 4.550 Metern Höhe in Tibet erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Solarkraftwerk Tibet China Höhe Flüssigsalzspeicher Solarthermie

Auf dem tibetischen Hochplateau entsteht eines der höchstgelegenen Solarkraftwerke der Welt. In 4.550 Metern Höhe kombiniert eine Anlage Photovoltaik mit Solarthermie und einem Flüssigsalzspeicher, der Strom auch nach Sonnenuntergang liefert. 

In der autonomen Region Xizang im Südwesten Chinas hat die China General Nuclear Power Group mit dem Bau eines solarthermischen Kraftwerks in 4.550 Metern Höhe begonnen. Die Anlage ergänzt eine Photovoltaik-Sektion, die mit einer Leistung von 400 Megawatt groß dimensioniert ist. Für den solarthermischen Teil mit einer Kapazität von 50 Megawatt kommen Parabolrinnen auf einer Fläche von 242.000 Quadratmetern zum Einsatz.

Ein zentrales Element der Anlage ist das integrierte Speichersystem auf Basis von Flüssigsalz. Es soll Energie für bis zu sechs Stunden speichern, wodurch das Kraftwerk auch nach Sonnenuntergang Strom liefern kann. Innerhalb des Systems fungiert Thermoöl als Wärmeträgermedium, das die eingefangene Sonnenenergie von den Kollektoren zum Speicher transportiert.

Flüssigsalzspeicher soll die tibetische Hauptstadt nachts mit Strom versorgen

Das Projekt kombiniert Solarthermie und Photovoltaik, um eine stabilere Einspeisung in das Stromnetz zu erreichen. Laut den Entwicklern soll die solarthermische Anlage gezielt überschüssigen Strom aus der Photovoltaik aufnehmen, der sonst zu Spitzenzeiten ungenutzt bliebe. Auf diese Weise soll die Anlage die natürlichen Schwankungen bei der Erzeugung von herkömmlichem Solarstrom kompensieren.

Ein Beispiel verdeutlicht die Notwendigkeit dieser Hybridlösung für die lokale Versorgung. Nachts sinken die Temperaturen auf dem Hochplateau stark, wodurch der Bedarf an Wärmeenergie massiv ansteigt. Da die Photovoltaik in der Dunkelheit keinen Strom produziert, übernimmt der Flüssigsalzspeicher die Versorgung. Die Techniker stellen so eine kontinuierliche Energieabgabe für die regionale Hauptstadt Lhasa sicher.

Baustelle mit Sauerstoffversorgung und Überdruckkammer

Der Baustandort im Kreis Damxung liegt in einer Zone mit einem extrem geringen Sauerstoffgehalt. Die Arbeiten können dort wetterbedingt nur in einem begrenzten Zeitraum des Jahres stattfinden. Zur Unterstützung der Arbeitskräfte installierte das Unternehmen Heizsysteme, eine Sauerstoffversorgung und eine Überdruckkammer.

Diese spezielle medizinische Ausrüstung ist für die Sicherheit der Arbeiter unter den Bedingungen der dünnen Luft zwingend erforderlich. Sie dient dazu, mögliche gesundheitliche Folgen der extremen Höhenlage für das Personal direkt vor Ort zu behandeln. Trotz dieser erschwerten Bedingungen schafft das Vorhaben über 2.000 Arbeitsplätze für die lokale Bevölkerung.

Laut Angaben des Unternehmens sollen durch Löhne und den Einsatz von regionalem Gerät bereits mehr als 5,2 Millionen Yuan in die lokale Wirtschaft geflossen sein. Dies entspricht einer Summe von etwa 753.600 US-Dollar. Das Projekt dient somit auch als wirtschaftlicher Faktor in einem klimatisch schwierigen Umfeld.

Was die Anlage ab 2027 leisten soll

Das Kraftwerk soll nach der für 2027 geplanten Inbetriebnahme jährlich rund 719 Millionen Kilowattstunden Strom erzeugen. Die Betreiber rechnen damit, dass dies etwa 220.000 Tonnen Standardkohle pro Jahr einspart. Zudem soll die Anlage den Ausstoß von Kohlendioxid um jährlich 652.300 Tonnen reduzieren.

Das Projekt ist Bestandteil des offiziellen Regierungsarbeitsberichts der Region Xizang. Dieser sieht vor, die installierte Leistung von 13 Millionen Kilowatt im Jahr 2025 auf 20 Millionen Kilowatt im Jahr 2026 zu erhöhen. Die Regionalregierung plant dafür den Aufbau großer integrierter Energiebasen, die Wind-, Solar- und Wasserkraft an verschiedenen Standorten bündeln.

Auch interessant:

Der Beitrag China baut Solarkraftwerk auf 4.550 Metern Höhe in Tibet erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Objektive werden immer leichter

13. April 2026 um 16:44
ValueTech, Fotografie, Objektiv, Canon, Nikon, Tamron, Fujifilm, CP+ 2026, Gewichtsreduktion, Linearmotor Autofokus, Kompakte Objektive, Modernes Linsendesign, Floating Focus, Digitale Objektiv Korrektur, Longitudinale chromatische Aberration, Neue Bajonett Systeme Neue Objektivgenerationen fallen zunehmend kompakter und leichter aus - oft bei gleicher oder sogar verbesserter Bildqualität. Hersteller wie Canon, Fujifilm, Nikon und Tamron verfolgen dabei kein einzelnes "Geheimrezept", sondern kombinieren Fortschritte in Optik, Mechanik, Rechenleistung und Konstruktion, wie die Kollegen von ValueTech TV erklären. (Weiter lesen)
❌