Normale Ansicht

Received yesterday — 29. April 2026BASIC thinking

Diese 10 Länder verbrauchen über 90 % der weltweiten Kohle – mit Deutschland

29. April 2026 um 20:10

Der Beitrag Diese 10 Länder verbrauchen über 90 % der weltweiten Kohle – mit Deutschland erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Kohle Lager Bagger

Trotz Energiewende und Klimazielen bleibt Kohle einer der wichtigsten Rohstoffe der Weltwirtschaft. 2024 lag der globale Verbrauch bei 9,24 Milliarden Tonnen. Die Verteilung ist aber extrem ungleich: Allein die sechs größten Abnehmer kommen auf 87 Prozent der Nachfrage. Unser Ranking zeigt, welche Länder am meisten Kohle verfeuern, wo der Verbrauch am stärksten wächst und warum der Ausstieg vielerorts in weiter Ferne liegt.

Kohle galt früher als Symbol des industriellen Fortschritts, ist heute aber ein Sinnbild für den schleppenden Wandel der globalen Energieversorgung. Viele westliche Industriestaaten schalten ihre Kraftwerke nach und nach ab, doch die weltweite Nachfrage befindet sich weiterhin auf einem hohen Niveau. Vor allem in schnell wachsenden Volkswirtschaften ist billige Kohle die Antwort auf den steigenden Energieverbrauch.

Warum nur wenige Länder fast die gesamte Kohle verbrauchen

2024 wurden laut den Daten des Statistical Review of World Energy 2025 weltweit rund 9,24 Milliarden Tonnen Kohle verbraucht. Die Verteilung ist alles andere als gleichmäßig. Allein die sechs größten Abnehmer kommen auf rund 87 Prozent der gesamten Nachfrage. Alle Staaten ab Rang 14 verbrauchen gemeinsam nur 5,9 Prozent der genutzten Kohle. Damit ist Kohle der am stärksten konzentrierte fossile Brennstoff der Welt.

Interessant sind auch die Trends. In den meisten wohlhabenden Ländern geht der Verbrauch zurück, doch es gibt auch Regionen, in denen es in genau die andere Richtung geht. Pakistan zum Beispiel legte zwischen 2023 und 2024 um 9,5 Prozent zu. Die Nation ist ein klassisches Beispiel für eine aufstrebende Wirtschaft, die den steigenden Strombedarf mit dem günstigsten verfügbaren Rohstoff deckt.

Knapp hinter den Top Ten finden sich Länder wie Kolumbien (52,7 Millionen Tonnen), Vietnam (43,8) und Kanada (42,6), die teils als Förderer, teils als Verbraucher eine Rolle spielen. Insgesamt zeigt das Ranking, wie hoch der Kohleverbrauch vor allem im asiatisch-pazifischen Raum ist. Im folgenden Ranking präsentieren wir die zehn weltweit größten Verbraucher von Kohle.

Platz 10: Polen – Kohleausstieg trotz EU-Druck kaum in Sicht

Polen steckt mitten in einem schwierigen Strukturwandel. Der Verbrauch von 85,2 Millionen Tonnen Kohle im Jahr 2024 entspricht rund 0,9 Prozent der globalen Nachfrage. Vor allem die Stromerzeugung hängt nach wie vor an dem schmutzigen Brennstoff. Trotz der Klimaziele der EU geht der Ausstieg nur langsam voran.

Der Beitrag Diese 10 Länder verbrauchen über 90 % der weltweiten Kohle – mit Deutschland erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Klicktatur: Trump regiert per Post – und manipuliert Meinungen und Märkte

29. April 2026 um 11:00

Der Beitrag Klicktatur: Trump regiert per Post – und manipuliert Meinungen und Märkte erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Donald Trump Klicktatur Truth Social

Donald Trump regiert die USA nicht nur aus dem Oval Office, sondern auch via Social Media. Über seine Plattform Truth Social flutet er täglich die Nachrichtenlage, bewegt Aktienkurse und setzt die Agenda für Medien weltweit. Der US-Politikwissenschaftler Donald Moynihan nennt das eine „Klicktatur“. Eine kommentierende Analyse.

KI als Grundlage für Trumps Strategie?

  • KI-Tools wie ChatGPT, Google Gemini oder naivere Kollegen wie Microsofts CoPilot befähigen Menschen dazu, Texte zu schreiben, die vorher keine zwei geraden Sätze nacheinander hätten schreiben können. Mit fehlerfreien Texten wird durch KI jeder zum Bürgerjournalisten – und das ganz ohne Ausbildung oder fachliche Kontrolle.
  • Die Folgen sind bereits messbar: Der Anteil von KI-Inhalten bei YouTube, Spotify und Co. nimmt immer weiter zu. Ende 2025 war fast jeder fünfte Treffer der Google-Suche schlicht und einfach KI-Müll. Die Informationsqualität im Netz sinkt – und damit das Fundament, auf dem sich Nutzer eine eigene Meinung bilden.
  • Rechtsradikale Populisten nutzen die neuen KI-Werkzeuge im höchsten Maß dazu, um soziale Medien durch Meinungsspam unter ihre Kontrolle zu bringen. Das ist das Ergebnis einer niederländischen Studie. Demnach bauen rechts- und linksradikale Populisten in sozialen Medien ein alternatives Medienökosystem auf, um ihre eigene Form der Wahrheit zu verbreiten.

Vom Brandstifter zum Kliktator

Der prominenteste Populist, der diese Strategie verfolgt, ist Donald Trump. In seiner ersten Amtszeit zwischen 2017 und 2021 hat Trump damit begonnen, den Medien seine Meinung aufzudrängen. Dafür nutzte er in erster Linie seine hervorragenden Verbindungen zu konservativen und regierungshörigen TV-Sendern wie „Fox News“, die im Prinzip zum persönlichen Haus- und Hofberichterstatter des US-Präsidenten geworden sind.

Schon damals verfolgte er eine einfache Strategie, die sein ehemaliger – und schnell geschasster – Kommunikationsberater Anthony Scaramucci auf den Punkt brachte. Donald Trump ist ein Brandstifter, der gerne Feuer legt. Sobald jedoch die Aktienkurse an der Börse lichterloh brennen, macht er einen Rückzieher seiner radikalen Ankündigungen und sorgt dafür, dass alles „im grünen Bereich“ läuft. Später hat sich das geflügelte Wort „TACO“ – Trump always chickens out – etabliert.

In seiner zweiten Amtszeit hat Donald Trump die USA endgültig von einer einst vorzeigbaren Demokratie in eine sogenannte „Klicktatur“ verwandelt. Über seine eigene Social-Media-Plattform Truth Social setzt er jeden Tag weit über zehn Meldungen ab – und bestimmt damit die Meldungen auf anderen Social-Media-Portalen wie „X“ oder Reddit und auch herkömmliche Nachrichtenkanäle wie die Tagesschau, die Süddeutsche Zeitung oder den Spiegel. Oder anders gesagt: Trump setzt Schlagzeilen – ob wahr oder unwahr, denn das spielt heutzutage keine Rolle mehr.

Stimmen

  • Der US-Politikwissenschaftler Donald Moynihan hat den Begriff „Klicktatur“ geprägt. Er spricht von einer Regierung, die Menschenmassen durch digitale Omnipräsenz in Bewegung versetzt: „Trump ist der beste Inhalte-Produzent aller bisherigen US-amerikanischen Präsidenten. Es mangelt nie an Inhalten. Aber nur, wenn es um die Menge geht. Die Vorstellung ist, dass er so Fakten verzerren und kontrollieren kann. Auch wenn das, was er sagt, Unsinn ist oder empörend: Er dominiert damit die Schlagzeilen.“
  • Das Werkzeug für diesen neuen Regierungsstil hat Steve Bannon, ehemaliger Wahlkampfmanager und anschließender Chefstratege von Donald Trump, in einem Interview 2018 beschrieben. Dabei geht es um Informationskriegsführung in Zeiten von sozialen Medien: „Die Demokraten spielen keine Rolle. Die wahre Opposition sind die Medien. Und der Weg, mit ihnen fertig zu werden, ist, die Zone mit Scheiße zu fluten.“ Genau das macht Donald Trump in seiner zweiten Amtszeit.
  • Mit den sogenannten TACOs überführt Donald Trump seine Informationsflut in die Finanzwirtschaft. Der Begriff TACO wurde 2025 vom US-Journalisten Robert Armstrong in einem Artikel in der Financial Times verwendet: „Die jüngste Kursrallye hat viel damit zu tun, dass die Märkte erkennen, dass die US-Regierung keine besonders hohe Toleranz für Markt- und Wirtschaftsdruck besitzt und schnell einen Rückzieher macht, sobald Zölle Schmerzen verursachen. Das ist die TACO-Theorie: Trump kneift immer.“

Lässt sich die Klicktatur noch stoppen?

Dass Trump TACOs mag, obwohl er Mexikaner nicht leiden kann, zeigt die Geschichte. Alles begann 2019 mit den angedrohten Strafzöllen gegen Mexiko, die Milliarden an den Börsen vernichteten. Im April 2025 dasselbe Muster: Donald Trump verkündet im sogenannten „Rosengartenmassaker“ Strafzölle gegen die halbe Welt, nur um sie kurz vor dem Inkrafttreten einzukassieren. Im Irankrieg 2026 zeigt sich ein ähnliches Muster.

Trump betreibt mit seinen Social-Media-Posts also nicht nur politisches Agenda-Setting der nächsten Generation, sondern gefährdet durch seine Form der Marktmanipulation auch noch das angesparte Geld von Kleinanlegern, die versuchen, von den positiven Effekten der Aktienmärkte zu profitieren, indem sie in Index-ETFs wie den MSCI World investieren.

Wie lässt sich diese Form der Bürgerverarsche eindämmen? Im Jahr 2021 gab es erfolgsversprechende Versuche, als Facebook, Instagram und Twitter nach dem Sturm auf das US-Kapitol die Social-Media-Accounts von Donald Trump vorübergehend gesperrt hatten. Seine Lösung: eine eigene Social-Media-Plattform.

Die Regulierungsmöglichkeiten für den Gesetzgeber sind entsprechend limitiert – es sei denn, politische Inhalte auf sozialen Medien werden ganz verboten, was dann wiederum die Meinungsfreiheit massiv einschränkt. Und das wiederum wäre der nächste Sargnagel für die westlichen Demokratien, an denen Autokraten wie Donald Trump ohnehin schon sägen.

Auch interessant:

Der Beitrag Klicktatur: Trump regiert per Post – und manipuliert Meinungen und Märkte erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Lokale Ladesäulen-Monopole machen öffentliches Laden unnötig teuer

29. April 2026 um 05:45

Der Beitrag Lokale Ladesäulen-Monopole machen öffentliches Laden unnötig teuer erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

lokale Ladesäulen Monopole öffentliches Laden teuer E-Auto Lichtblick Elektroauto

Über zwei Millionen Elektroautos sind in Deutschland zugelassen, doch der Markt für öffentliches Laden bleibt fest in der Hand weniger lokaler Anbieter. Eine aktuelle Monopolanalyse zeigt: In manchen Städten kontrolliert ein einziger Betreiber bis zu 95 Prozent aller Säulen. Was das für Preise, Wettbewerb und die Mobilitätswende bedeutet.

Der Markt für die öffentliche E-Ladeinfrastruktur verharrt in den Händen weniger lokaler Anbieter. Laut einer aktuellen Monopolanalyse des deutschen Ökostromanbieters Lichtblick beherrschen die führenden Betreiber in den untersuchten Gebieten durchschnittlich 72 Prozent des Marktes. Damit überschreiten sie den gesetzlichen Schwellenwert von 40 Prozent, ab dem eine marktbeherrschende Stellung vorliegt, massiv.

Obwohl zu Beginn des Jahres 2026 bereits über zwei Millionen Elektroautos zugelassen waren, bleibt das Laden für viele Menschen kompliziert und teuer. Besonders deutlich zeigt sich die Übermacht in Städten wie Hannover mit 95 Prozent oder Wiesbaden mit 94 Prozent Marktanteil eines einzelnen Betreibers. In Nürnberg kontrolliert der führende Anbieter 83 Prozent der Infrastruktur.

Selbst in Berlin liegt der Marktanteil der Stadtwerke mit 41 Prozent knapp über der kritischen Grenze zur Marktbeherrschung. Eine solche Dominanz verhindert laut Analyse seit Jahren einen wirksamen Wettbewerb, da die Betreiber oft eng mit den örtlichen Stromnetzbetreibern verflochten sind.

Ladesäulen-Monopole: Warum Drittanbieter hohe Gebühren zahlen müssen

Das aktuelle System verschafft den Monopolisten einen unfairen Vorteil und benachteiligt unabhängige Anbieter systematisch. Drittanbieter müssen im sogenannten Roaming-Modell zusätzlich zum Fahrstromtarif des jeweiligen Säulenbetreibers ein Entgelt zahlen. Das führt dazu, dass externe Unternehmen teilweise bis zu 86 Prozent höhere Gebühren entrichten müssen als die eigene Kundschaft der Monopolisten.

Zudem streichen ausschließlich die Säulenbetreiber die Erlöse aus dem THG-Quotenhandel von derzeit 16 Cent pro Kilowattstunde ein. Markus Adam, Chefjurist von LichtBlick, dazu:

Die Ergebnisse unserer Monopolanalyse zeigen: Die lokalen Monopolstrukturen haben sich verfestigt. Wir sehen weiterhin die negativen Folgen für den Fahrstrommarkt und Verbraucher. E-Mobilisten geraten in einen Tarifdschungel, in dem viel zu oft die Monopolanbieter die Preise überhöht und diskriminierend festsetzen. Die bislang nicht adressierte Marktmacht beim Laden unterwegs droht die Mobilitätswende empfindlich zu treffen.

Unabhängige Unternehmen können unter diesen Voraussetzungen laut Adam kaum ein kostendeckendes Angebot für ihre Kunden erstellen. Die Analyse warnt davor, dass ohne faire Marktzugänge alternative Anbieter mittelfristig vom Markt verschwinden. Das würde den bereits bestehenden Tarifdschungel der E-Mobilität weiter verfestigen und die Mobilitätswende gefährden. Hohe und teils diskriminierende Preise erschweren der Untersuchung zufolge den Umstieg auf klimafreundliche Antriebe.

Wie ein neues Modell den Ladestrom-Markt öffnen soll

Als Ausweg schlägt Lichtblick ein Durchleitungsmodell vor, das die Rollen von Infrastrukturbetreibern und Stromlieferanten strikt trennt. In diesem Modell erhalten die Betreiber lediglich ein festes Nutzungsentgelt für die Bereitstellung und Wartung der Säulen.

Der Wettbewerb um Kunden findet dann direkt zwischen verschiedenen Stromanbietern statt, die ihre eigenen Tarife an jeder Säule anbieten können. Die Infrastruktur finanziert sich durch diese Nutzungsgebühren selbst. Das macht sie laut Analyse von staatlichen Förderungen unabhängig.

Nutzer von Elektroautos könnten durch dieses Modell ihren gewählten Tarif an jeder öffentlichen Ladesäule verwenden. Dies würde für mehr Transparenz sorgen und überhöhte Kosten im Wettbewerb unmöglich machen. LichtBlick bietet das Durchleitungsmodell aktuell an einem ersten Standort seines neuen Schnellladenetzes QuickCharge an. Dieser Testlauf beschränkt sich jedoch zunächst auf Dienstwagenfahrer, die ihren Unternehmensstromtarif auch unterwegs nutzen möchten.

Auch interessant:

Der Beitrag Lokale Ladesäulen-Monopole machen öffentliches Laden unnötig teuer erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Received before yesterdayBASIC thinking

Signal-Protokoll: So schützt die Ende-zu-Ende-Verschlüsselung deine Chats

28. April 2026 um 14:04

Der Beitrag Signal-Protokoll: So schützt die Ende-zu-Ende-Verschlüsselung deine Chats erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Signal Ende-zu-Ende Verschlüsselung Protokoll E2EE

Signal gilt als eine der sichersten Messaging-Apps der Welt. Doch was steckt hinter der Ende-zu-Ende-Verschlüsselung des Dienstes? Das Signal-Protokoll kombiniert drei kryptografische Verfahren, die selbst die NSA und EU-Kommission überzeugen. Wir erklären, wie Double Ratchet, AES-256 und X3DH zusammenspielen und warum ein gestohlener Schlüssel trotzdem keinen Zugriff auf deine Chats ermöglicht.

Das Signal-Protokoll nutzt ein spezielles technisches Rahmenwerk, um die Privatsphäre seiner Nutzer zu schützen. Der sogenannte Double Ratchet Algorithmus bildet dabei das Fundament. Das System erneuert die Verschlüsselungsschlüssel innerhalb einer laufenden Konversation kontinuierlich.

Das Verfahren verspricht eine solide Sicherheit für jede Unterhaltung. Ein mechanischer Vergleich veranschaulicht das dahinterstehende Prinzip: Ein Schloss codiert sich nach jedem einzelnen Öffnen automatisch um. Nutzer profitierten von dieser Absicherung, da selbst entwendete Schlüssel keinen Zugriff auf vergangene oder zukünftige Chats ermöglichen.

Mit AES-256: Wie Signal Nachrichten verschlüsselt

AES-256 übernimmt die Verschlüsselung der Datenpakete im sogenannten Galois/Counter-Mode. Diese Methode gilt nach aktuellem Stand der Technik als sicher gegen Entschlüsselungsversuche. Ein Authentifizierungscode garantiert zusätzlich die Integrität der Daten und soll Manipulationen ausschließen.

Signal speichert laut eigenen Angaben keine Nachrichten oder Metadaten auf seinen Servern. Diese Vorgehensweise schütze die Privatsphäre der Anwender und unterscheide das System von anderen Anbietern. Im Heimatmarkt der USA wirft das aber die Frage auf, ob die Infrastruktur vollständig unabhängig von ausländischen Einflüssen ist.

So baut Signal die Ende-zu-Ende-Verschlüsselung auf

Vor der ersten Nachricht baut das System über das Verfahren Extended Triple Diffie-Hellman (X3DH) eine sichere Verbindung auf. Während dieses Prozesses tauschen die beteiligten Geräte der Nutzer öffentliche Schlüssel aus. Die mathematische Basis für diesen Austausch bildet Curve25519.

Das Protokoll X3DH nutzt langfristige Identitätsschlüssel, kurzlebige ephemere Schlüssel sowie spezielle Einmal-Prekeys. Diese Einmal-Prekeys verhindern, dass sich Angreifer während des Verbindungsaufbaus als Nutzer ausgeben können. Der Mechanismus soll die Kommunikation selbst dann schützen, wenn ein Akteur den Austausch aufgezeichnet hat.

Die Elliptic Curve Cryptography ermöglicht dabei hohe Sicherheit bei geringem Rechenaufwand. Die Effizienz dieser Methode schont zudem die Hardware moderner Endgeräte. Das System stellt damit eine vertrauenswürdige Identität zwischen zwei Kommunikationspartnern sicher.

Warum NSA und EU-Kommission auf Signal setzen

US-Behörden wie die NSA und die Cybersecurity-Behörde CISA empfehlen den Dienst bereits für die Absicherung privater Kommunikation. Dokumente des FBI bestätigen zudem, dass die Verschlüsselung den Datenzugriff für Ermittler erheblich erschwert. Auch die Europäische Kommission rät ihrem Personal zur Nutzung der App für die offizielle Dienstkommunikation.

Das US-Verteidigungsministerium äußert jedoch Bedenken hinsichtlich der nationalen Datensouveränität. Es werde intern debattiert, ob die Infrastruktur des Dienstes tatsächlich unabhängig von ausländischen Einflüssen bleibe.

Open Source: Wie Experten Signals Verschlüsselung prüfen

Fachleute prüfen die Implementierungen für Android und iOS fortlaufend auf GitHub. Die quelloffene Natur des Projekts stärkt das Vertrauen der Fachwelt in die Integrität des Systems. Forscher untersuchen den Code dabei regelmäßig auf mögliche Schwachstellen.

Trotz der laufenden Prüfungen in hochregulierten Bereichen bleibt die Anwendung eine sichere Lösung für die digitale Privatsphäre. Behörden dürften die Rolle der App für sensible Daten aber auch künftig intensiv debattieren. Nutzer weltweit vertrauten weiterhin auf die technische Stabilität des Protokolls.

Auch interessant:

Der Beitrag Signal-Protokoll: So schützt die Ende-zu-Ende-Verschlüsselung deine Chats erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Signal-Skandal im Bundestag: Das Problem sitzt vor dem Bildschirm

28. April 2026 um 11:00

Der Beitrag Signal-Skandal im Bundestag: Das Problem sitzt vor dem Bildschirm erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Signal Bundestag Messenger Klöckner App

Mehrere hochrangige deutsche Politiker haben Phishing-Nachrichten auf dem Messengerdienst Signal erhalten, hinter denen Russland vermutet wird. Obwohl Sicherheitsbehörden seit Monaten vor solchen Angriffen warnen, sind offenbar sogar Bundestagsabgeordnete in die Falle getappt. Der Fall offenbart einen gefährlichen Mangel an Medienkompetenz auf höchster politischer Ebene. Eine kommentierende Analyse.

Signal-Skandal im Bundestag: Was ist passiert?

  • Das Bundesamt für Verfassungsschutz und das Bundesamt für Sicherheit in der Informationstechnik warnen bereits seit Februar 2026 vor gezielten Angriffen auf Signal-Konten. Angreifer hätten demnach hochrangige Politiker, Militärs und Journalisten im Visier. Die Behörden gehen davon aus, dass die Angriffe voraussichtlich durch einen staatlich gesteuerten Akteur durchgeführt werden. Am 17. April wurde eine aktualisierte Warnung ausgesprochen.
  • Wie der Spiegel (€) zuerst berichtete, wurde Bundestagspräsidentin Julia Klöckner (CDU) Mitte April 2026 Opfer eines solchen Angriffs. Die deutschen Sicherheitsbehörden gehen demnach von mehr als 300 Betroffenen aus. Unklar ist, ob es sich dabei lediglich um Signal-Nutzer handelt, die eine Phishing-Nachricht erhalten haben, oder ob sie tatsächlich auf diese hereingefallen sind. Am 25. April 2026 berichteten der Spiegel (€) und die Deutsche Presseagentur übereinstimmend, dass nach Klöckners Account auch die Signal-Konten von Familienministerin Karin Prien (CDU) und Bauministerin Verena Hubertz (SPD) kompromittiert wurden. Bei der aktuellen Phishing-Attacke geben sich die Angreifer unter anderem als Signal-Support-Mitarbeiter aus.
  • Phishing ist ein Kunstwort, das eine Form der Cyberkriminalität beschreibt. Der Begriff leitet sich aus den englischen Begriffen „Password“ und „Fishing“ ab. Phishing-Angreifer agieren unter einer falschen Identität. Sie geben sich beispielsweise als Bankenvertreter, Dienstleister oder wie im aktuellen Fall als Mitarbeiter des Signal-Service aus. Ziel der Angreifer ist es, Opfer per E-Mail, Textnachricht oder Anruf auf gefälschte Websites zu locken, um sie dort etwa zur Eingabe ihres Passwortes aufzufordern. Mit abgefischten Passwörtern können sie anschließend bestimmte Accounts kompromittieren und weitere Daten erbeuten. Laut dem Bundesamt für Sicherheit in der Informationstechnik haben bereits 62 Prozent der Deutschen Phishing-Mails erhalten.

Wenn die Technik funktioniert, aber der Mensch versagt

Die Phishing-Nachrichten, die aktuell auf Signal kursieren, sind so perfide wie banal: Die Angreifer geben sich als Signal-Mitarbeiter aus, die freundlich vor Sicherheitsrisiken warnen, während die Warnung selbst ein solches Risiko birgt. Sprich: Sie spielen mit der Angst ihrer Opfer.

Doch: Wer genauer hinschaut, erkennt den Scam. Dass diese Skepsis ausgerechnet auf höchster politischer Ebene offenbar fehlt, legt einen unangenehmen Befund offen: Medienkompetenz erlangt man nicht qua Amt, sondern man muss sie sich aneignen und sie auch umsetzen.

Die Technik selbst steht dabei erstaunlich unbeschadet da. Ende-zu-Ende-Verschlüsselung, sichere Messenger, all das funktioniert – nur eben nicht gegen den Faktor Mensch. Oder, um es drastischer zu formulieren: Gegen Naivität ist kein Kraut gewachsen, auch kein kryptografisches. Dass trotz expliziter Warnungen von Behörden wie BSI und Verfassungsschutz mehrere Politiker in die Falle tappen, wirft kein gutes Licht auf den Umgang mit digitaler Selbstverteidigung im Regierungsviertel.

Dabei ist die Masche fast banal: Telefonnummer besorgen, Vertrauen simulieren, Druck erzeugen und fertig ist der Zugriff. Im Prinzip kann das zwar jedem passieren, doch genau das entbehrt nicht einer gewissen Ironie. Denn die gleichen Mechanismen, die bei Otto Normalnutzer funktionieren, greifen eben auch bei Bundestagsabgeordneten. Der Unterschied: Wenn es auf politischer Ebene passiert, kann aus einem Alltagsrisiko plötzlich ein potenzielles Staatsproblem werden.

Worauf es nun ankommt sind eine lückenlose Aufklärung und etwaige Konsequenzen. Etwa, falls die Angreifer identifiziert werden können. Ein pauschales Signal-Verbot wäre derweil Unsinn. Denn selbst die sicherste App bringt nichts, wenn Nutzer nicht damit umgehen können. Aufklärung und die Schulbank wären hingegen die weitaus sinnvollere Methode – auch auf höchster politischer Ebene.

Stimmen

  • Journalistin und ZDF-Korrespondentin Nicole Diekmann hat eine Phishing-Nachricht öffentlich gemacht, die derzeit auf Signal kursiert und die auch sie bekommen hat. Ob es sich eins zu eins um die Nachricht handelt, die auch viele deutsche Politiker erhalten haben sollen, ist zwar unklar, aber durchaus wahrscheinlich. In der Nachricht heißt es: „Signal Security meldet: In letzter Zeit häufen sich die Versuche, Nutzer unseres Messengers durch die Verbindung von Geräten von Drittanbietern mit dem Konto zu hacken. Aus diesem Grund aktualisiert Signal seine Nutzungsbedingungen und Datenschutzrichtlinien und führt eine obligatorische Zwei-Faktor-Authentifizierung für Nutzer ein. Bleiben Sie sicher und vielen Dank, dass Sie den sichersten Messenger mit End-to-End-Verschlüsselung nutzen“.
  • IT-Sicherheitsexperte Dennis-Kenji Kipker, Professor für IT-Sicherheitsrecht an der Universität Bremen, in einem Interview mit ZDFheute: „Es gibt keine technische Schwachstelle. Die Angreifer haben einfach nur eine ganz normale Funktion der App missbraucht und vielleicht auch die Gutgläubigkeit, Unwissenheit von Opfern. (…) Also Täter manipulieren Menschen, nicht Maschinen. Den Tätern geht es in erster Linie darum, Zugriff auf vertrauliche Daten, vertrauliche Informationen, Chats zu erhalten, die im Rahmen der Signalumgebung benutzt worden sind, auch verschickt worden sind.“
  • Laut Grünen-Fraktionsvize Konstantin von Notz führe die koordinierte Angriffswelle vor Augen, „dass wir ein zentrales Ziel russischer nachrichtendienstlicher Operationen sind. Viele Menschen wollen das immer noch nicht wahrhaben. Und die Bundesregierung tut noch immer nicht genug, um Deutschland vor Cyberangriffen besser zu schützen. Das ist ein echtes Sicherheitsproblem. (…) Wir müssen noch mehr sensibilisieren und unsere Kommunikation noch besser schützen.“

Signal: Drei simple Regeln, die vor Phishing schützen

Es ist noch unklar, wie groß der tatsächlich entstandene Schaden ist. Klar und fast schon beunruhigender hingegen ist, dass auf höchster politischer Ebene in Deutschland ein waschechtes Sicherheitsproblem brodelt. Dieses steckt aber nicht im Code, sondern sitzt vor den Smartphone-Bildschirmen.

Denn wer Messengerdienste wie Signal naiv und unkritisch nutzt, öffnet potenziellen Angreifern Tür und Tor für Spionageaktionen. Heißt konkret: Nicht der Einsatz von Signal, das prinzipiell gute Sicherheitsstandards umsetzt, ist das eigentliche Problem. Sondern die Art und Weise der Nutzung solcher Apps.

Der Fall ist deshalb ein trauriger wie dringend benötigter Weckruf, den Umgang mit Apps, Smartphones und den eigenen Daten zu hinterfragen. Nicht, weil Phishing neu wäre, sondern weil es immer noch unterschätzt wird. Social Engineering mag zwar nach Fachjargon klingen, ist letztlich aber nichts anderes als die psychologische Manipulation von Menschen im digitalen Raum, um sie zur Preisgabe persönlicher Informationen zu verleiten.

Das einzig Positive, das man der Signal-Affäre abgewinnen kann, ist die Hoffnung, dass keine sicherheitsrelevanten Daten abgefischt wurden und der Fall als Weckruf künftige Angriffe vorbeugt. Die Lösung ist so simpel wie banal: Aufmerksamkeit gepaart mit Skepsis und Disziplin.

Und auch die Präventionsmaßnahmen sind fast schon frustrierend simpel: keine Support-Nachrichten im Chat beantworten. Keine Pins oder Codes eintippen, wenn man dazu aufgefordert wird. Und: keine QR-Codes scannen, die plötzlich aus dem Nichts auftauchen. Das Problem: Diese drei einfachen Grundregeln scheitern oft nicht an der Technik, sondern aufgrund von Unwissenheit oder Bequemlichkeit.

Auch interessant: 

Der Beitrag Signal-Skandal im Bundestag: Das Problem sitzt vor dem Bildschirm erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Domain-Privatsphäre und -Sicherheit: Darum ist es für jedes Unternehmen wichtig

28. April 2026 um 09:30

Der Beitrag Domain-Privatsphäre und -Sicherheit: Darum ist es für jedes Unternehmen wichtig erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Domain-Privatsphäre und -Sicherheit

Eine eigene Internetadresse ist der erste Schritt zu einem erfolgreichen Unternehmen. Wenn du eine Domain kaufen möchtest, denkst du wahrscheinlich zuerst an einen einprägsamen Namen. Doch der Schutz deiner Daten ist genauso wichtig wie der Name selbst. Ohne die richtige Absicherung sind deine persönlichen Informationen öffentlich zugänglich. Dieser Artikel zeigt dir genau auf, warum Privatsphäre und Sicherheit für dein Projekt unverzichtbar sind. Du erfährst alles über die Grundlagen des Datenschutzes und wie du dein Unternehmen vor ungebetenen Gästen schützt.

Was bedeutet Domain Privacy für dich

Domain Privacy ist ein Service, der deine persönlichen Kontaktdaten im öffentlichen Verzeichnis verbirgt. Anstelle deiner echten Adresse und Telefonnummer sieht die Öffentlichkeit nur die Daten eines Stellvertreters.

Wichtige Erkenntnisse:

  1. Der Service verbirgt deine privaten Informationen vor der Öffentlichkeit.
  2. Er blockiert unerwünschte Anrufe und Spam Nachrichten.
  3. Deine Identität bleibt vollständig geschützt.

Jedes Mal, wenn jemand eine Internetadresse registriert, landen die Kontaktinformationen in einer globalen Datenbank. Diese Datenbank ist für jeden einsehbar. Wenn du deine Privatsphäre nicht schützt, können Fremde deine Telefonnummer und Email Adresse problemlos finden. Mit dem entsprechenden Schutzdienst wird ein Schutzschild um deine Daten gelegt. Deine Angaben werden durch allgemeine Kontaktinformationen des Anbieters ersetzt. Das bedeutet für dich weniger Spam, keine lästigen Werbeanrufe und ein beruhigendes Gefühl der Sicherheit.

Warum du eine sichere Domain kaufen solltest

Eine sichere Domain kaufen bedeutet, direkt von Beginn an auf Qualität und umfassenden Datenschutz zu setzen. Du investierst damit in das Fundament deines Unternehmens und schützt dich vor bösen Überraschungen.

Wichtige Erkenntnisse:

  1. Sicherheit schafft eine solide Basis für dein Wachstum.
  2. Du vermeidest teure Datenlecks und Angriffe.
  3. Kunden vertrauen einer geschützten Umgebung schneller.

Wenn du eine Domain kaufen willst, solltest du nicht nur auf den Preis schauen. Die Sicherheit deiner Daten und die deiner Besucher:innen hat oberste Priorität. Ein seriöser Anbieter integriert den Datenschutz direkt in den Bestellprozess. Das bedeutet, dass deine Daten vom ersten Tag an verschlüsselt und sicher aufbewahrt werden. Du sparst dir später viel Zeit und Nerven, wenn du sofort auf ein sicheres Fundament baust. So kannst du dich voll und ganz auf die Entwicklung deiner Ideen und das Wachstum deines Geschäfts konzentrieren.

Ein seriöser Anbieter integriert den Datenschutz direkt in den Bestellprozess. Ergänzend dazu solltest du auf Passwort-Manager aus Europa setzen, um den Zugriff auf dein Domain-Konto bestmöglich abzusichern.

Schutz vor Spam und Betrug

Der Schutz vor Spam ist eine automatische Filterung, die verhindert, dass Betrüger deine Kontaktdaten für schädliche Zwecke missbrauchen. Ohne diesen Schutz bist du ein leichtes Ziel für Kriminelle.

Wichtige Erkenntnisse:

  1. Deine Inbox bleibt frei von unerwünschter Werbung.
  2. Identitätsdiebstahl wird effektiv verhindert.
  3. Betrugsversuche werden im Keim erstickt.

Datendiebe suchen ständig nach ungeschützten Registrierungen. Sie nutzen spezielle Programme, um das öffentliche Verzeichnis nach neuen Einträgen zu scannen. Sobald sie deine Daten finden, verkaufen sie diese an Werbeagenturen oder nutzen sie für betrügerische Mails. Ein solider Privatsphäreschutz macht dich für diese Suchprogramme unsichtbar. Deine echte Email Adresse bleibt geheim und du erhältst nur die Nachrichten, die wirklich wichtig für dich sind.

Vertrauen bei deinen Besucher:innen aufbauen

Vertrauen entsteht, wenn deine Besucher:innen sehen, dass du professionell arbeitest und ihre Verbindung zu dir sicher ist. Eine abgesicherte Internetadresse ist ein starkes Signal für Qualität und Zuverlässigkeit.

Wichtige Erkenntnisse:

  1. Ein sicheres System wirkt professionell und einladend.
  2. Besucher:innen interagieren lieber mit geschützten Seiten.
  3. Ein gutes Image fördert langfristige Kundenbeziehungen.

Menschen achten heute sehr genau darauf, wem sie ihre Daten anvertrauen. Wenn sie deine Seite besuchen, suchen sie nach Signalen für Sicherheit. Eine geschützte Verbindung und ein professioneller Auftritt zeigen, dass du dein Geschäft ernst nimmst. Dieses Vertrauen verwandelt einfache Besucher:innen in treue Kund:innen. Du zeigst damit, dass du Verantwortung übernimmst und moderne Standards erfüllst.

Wie moderne Technik und KI die Sicherheit verbessern

Moderne Technik und künstliche Intelligenz sind Systeme, die Bedrohungen in Echtzeit erkennen und abwehren, bevor sie Schaden anrichten können. Sie arbeiten im Hintergrund und lernen ständig dazu.

Wichtige Erkenntnisse:

  1. KI erkennt verdächtige Muster sofort.
  2. Automatisierte Systeme blockieren Angriffe in Millisekunden.
  3. Die Technik entwickelt sich kontinuierlich weiter.

Die Welt der Technologie entwickelt sich rasend schnell. Smarte Algorithmen überwachen heute den gesamten Datenverkehr und suchen nach ungewöhnlichen Aktivitäten. Wenn ein System einen Angriffsversuch registriert, blockiert es die Bedrohung völlig automatisch. Du musst kein Computerexperte sein, um von diesen Innovationen zu profitieren. Gute Anbieter haben diese Technik bereits fest in ihre Systeme integriert. Das gibt dir die Freiheit, dich auf kreative Aufgaben und die App Entwicklung zu konzentrieren.

SSL Verschlüsselung einfach erklärt

SSL ist eine Verschlüsselungstechnik, die den Datenaustausch zwischen deiner Seite und deinen Besucher:innen unlesbar für Dritte macht. Sie sorgt für eine private und sichere Kommunikationsverbindung.

Wichtige Erkenntnisse:

  1. SSL schützt sensible Daten wie Passwörter und Zahlungen.
  2. Es ist ein weltweiter Standard für Sicherheit.
  3. Suchmaschinen bevorzugen verschlüsselte Verbindungen.

Du erkennst eine SSL Verbindung an dem kleinen Schloss Symbol oben in der Browserzeile. Wenn jemand ein Formular auf deiner Seite ausfüllt, wandelt diese Technik die Informationen in einen unlesbaren Code um. Erst wenn die Daten sicher auf dem Server ankommen, werden sie wieder entschlüsselt. Das ist absolut essenziell, besonders wenn du geschäftlich tätig bist oder prüfen möchtest, ob dein Unternehmen einen Onlineshop benötigt. Es schützt nicht nur deine Kunden, sondern verbessert auch deine Auffindbarkeit im Internet erheblich.

Warum regelmäßige Backups wichtig sind

Regelmäßige Backups deiner Daten sind essenziell, um dich vor unerwartetem Datenverlust zu schützen. Datenverlust kann durch verschiedene Faktoren wie Hackerangriffe, technische Störungen oder menschliche Fehler entstehen. Ein Backup stellt sicher, dass du im Ernstfall eine funktionierende Kopie deiner wichtigen Informationen zur Hand hast und schnell darauf zugreifen kannst. Dies ist besonders wichtig, wenn du sensible Kundendaten speicherst oder geschäftskritische Prozesse sicherstellen musst.

Ein guter Backup-Plan sollte sowohl lokale als auch cloudbasierte Backups umfassen, um doppelte Sicherheit zu garantieren. Dadurch bist du nicht nur vor physischen Schäden wie einem Festplattenausfall geschützt, sondern auch vor Cyberangriffen, die deinen Datenbestand gefährden könnten. Investiere in ein zuverlässiges Backup-System und plane regelmäßige Updates ein – es erspart dir nicht nur Stress, sondern sichert auch langfristig den Erfolg deines Projekts.

Zusammenfassung und nächste Schritte

Deine Privatsphäre und die Sicherheit deiner Daten sind das Herzstück deines erfolgreichen Projekts. Ein guter Datenschutz verbirgt deine persönlichen Informationen vor Spammern und Betrügern. Gleichzeitig sorgt moderne Verschlüsselung dafür, dass die Daten deiner Besucher:innen sicher bleiben. Wenn du diese Aspekte von Anfang an berücksichtigst, baust du ein starkes und vertrauensvolles Unternehmen auf. Du kannst sofort loslegen, indem du dir einen passenden Namen aussuchst und direkt auf die integrierten Sicherheitsfunktionen achtest. Mach den ersten Schritt und sichere dir dein eigenes Stück Freiheit im Netz.

FAQ Domain kaufen

Was passiert genau, wenn ich meine Daten nicht schütze?

Wenn du auf den Privatsphäreschutz verzichtest, stehen deine Kontaktdaten öffentlich in einem weltweiten Verzeichnis. Jeder kann deinen Namen, deine Adresse, deine Telefonnummer und deine Email Adresse sehen. Das führt sehr schnell zu einer Flut an Werbeanrufen, Spam Nachrichten und möglichen Betrugsversuchen.

Kann ich den Datenschutz auch später noch hinzufügen?

Du kannst den Privatsphäreschutz in der Regel jederzeit bei deinem Anbieter nachträglich aktivieren. Es ist jedoch am besten, ihn direkt bei der ersten Registrierung einzuschalten. Wenn deine Daten einmal ungeschützt im Netz waren, könnten sie bereits von automatisierten Programmen gespeichert worden sein.

Wirkt sich ein geschützter Eintrag negativ auf mein Unternehmen aus?

Nein, ganz im Gegenteil. Deine echten Kunden kontaktieren dich über das Kontaktformular oder die offizielle Email Adresse auf deiner Webseite. Der versteckte Eintrag im globalen Verzeichnis hält lediglich Spammer und Betrüger fern. Für den geschäftlichen Erfolg hat dies ausschließlich positive Auswirkungen.

Der Beitrag Domain-Privatsphäre und -Sicherheit: Darum ist es für jedes Unternehmen wichtig erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

CATLs neue LFP-Batterie lädt in 3:44 Minuten von 10 auf 80 Prozent

28. April 2026 um 05:45

Der Beitrag CATLs neue LFP-Batterie lädt in 3:44 Minuten von 10 auf 80 Prozent erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

CATL-Shenxing-Batterie

Elektroautos in unter vier Minuten laden: CATL will genau das mit der dritten Generation seiner Shenxing-Batterie ermöglichen. Der weltgrößte Akkuhersteller setzt dabei bewusst nicht auf größere Batterien, sondern auf extremes Schnellladen bei gleichzeitig hoher Lebensdauer. Wir erklären, wie die neue LFP-Zelle mit 15C-Laderate funktioniert und warum CATL parallel 4.000 Lade- und Tauschstationen aufbaut.

Auf dem Super Technology Day in Peking präsentierte CATL die dritte Generation seiner Shenxing Superfast Charging Battery. Unter optimalen Bedingungen steigt der Ladestand des Energiespeichers Unternehmensangaben zufolge in nur 3 Minuten und 44 Sekunden von 10 auf 80 Prozent.

Selbst bei einer extremen Kälte von minus 30 Grad Celsius soll eine Ladung von 20 auf 98 Prozent in etwa neun Minuten möglich sein. Diese Geschwindigkeit werde durch eine Spitzenladerate von 15C ermöglicht. Die Fokussierung auf die Ladegeschwindigkeit bei Lithium-Eisenphosphat-Zellen (LFP) folgt einer gezielten technologischen Strategie.

Da LFP-Akkus laut Wu Kai, leitendem Wissenschaftler von CATL, nahe an der theoretischen Grenze der Energiedichte liegen, sei das Schnellladen der optimale Weg für eine ausgewogene Entwicklung. Das ermögliche praxisgerechte Reichweiten durch sehr kurze Ladestopps anstelle von immer größeren und schwereren Batteriepaketen.

Wie CATL trotz 15C-Laderate die Batterie vor Alterung schützt

Ein zentraler Aspekt der Entwicklung ist die Kontrolle der Hitzeentwicklung während des Ladevorgangs. Ein Temperaturanstieg der Batterie um zehn Grad Celsius kann laut der Arrhenius-Gleichung die internen Nebenreaktionen verdoppeln und so die Lebensdauer der Zellen erheblich verkürzen.

Die neue Batterie vermindert dieses Risiko durch eine verbesserte Wärmeableitung und eine präzise Steuerung. In der Folge soll die Kapazität des Speichers selbst nach 1.000 vollständigen Zyklen noch bei über 90 Prozent liegen. Robin Zeng, Vorsitzender von CATL, betonte die Bedeutung der Innovationsqualität für den globalen Markt. Er erklärte, dass der Erfolg chinesischer Technologie maßgeblich auf der Glaubwürdigkeit der Marke basiere.

4.000 Stationen bis 2026: CATLs Plan für Laden und Akkutausch

Das Unternehmen plant den Aufbau einer umfassenden Infrastruktur mit 4.000 integrierten Anlagen bis Ende 2026. Diese Stationen nutzen das „Choco-Swap“-System und die neue „Choco-Swap #26“-Batterie, die auf einer 800V-Hochvolt-Architektur basiert. Damit sei das System mit einer breiten Palette moderner Fahrzeuge der Segmente B bis C kompatibel.

Die Anlagen fungieren gleichzeitig als Stationen für den Batteriewechsel und als Hochleistungsladepunkte. Eine Besonderheit ist die Möglichkeit, Energie aus den Stationsbatterien während Spitzenlastzeiten direkt an die Ladesäulen abzugeben. Das soll die Auslastung der Ausrüstung auf über 85 Prozent steigern.

Wie die Fixkosten auf ein Fünftel sinken sollen

Die Fixkosten für den Bereich des Schnellladens sinken laut Herstellerangaben durch diesen integrierten Ansatz auf ein Fünftel vergleichbarer Systeme. Für Nutzer bedeutet das eine flexiblere Energieversorgung durch die Kombination von Laden und Akkutausch. Das System wäre dadurch nicht mehr allein von der Verfügbarkeit freier Ladesäulen abhängig.

Durch eine effizientere Energieumwandlung in den Stationen verringert sich laut CATL zudem der Leistungsverlust um mehr als 13 Prozentpunkte gegenüber konventionellen Anlagen. Letztlich soll die nahtlose Verbindung von ultraschnellem Laden und schnellem Batterietausch die Reichweitenangst minimieren. Dieser duale Ansatz könnte Elektroautos für Langstrecken und kältere Regionen deutlich alltagstauglicher machen.

Auch interessant:

Der Beitrag CATLs neue LFP-Batterie lädt in 3:44 Minuten von 10 auf 80 Prozent erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Kaufkraft-Ranking 2026: Diese Regionen liegen überraschend vorn

27. April 2026 um 20:36

Der Beitrag Kaufkraft-Ranking 2026: Diese Regionen liegen überraschend vorn erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Kaufkraft Ranking 2026 Deutschland am meisten leisten

Hohe Gehälter bedeuten nicht automatisch mehr Wohlstand. Entscheidend ist, was am Ende übrig bleibt. Eine aktuelle Studie des Instituts der deutschen Wirtschaft hat die Kaufkraft in 400 Kreisen und Städten verglichen und dabei Einkommen und Lebenshaltungskosten gegenübergestellt. Die Ergebnisse überraschen. Denn: Nicht die Metropolen führen das Ranking an, sondern teils unerwartete Regionen. 

In einer Stadt wie München mögen die Menschen am meisten verdienen, doch das bedeutet nicht, dass sie sich auch am meisten leisten können. Denn bekanntlich sind Dinge wie Mieten und Restaurantbesuche hier extrem teuer. Um die tatsächliche Kaufkraft einer Stadt oder eines Landkreises zu ermitteln, muss man also das Einkommen der Bürger dem Preisniveau gegenüberstellen.

Warum Großstädte im Kaufkraft-Ranking oft verlieren

Eine aktuelle Studie des Instituts der deutschen Wirtschaft (IW) hat die Kaufkraft in insgesamt 400 Kreisen und kreisfreien Städten in Deutschland untersucht und dabei das Einkommen mit den regionalen Lebenshaltungskosten verglichen. Bei den Vertretern ganz oben auf der Liste treffen also hohe Einnahmen auf moderate Preise.

Abseits der Metropolen profitieren die Menschen von niedrigeren Mieten und günstigeren Dienstleistungen, wodurch das preisbereinigte Einkommen steigt.Wenig überraschend dominiert der Süden des Landes das Ranking. Allen voran schneidet Bayern im bundesweiten Vergleich hervorragend ab. Gleich drei der fünf bestplatzierten Regionen liegen im Freistaat.

Viele ländliche Regionen, die nicht als Wohlstandszentren bekannt sind, landen sehr weit vorne. Ein Umzug aufs Land, kann sich also auch finanziell lohnen. Allerdings muss laut dem IW die Anbindung passen, um die Standortvorteile auch für Fachkräfte nutzbar zu machen. In der folgenden Top Ten präsentieren wir die deutschen Regionen mit der höchsten Kaufkraft.

Platz 10: Kreis Olpe – günstiges Leben im Sauerland

Eröffnet wird unser Kaufkraft-Ranking vom Kreis Olpe. Hier können sich die Einwohner über ein preisbereinigtes Pro-Kopf-Einkommen von durchschnittlich 34.437 Euro im Jahr freuen. Das liegt vor allem am niedrigen Preisniveau, das mit 96,5 bewertet wird. Damit liegt Olpe unter dem deutschen Schnitt, der bei genau 100,0 angesetzt wurde.

Der Beitrag Kaufkraft-Ranking 2026: Diese Regionen liegen überraschend vorn erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Hybridmotor von Geely knackt Weltrekord mit nur 2,22 Litern Verbrauch

27. April 2026 um 16:13

Der Beitrag Hybridmotor von Geely knackt Weltrekord mit nur 2,22 Litern Verbrauch erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Geely Hybridmotor Verbrauch 2 Liter

Der chinesische Autohersteller Geely hat mit seinem neuen i-HEV-Hybridmotor einen Weltrekord aufgestellt: nur 2,22 Liter Verbrauch auf 100 Kilometer. Dahinter steckt ein strategischer Kurswechsel – weg vom reinen E-Auto, hin zu kosteneffizienten Hybrid-Modellen. Wir erklären, wie die Technik funktioniert, welche Modelle sie bekommen und was das für den europäischen Markt bedeuten könnte.

Das neue i-HEV-System von Geely nutzt Künstliche Intelligenz, um den Energiefluss in Fahrzeugen dynamisch zu regeln. Das Unternehmen gibt an, dass das die Gesamtenergieeffizienz um mehr als zehn Prozent verbessert. Der neue Hybridmotor erreiche demnach eine thermische Effizienz von 48,4 Prozent. Damit hat er einen für Serienfahrzeuge untypisch hohen Wirkungsgrad.

Dieser hohe Wirkungsgrad könnte vor allem für den Alltag relevant sein, da weniger Energie verschwendet würde. Der elektrische Antrieb soll 230 Kilowatt Leistung liefern. Laut Geely erfolgt die Beschleunigung von null auf 30 Kilometer pro Stunde in 1,84 Sekunden. Das Unternehmen hat das System gezielt auf Anforderungen im Stadtverkehr optimiert.

Was steckt hinter Geelys i-HEV-Hybridmotor?

Unter kombinierten Bedingungen soll das System einen Verbrauch von 2,22 Litern pro 100 Kilometer erreichen. Dieser Wert wurde Berichten zufolge von Guinness zertifiziert und dient als unabhängiger Nachweis für das Effizienzversprechen. Geely führt die Technologie zunächst in zwei Modellen ein: dem Geely Preface (Xingrui) und dem Geely Monjaro (Xingyue L).

Der Preface i-HEV soll laut Worldwide Harmonized Light Vehicles Test Procedure (WLTC)-Norm im Schnitt einen Verbrauch von 3,98 Litern pro 100 Kilometern aufweisen. Beim größeren Monjaro i-HEV liegt der Wert durchschnittlich bei 4,75 Litern pro 100 Kilometern. Beide Modelle behalten ihr bekanntes Design bei, erhalten aber neue Felgen und Farboptionen. Im Innenraum kommen Doppelbildschirme und das Flyme Auto-System zum Einsatz.

2,22 Liter Verbrauch: Diese Modelle bekommen die Technik zuerst

Geely plant, das i-HEV-System ab 2026 auf weitere Modelle wie den Emgrand und den Boyue auszudehnen. Der Emgrand i-HEV ist das Modell, das den Rekordwert von 2,22 Litern erzielt hat.

Das System ist mit verschiedenen Motorvarianten kombinierbar, darunter 1,5-Liter- und zwei-Liter-Motoren und wird von einer 11-in-1-Elektroantriebseinheit gepaart.

Das entspricht einem Trend in China, bei dem Hersteller Hybride als kostengünstige Alternative zu Plug-in-Hybriden fördern. Kleinere Batterien mit nur ein bis zwei Kilowattstunden sollen die Abhängigkeit von teuren Rohstoffen erheblich reduzieren.

Warum China jetzt auf günstige Hybride statt E-Autos setzt

Neben der Hybridisierung setzt Geely weiterhin auf alternative Antriebe wie Methanol. Vorstandsvorsitzender Li Shufu hat darauf hingewiesen, dass Methanol eine zehnfach höhere Energiedichte gegenüber Lithium-Ionen-Batterien aufweist.

Das könne in Zukunft Vorteile bei der Reichweite und dem Gewicht von Fahrzeugen bieten. Die regulatorischen Rahmenbedingungen in China unterstützen diese technologieoffene Strategie, da die staatlichen Anreize für Plug-in-Hybride sinken.

Mit exakt 476.327 ausgelieferten Fahrzeugen in den ersten zwei Monaten des Jahres 2026 verfügt Geely über die nötige Marktmacht, um diesen Rollout zu skalieren.

Auch interessant:

Der Beitrag Hybridmotor von Geely knackt Weltrekord mit nur 2,22 Litern Verbrauch erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

5 Gründe, warum viele Unternehmen 2026 ihre Software-Stacks verkleinern

27. April 2026 um 16:00

Der Beitrag 5 Gründe, warum viele Unternehmen 2026 ihre Software-Stacks verkleinern erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Software-Stacks verkleinern

Viele Unternehmen haben in den letzten Jahren immer mehr Tools eingeführt – oft unkoordiniert und aus akutem Bedarf heraus. 2026 kippt dieser Trend: Der Fokus verschiebt sich hin zu weniger Software, mehr Überblick und deutlich mehr Effizienz. Eine Entwicklung, die integrierte Systeme wie Bitrix24 beschleunigen.

Die Tool-Landschaften vieler Unternehmen sind explodiert: CRM, Projektmanagement, Kommunikation, HR, Dokumentenverwaltung, Automatisierung und Speziallösungen für jede Abteilung. Was anfangs wie ein Fortschritt wirkte, führt heute in vielen Teams zu Reibungsverlusten, steigenden Kosten und mangelnder Transparenz.

Ein neuer Trend setzt sich durch: „Lean & Smart“. Gemeint ist eine bewusst reduzierte Software-Umgebung, die Prozesse zentral abbildet, Datensilos auflöst und gleichzeitig die Kosten senkt. Eine Komplettlösung für Unternehmen wie Bitrix24 vereint genau diesen Ansatz – und bietet zusätzlich einen Rechner, mit dem sich die Einsparungen beim Wechsel von mehreren Tools auf Bitrix24 direkt berechnen lassen.

Einsparpotenzial mit Bitrix24 berechnen

1. Tool-Overload senkt die Produktivität

Je mehr Software ein Team nutzt, desto häufiger müssen Nutzer zwischen Oberflächen, Kontexten und Workflows wechseln. Dieser permanente Wechsel kostet Zeit und führt zu Fehlern. Studien zeigen seit Jahren, dass Kontextwechsel zu den größten Produktivitätskillern zählt.

Mit einer reduzierten Tool-Landschaft entfällt genau dieser permanente Bruch: Prozesse laufen in einem System durch, Informationen bleiben zusammen und Aufgaben lassen sich deutlich schneller erledigen.

2. Zersplitterte Daten erschweren Entscheidungen

Wenn CRM-Daten im einen System liegen, Projektinfos in einem anderen und Kommunikationshistorien in einem dritten, entsteht ein gefährlicher Blindflug. Führungskräfte und Teams treffen Entscheidungen oft auf Basis unvollständiger Informationen.

Der Trend 2026: Eine integrierte Plattform, in der Kommunikation, Projekte, CRM, Automatisierung und Dokumente miteinander verbunden sind. Dadurch entsteht ein durchgängiges Bild der Geschäftsprozesse – ein entscheidender Vorteil in einem zunehmend datengetriebenen Markt.

3. SaaS-Kosten steigen unbemerkt an

Viele Tools arbeiten nach Sitzungs- oder Nutzungsmodellen, die im Laufe der Zeit teurer werden. Gleichzeitig laufen Verlängerungen automatisch weiter, Budgets verschwimmen und versteckte Kosten entstehen über parallele Abonnements.

Immer mehr Unternehmen merken, dass sie für isolierte Einzeltools zusammen deutlich mehr zahlen als für eine leistungsfähige Komplettlösung, die mehrere Funktionen bündelt und auf Dauer kosteneffizienter ist.

4. Integrationen sorgen für Komplexität statt Erleichterung

Jedes zusätzliche Tool bringt neue Integrationspunkte mit sich. Was anfangs sinnvoll klingt, führt in der Praxis zu technischen Abhängigkeiten, Ausfällen und hohem Wartungsaufwand.

  • APIs ändern sich
  • Updates brechen Schnittstellen
  • Datensynchronisation bleibt unzuverlässig
  • IT-Abteilungen verlieren Zeit durch Troubleshooting

Eine All-in-one-Lösung reduziert genau diese Komplexität. Wenn CRM, Kommunikation, Aufgabenmanagement und Automatisierung in einem System laufen, müssen einzelne Komponenten nicht mehr aufwendig miteinander verbunden werden.

5. Lean & Smart statt Tool-Wildwuchs

2026 zeigt sich klar: Viele Unternehmen haben realisiert, dass „mehr Software“ nicht automatisch „mehr Wachstum“ bedeutet. Stattdessen entsteht ein Umdenken hin zu klaren, verbundenen Workflows — statt zu einer kaum überblickbaren Sammlung von Spezialtools.

Komplettlösungen wie Bitrix24 verknüpfen zentrale Unternehmensbereiche miteinander und ermöglichen es, Geschäftsprozesse zu automatisieren, Kollaboration zu verbessern und sämtliche Daten an einem Ort zu bündeln.

Wer wissen möchte, wie viel sich durch die Konsolidierung der eigenen Tool-Landschaft einsparen lässt, kann dies direkt über den integrierten Rechner herausfinden.

Jetzt Bitrix24 testen & Einsparungen prüfen

FAQ: Die wichtigsten Fragen und Antworten

Was bedeutet „Tool-Konsolidierung“ für Unternehmen?

Tool-Konsolidierung beschreibt den Prozess, mehrere Einzelsoftwarelösungen durch eine zentrale Plattform zu ersetzen. Ziel ist es, Datensilos aufzulösen, Kosten zu senken und die Produktivität zu steigern, indem alle relevanten Funktionen – wie CRM, Projektmanagement, Kommunikation und Automatisierung – in einem System gebündelt werden.

Warum steigen SaaS-Kosten oft unbemerkt?

Viele SaaS-Tools verlängern ihre Abonnements automatisch und erhöhen die Preise schrittweise. Hinzu kommen parallele Abonnements für überlappende Funktionen, sodass Unternehmen oft für mehrere Tools zahlen, die zusammen mehr kosten als eine einzige leistungsstarke Komplettlösung.

Was ist der Unterschied zwischen einer All-in-one-Lösung und Einzeltools?

Einzeltools sind auf spezifische Aufgaben zugeschnitten und müssen über Schnittstellen (APIs) miteinander verbunden werden – was Wartungsaufwand, Fehlerquellen und Kosten erhöht. Eine All-in-one-Lösung wie Bitrix24 vereint mehrere Funktionsbereiche nativ in einem System, wodurch Integrationen entfallen und Daten nahtlos zusammenfließen.

Wie wirkt sich Tool-Overload auf die Produktivität aus?

Häufige Kontextwechsel zwischen verschiedenen Anwendungen zählen laut Studien zu den größten Produktivitätskillern im Arbeitsalltag. Je mehr Tools ein Team parallel nutzt, desto mehr Zeit geht für das Umschalten zwischen Oberflächen, das Suchen von Informationen und das manuelle Übertragen von Daten verloren.

Was ist „Lean & Smart“ als Software-Strategie?

„Lean & Smart“ beschreibt den Ansatz, die eigene Software-Landschaft bewusst zu verschlanken: Statt vieler Spezialtools setzen Unternehmen auf wenige, leistungsfähige Plattformen, die zentrale Geschäftsprozesse abbilden. Das Ergebnis ist mehr Überblick, niedrigere Kosten und eine höhere Effizienz im gesamten Team.

Für welche Unternehmensgrößen lohnt sich eine Tool-Konsolidierung?

Tool-Konsolidierung lohnt sich grundsätzlich für Unternehmen jeder Größe – vom kleinen Team bis hin zum Mittelstand. Besonders profitieren Organisationen, die bereits mehrere parallele Tools im Einsatz haben und deren IT- oder Verwaltungsaufwand dadurch spürbar gestiegen ist.

Der Beitrag 5 Gründe, warum viele Unternehmen 2026 ihre Software-Stacks verkleinern erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

ChatGPT-5.5 bedient eigenständig Software – aber nur, wenn du zahlst

27. April 2026 um 11:00

Der Beitrag ChatGPT-5.5 bedient eigenständig Software – aber nur, wenn du zahlst erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

ChatGPT-5.5 OpenAI KI Künstliche Intelligenz Abo

OpenAI hat mit ChatGPT-5.5 ein neues KI-Modell präsentiert. Es soll den Chatbot nicht nur in vielen Bereichen deutlich verbessern, sondern es ihm ermöglichen, bei komplexen Aufgaben vermehrt eigenständig zu arbeiten. Im Mittelpunkt stehen drei Fähigkeiten, die den Umgang mit Software und digitalen Arbeitsprozessen verändern könnten. Eine kommentierende Analyse.

Was kann ChatGPT-5.5?

  • OpenAI hat mit GPT‑5.4 Pro und GPT‑5.4 Thinking streng genommen zwei neue KI-Modelle veröffentlicht. Die Thinking-Version soll vor allem in Bereichen wie Programmierung, Recherche, Informationszusammenfassung und -analyse sowie bei dokumentenintensiven Aufgaben hilfreich sein. Zum Start wird GPT-5.5 schrittweise für Nutzer von ChatGPT und Codex bereitgestellt. Zugriff erhalten nur Abonnenten der Tarife Plus, Pro, Business und Enterprise.
  • Eine der wichtigsten Neuerungen ist die stärkere Eigenständigkeit des Modells. GPT-5.5 soll Aufgaben etwa nicht nur verstehen, sondern eigenständig strukturieren, planen und in mehreren Schritten abarbeiten können. Die KI kann sich OpenAI zufolge zwischen verschiedenen Anwendungen, Oberflächen und dem Internet bewegen. Das Unternehmen nennt das „Computer Use“. Ziel dieser agentischen Arbeitsweise ist, dass weniger manuelle Eingriffe nötig sind. Denn: GPT-5.5 kann andere Software direkt bedienen.
  • OpenAI nimmt mit ChatGPT-5.5 auch die klassische Büroarbeit ins Visier. Das Modell soll etwa umfangreiche Informationen verarbeiten können, um daraus strukturierte Dokumente, Tabellen oder Präsentationen erstellen zu können. GPT-5.5 ist darauf ausgelegt, komplexe Fragestellungen über mehrere Schritte hinweg zu bearbeiten. Darunter: das Sammeln von Daten, das Überprüfen von Annahmen oder die Auswertung von Ergebnissen.

Produktivität statt Empathie: Was der Strategiewechsel bedeutet

Mit ChatGPT-5.5 verschiebt OpenAI endgültig seinen Fokus: weg von charmant simulierten Empathie-Floskeln, hin zu handfester Produktivität. So zumindest das Versprechen. Auf den ersten Blick wirkt ChatGPT-5.5 weniger wie ein gesprächiger Alleskönner, sondern eher wie ein digitaler Kollege.

Dass vor allem Unternehmen und Büroangestellte adressiert werden, ist alles andere als Zufall, sondern Teil des aktuellen Strategiewechsels. Die eigentliche Neuerung liegt damit nicht nur im Code, sondern im klaren Zuschnitt auf zahlende Kundschaft. Denn: Wie das Vorgängermodell 5.4 ist ChatGPT-5.5 nicht in der kostenlosen Version verfügbar.

Das ist sogar wirtschaftlich verständlich. Vor allem, da freie KI-Modelle im Privatbereich einen enorm hohen Energieverbrauch aufweisen, der nicht nur für die Anbieter hohe Kosten verursacht, sondern auch der Umwelt teuer zu stehen kommt.

Ein genauer Blick auf die Leistungsdaten wirft aber Fragen auf. Die Vergleichbarkeit der Benchmarks ist nämlich eingeschränkt, weil die Konkurrenz teilweise schlichtweg nicht auftaucht. Wenn ein Modell wie ChatGPT-5.5 in erster Linie gegen seinen eigenen Vorgänger antritt, gewinnt am Ende vor allem die Erzählung. Das gilt auch für Disziplinen wie Tool-Nutzung oder Cybersecurity, wo Lücken in den Tabellen mehr Fragen aufwerfen als beantworten.

Transparenz sieht anders aus. Oder höflich formuliert: ausbaufähig. Gleichzeitig reiht sich ChatGPT-5.5 in einen immer schneller werdenden Veröffentlichungsrhythmus ein. Will heißen: Kaum ist ein Modell vorgestellt, folgt bereits das nächste – inklusive spezieller Modi und Varianten. Der Strategiewechsel ist dabei deutlich erkennbar. Statt eines großen Wurfs setzt OpenAI auf ein fein gestaffeltes Produktportfolio.

Stimmen

  • Greg Brockman, Mitgründer und Präsident von OpenAI, in einem Telefonat mit Journalisten: „Dieses Modell ist ein echter Schritt in Richtung der Art von Computing, die wir in der Zukunft erwarten – aber es ist nur ein Schritt, dem noch viele weitere folgen sollen. Es ist ein schnellerer, scharfsinnigerer Denker bei weniger Tokens im Vergleich zu etwas wie 5.4. Das bedeutet also, dass Unternehmen und Verbrauchern einfach mehr bahnbrechende KI zur Verfügung steht, was Teil unseres Ziels ist.“
  • OpenAI-Chef Sam Altman in einem Beitrag auf X (ehemals Twitter): „Wir glauben an Demokratisierung. Wir möchten, dass Menschen KI in großem Umfang nutzen können; unser Ziel ist es, über die effizientesten Modelle, den effizientesten Inferenz-Stack und die größte Rechenleistung zu verfügen. Wir möchten, dass unsere Nutzer Zugang zur besten Technologie haben und dass jeder die gleichen Chancen erhält. Wir beobachten Cybersicherheit seit langem als einen Bereich der Vorsorge und haben Schutzmaßnahmen entwickelt, von denen wir überzeugt sind, dass sie es uns ermöglichen, leistungsfähige Modelle breit verfügbar zu machen.“
  • Autorin und Bloggerin Katie Parrott hat ChatGPT-5.5 bereits getestet: „Ich habe ChatGPT zum Schreiben seit fast einem Jahr nicht mehr genutzt, aber das ändert sich jetzt: Ich stelle meinen Workflow auf GPT-5.5 um. Dieses Modell gibt mir mehr Vertrauen in die Struktur eines Textes als Opus 4.7: Der Gedankengang ist klarer und der Entwurf lässt sich leichter überarbeiten. Es hat zwar immer noch einen gewissen KI-Beigeschmack in den überglätteten Übergängen und überstrapazierten Konstruktionen, und Opus ist vielleicht besser darin, prägnante Formulierungen zu finden. Aber GPT-5.5 bietet genau die Mischung aus Geschwindigkeit und Sensibilität für Feedback, die ich für mein tägliches Schreiben brauche.“

Digitaler Assistent oder schleichender Entscheider?

Ob GPT-5.5 mehr als ein gut inszeniertes Update ist, entscheidet sich nicht auf der Bühne, sondern im Alltag. Erst wenn eine breite Nutzerschaft das Modell jenseits kuratierter Versprechen einsetzt, wird sich zeigen, ob sich Autonomie, Verlässlichkeit, Sicherheit und vor allem Nützlichkeit tatsächlich in Einklang bringen lassen.

Für OpenAI geht es dabei um mehr als nur Technik – nämlich um Vertrauen. Die Diskussionen rund um militärische Kooperationen haben gezeigt, wie schnell sich öffentliche Wahrnehmung verschieben kann. Will heißen: Leistung allein reicht nicht, wenn Zweifel an den Rahmenbedingungen bleiben. Sollte es dem Unternehmen gelingen, die Debatte wieder stärker auf konkrete Anwendungsfälle und spürbaren Nutzen zu lenken, könnte GPT-5.5 zu einem strategischen Befreiungsschlag werden.

Mit der Computer-Use-Funktion setzt OpenAI zudem auf eine riskante, aber folgerichtige Vision: KI als aktiven Akteur im digitalen Raum. Das wirft jedoch zwangsläufig Fragen auf, die über Technik hinausgehen. Wie viel Kontrolle müssen Nutzer freiwillig oder unfreiwillig abgeben?

Was passiert mit sensiblen Daten, wenn die KI selbstständig durch Anwendungen navigiert? Und das vielleicht Entscheidendste: Wird aus dem Werkzeug ein Assistent oder schleichend ein Entscheider? Die Antwort darauf dürfte nicht nur den Arbeitsalltag verändern, sondern auch die Spielregeln im Umgang mit KI.

Auch interessant:

Der Beitrag ChatGPT-5.5 bedient eigenständig Software – aber nur, wenn du zahlst erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Kann ein Windbaum für 70.000 Euro mit Photovoltaik mithalten?

27. April 2026 um 05:45

Der Beitrag Kann ein Windbaum für 70.000 Euro mit Photovoltaik mithalten? erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Windbaum Alternative Photovoltaik Windenergie Erneuerbare Energien Windkraft

Ein Windbaum mit 36 blattförmigen Mikroturbinen soll auch bei schwachem Wind Strom liefern – rund um die Uhr, unabhängig von der Sonne. In Niedersachsen steht seit Kurzem die erste private Anlage Deutschlands. Doch mit einem Preis von 70.000 Euro stellt sich die Frage: Kann der Windbaum wirklich mit einer Photovoltaikanlage konkurrieren?

Photovoltaikanlagen prägen in vielen Wohngebieten in Deutschland inzwischen das Bild. Denn auf immer mehr Hausdächern finden sich Solarpanels, die Sonnenlicht in Strom umwandeln und für private Haushalte grünen Strom liefern.

Bei der Windkraft sieht das eher anders aus. Denn während große Windräder die Landschaft dominieren, spielen kleinere Lösungen für den privaten Gebrauch bisher kaum eine Rolle.

Genau hier setzen Konzepte wie der „Windbaum“ an, die Windenergie auch in der Energieversorgung im eigenen Haushalt nutzbar machen sollen. Doch ob der „Windbaum“ tatsächlich als Alternative zur Photovoltaik im privaten Bereich mithalten kann, hängt maßgeblich von Faktoren wie Standort, Windverhältnissen und Wirtschaftlichkeit ab.

Windbaum vs. Solaranlage: Wo liegen die Vorteile?

Die Vorteile von Windkraftanlagen gegenüber der Solarenergie liegen klar auf der Hand. Denn sie können Strom erzeugen, auch wenn beispielsweise nachts oder bei bewölktem Himmel keine Sonneneinstrahlung vorliegt.

Gerade in Regionen mit konstanten Luftströmungen können sie so gleichmäßigere Erträge über den gesamten Tag hinweg liefern. Genau hier setzt auch der „Windbaum“ der französischen Firma New World Wind an.

Denn er kann mit seinen blattförmigen Mikroturbinen bereits bei sehr geringen Windgeschwindigkeiten von rund 2,5 Metern pro Sekunde Strom erzeugen. Dadurch wird bereits bei schwachem Wind kontinuierlich Strom erzeugt und so eine gleichmäßigere Energieproduktion ermöglich, während klassische Windräder in diesem Bereich noch stillstehen würden.

Dabei liefern die kleinen Turbinen, die sogenannten „Aeroleafs“, jeweils bis zu 300 Watt. Ein Baum mit 36 Blätterturbinen könnte so eine Gesamtleistung von bis zu 10,8 Kilowatt erzielen.

Im Vergleich zu einem klassischen Balkonkraftwerk fällt die theoretisch mögliche Spitzenleistung des „Windbaums“ also deutlich höher aus. Allerdings handelt es sich dabei um einen Maximalwert unter idealen Bedingungen, die tatsächliche Leistung hängt natürlich stark von den tatsächlichen Windverhältnissen am Standort ab.

Erst zwei Standorte in Deutschland – und ein privater Pionier

Bereits seit November 2015 gibt es mit dem Windbaum im Einkaufszentrum Ruhrpark in Bochum die erste Anlage dieser Art in Deutschland. Ein Jahr später kam eine weitere Anlage in Stuttgart hinzu.

„Wir haben schon über 200 Windbäume in der ganzen Welt installiert“, erklärt Geschäftsführer Luc Eric Krief gegenüber der HNA. Erst kürzlich ist in Niedersachsen der erste Windbaum auf privatem Grund entstanden.

Aufgrund seiner Höhe von 9,8 Metern war für diesen keine Baugenehmigung nötig. Allerdings musste ein Betonfundament gegossen werden, das den rund 3,5 Tonnen schweren Stahlbaum stabilisiert.

Insgesamt belief sich die Investition für den „Windbaum“ inklusive Fundament und Elektroinstallationen auf rund 70.000 Euro. Es ist fraglich, ob sich der hohe Preis durch eine konstantere Stromproduktion bei schwachem Wind langfristig relativieren kann. Daher dürfte aktuell die Photovoltaik für den privaten Gebrauch in den meisten Fällen die wirtschaftlich deutlich attraktivere Lösung sein.

Auch interessant:

Der Beitrag Kann ein Windbaum für 70.000 Euro mit Photovoltaik mithalten? erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Cambridge-Forscher gewinnen Wasserstoff aus Batteriesäure und Plastik

26. April 2026 um 06:00

Der Beitrag Cambridge-Forscher gewinnen Wasserstoff aus Batteriesäure und Plastik erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Wasserstoff Batteriesäure Plastikmüll

Nur 18 Prozent des weltweiten Plastikmülls werden recycelt. Der Rest belastet Ökosysteme. Ein Forscherteam der Universität Cambridge hat nun ein Verfahren vorgestellt, das Kunststoffreste mithilfe von Sonnenlicht und alter Batteriesäure in Wasserstoff und wertvolle Chemikalien zerlegt.

Die weltweite Produktion von Plastik steigt rasant an. Im Jahr 2023 erreichte sie über 400.000.000 Tonnen. Bisher werden jedoch nur 18 Prozent des Abfalls recycelt. Große Müllberge belasten daher weltweit die Ökosysteme.

Chemische Verfahren wie das Photoreforming versprechen einen Ausweg. Dabei spaltet Lichtenergie Kunststoffe wie PET, Nylon oder Polyurethan in Wasserstoff und Chemikalien auf. Ein Team der Universität Cambridge veröffentlichte nun eine neue Methode in der Fachzeitschrift Joule.

Schwefelsäure aus alten Autobatterien

Die notwendige Säure stammt aus verbrauchten Blei-Säure-Autobatterien. Diese Batterien fallen weltweit als Abfall an und enthalten große Mengen Schwefelsäure. Die Forscher nutzen diese, um Plastik in seine Einzelteile zu zerlegen.

Der Prozess benötigt keine neuen Chemikalien, da die Säure als Katalysator dient. Sie wird bei der Reaktion nicht verbraucht. So lassen sich zwei verschiedene Abfallprobleme gleichzeitig angehen.

Für die Versuche nutzten die Wissenschaftler auch PET-Flaschen aus lokalen Cafés. Diese wurden jedoch nicht einfach in den Reaktor gegeben. Zuerst zerkleinerten die Forscher das Material in kleine Stücke.

Anschließend froren sie die Reste mit flüssigem Stickstoff ein und mahlten sie in einer Kaffeemühle zu Pulver. Erst in dieser feinen Form konnten die Kunststoffreste effizient mit der Säure reagieren. Bei diesem Schritt fallen 75 Prozent der enthaltenen Terephthalsäure als Feststoff an. Hauptautor Kay Kwarteng, Doktorand in der Forschungsgruppe, die den Photokatalysator entwickelt hat, dazu:

Säuren werden schon seit langem zum Abbau von Kunststoffen eingesetzt, aber wir hatten bisher keinen kostengünstigen und skalierbaren Photokatalysator, der diesen Säuren standhalten konnte. Sobald wir dieses Problem gelöst hatten, wurden die Vorteile dieser Art von System offensichtlich.

So viel Wasserstoff liefern Nylon und Polyurethan

Der Katalysator verarbeitet auch Nylon 66 und Polyurethan. Das Bauteil besteht aus Kohlenstoffnitrid und Molybdändisulfid. Fachleute bezeichnen es als CoMoS2-CNx. Der Katalysator arbeitet wie eine kleine Solaranlage auf molekularer Ebene.

Nylon 66 lieferte in den Tests 1,0 Millimol Wasserstoff pro Gramm Katalysator. Als Oxidationsprodukt kann dabei Pentansäure entstehen. Bei Polyurethan lag der Wasserstoffwert sogar bei 4,2 Millimol.

Die Effizienz der Lichtnutzung betrug bei zermahlten PET-Flaschen 9,0 Prozent. Das ist einer der höchsten jemals gemessenen Werte für diesen Prozess. In Langzeitversuchen blieb die Anlage über elf Tage stabil.

Dabei entstand neben Wasserstoff vor allem Essigsäure. Die Selektivität für dieses Produkt lag bei 89 Prozent. Die Forscher führen dies auf eine sogenannte 1,2-Hydridverschiebung am Katalysator zurück.

Kann sich das Verfahren wirtschaftlich lohnen?

Eine wirtschaftliche Analyse verglich verschiedene Betriebsweisen. Am besten schnitt eine Kombination aus Solarzellen und LEDs ab. Diese erlauben einen Betrieb rund um die Uhr bei gleichbleibender Lichtqualität.

Durch den Verkauf von Terephthalsäure und Essigsäure könnte das Verfahren Profit abwerfen. Die Kosten für den Wasserstoff wären dann rechnerisch negativ. Allerdings fehlen in dieser Kalkulation noch die Kosten für die Trennung der chemischen Stoffe.

Die Integration in bestehende Rückgewinnungstechnologien ist daher für die Praxis entscheidend. Nur so lässt sich das Verfahren im industriellen Maßstab einsetzen. Zukünftige Arbeiten sollen nun spezielle Reaktoren für diesen Prozess untersuchen.

Auch interessant:

Der Beitrag Cambridge-Forscher gewinnen Wasserstoff aus Batteriesäure und Plastik erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

WhatsApp: Wie du Chats von iOS zu Android übertragen kannst

25. April 2026 um 06:00

Der Beitrag WhatsApp: Wie du Chats von iOS zu Android übertragen kannst erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

WhatsApp Chats übertragen iOS iPhone Android Smartphone

Der Wechsel zwischen iPhone und Android war lange Zeit kompliziert. Vor allem auch die Übertragung von WhatsApp-Chats ließ sich meist nur mit Tricks vornehmen. Jetzt hat der Messenger eine offizielle Lösung eingeführt, die den Umzug deutlich erleichtert. Wie zeigen dir, wie du nun deine Chats bei WhatsApp plattformübergreifend übertragen und so deine Daten künftig einfacher mitnehmen kannst.

WhatsApp ist weltweit der wohl mit Abstand beliebteste Messenger. Die App aus dem Hause Meta zählt monatlich rund drei Milliarden aktive Nutzer – vergleichbar viel wie die sozialen Netzwerke Instagram und Facebook.

Bei vielen Menschen haben sich in der App über die Jahre unzählige persönliche Daten angesammelt – von wichtigen Informationen über Fotos, Videos und ganze Gesprächsverläufe. Umso ärgerlicher ist es natürlich, wenn all diese Inhalte beim Wechsel auf ein neues Smartphone verloren gehen.

Vor allem der Wechsel zwischen iPhones und Android-Geräten hat dabei lange Zeit für Probleme gesorgt. Während sich Chats innerhalb derselben Plattform vergleichsweise einfach übertragen lassen, war der Umzug zwischen den beiden Systemen oft kompliziert, lückenhaft oder nur mit inoffiziellen Lösungen möglich.

Das sollte nun aber der Geschichte angehören, denn WhatsApp bietet nun eine neue Möglichkeit, Chats plattformübergreifend zu übertragen. Wir zeigen dir, wie du das ohne den Umweg über Drittanbieter künftig vornehmen kannst.

Zwischen iOS und Android: Chats bei WhatsApp übertragen

WhatsApp will mit der neuen Funktion „Chats übertragen“ das Übertragen von iOS zu Android deutlich vereinfachen. Der Wechsel soll künftig laut dem Messaging-Dienst mit „ein paar Mal tippen“ unkompliziert erledigt sein.

Da WhatsApp die Übertragung selbst vornimmt sind alle Nachrichten während des Vorgangs durch die Ende-zu-Ende-Verschlüsselung geschützt. Folgende Informationen kannst du von iOS zu Android übertragen:

  • Konto-Informationen
  • Einzelchats
  • Gruppenchats
  • Communitys
  • WhatsApp-Kanalmeldungen
  • Chatverlauf
  • Anrufliste
  • Medien und Einstellungen

Damit der Umzug deines WhatsApp-Kontos reibungslos verläuft, müssen einige Voraussetzungen erfüllt sein. Auf deinem Android-Gerät muss mindestens Android 10 installiert sein. Auch musst du auf deinem neuen Gerät dieselbe Telefonnummer nutzen wie auf dem alten. Stelle außerdem sicher, dass auf beiden Geräten die neuste WhatsApp-Version installiert und deine WLAN-Verbindung stabil ist.

Schritt für Schritt: So kannst du deine Chats bei WhatsApp übertragen

Die Übertragung deiner Chats kannst du in nur wenigen Schritten erledigen. Die Dauer hängt allerdings davon ab, wie viele Daten übertragen werden müssen. Öffne WhatsApp auf deinem iPhone und navigiere über dein Profilbild in der unteren rechten Ecke zu deinen Einstellungen. Wähle hier den Punkt Chats aus und klicke dann auf „Chatverlauf übertragen“.

Hier hast du nun die Möglichkeit zwischen „Auf iPhone übertragen“ und „Auf Android-Gerät übertragen“ zu wählen. Tippe auf letzteren Button, um deine Chats vorzubereiten und bestätige dann mit „Weiter“. Öffne nun WhatsApp auf deinem Android-Gerät und verifiziere dein Konto mit deiner Telefonnummer. Klicke auf „Erlauben“, damit sich deine beiden Geräte verbinden können.

Auf deinem Android-Gerät wird dann ein QR-Code angezeigt, den du mit der Kamera deines iPhones scannen musst. Ist die Übertragung abgeschlossen, musst du auf deinem Android-Gerät noch einmal mit „Weiter“ bestätigen und kannst dann auf deine Chats zugreifen.

WhatsApp weist darauf hin, dass diese Übertragung nur funktioniert, wenn die App auf dem neuen Gerät noch nicht aktiviert war. Die Zusammenführung von neuen und alten Chats der beiden Geräte ist auf diesem Weg nicht möglich. Hast du WhatsApp also bereits auf deinem neuen Gerät genutzt, musst du die App zunächst deinstallieren. Erst nach neuer Installation kannst du dann deine Chats von iOS übertragen.

Auch interessant:

Der Beitrag WhatsApp: Wie du Chats von iOS zu Android übertragen kannst erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Mehr arbeiten löst die Wirtschaftskrise nicht – KI zeigt, warum

24. April 2026 um 14:00

Der Beitrag Mehr arbeiten löst die Wirtschaftskrise nicht – KI zeigt, warum erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI Wirtschaftskrise, Deutschland, Arbeit, Verschwendung, Vergeudung, Mensch, Künstliche Intelligenz, Wirtschaft, Geld

„Mehr arbeiten“ scheint der reflexartige Ruf Deutschlands auf die Wirtschaftskrise zu sein. Allerdings hat KI eins klargemacht: Statt auf bloßen Mehreinsatz zu setzen, sollte Deutschland den Fokus auf den effizienteren Umgang mit menschlicher Kreativität und Innovation richten. Eine kommentierende Analyse. 

Der Ruf nach „mehr arbeiten“ gehört in Deutschland zu den zuverlässigsten Reaktionen auf wirtschaftliche Schwäche. Er klingt entschlossen, wirkt aber im Zeitalter von KI seltsam alt. Denn da diese Technologie sichtbar macht, wie viel menschliche Denkarbeit in Routinen und Reibung verpufft, liegt das Problem unserer Wirtschaft womöglich nicht zuerst im mangelnden Einsatz, sondern darin, wie schlecht wir mit Intelligenz, Kreativität und gedanklicher Innovationskraft umgehen.

Deutschland steckt in einer Wirtschaftskrise, das wirtschaftliche Wachstum ist gering bis nicht vorhanden. Wenn man aber die Krise einmal genau betrachtet, dann könnte man zu Ergebnis kommen, dass Deutschland vielleicht auch, möglicherweise sogar noch mehr, in einer Krise der Vergeudung steckt. Damit meine ich nicht die Vergeudung von Geld und auch nicht die Vergeudung von Chancen, sondern die Vergeudung von geistiger Energie.

Wirtschaftskrise: KI zeigt, was wirklich Zeit und Wachstum kostet

Denn jeden Tag verschwinden in Unternehmen, Verwaltungen und Organisationen unzählige Stunden in Routinen, Rückfragen, Wiedervorlagen, Suchbewegungen, Berichtsschleifen, Formulierungsvarianten und Abstimmungen.

Sie fühlen sich wichtig an, produzieren allerdings oft nur Reibung und verschwenden Zeit. Und obwohl all das geschieht und auch immer wieder angeprangert wird, reden wir erstaunlich häufig noch so, als sei die zentrale Frage, ob Menschen genug arbeiten.

Das klingt zunächst nach einer provokanten These. Ganz aus der Luft gegriffen ist sie jedoch nicht. Die deutsche Wirtschaft ist 2025 real nur um 0,2 Prozent gewachsen. Gleichzeitig blieb die Zahl der Erwerbstätigen auf sehr hohem Niveau.

Das allein beweist natürlich noch nichts. Aber es passt schlecht zu der schlichten Erzählung, es fehle vor allem an Arbeitsbereitschaft. Eher deutet es darauf hin, dass die Beziehung zwischen Aufwand und Wirkung nicht mehr stimmt.

Darüber hinaus verweist die OECD auf administrative Lasten, Fachkräfteengpässe und eine zu geringe wirtschaftliche Dynamik als zentrale Bremsen für Deutschland. Und die deutsche Bundesbank sieht in der verschlechterten Wettbewerbsposition deutscher Unternehmen einen wesentlichen Grund für Exportmarktverluste. Das alles klingt nicht nach einem Land, dem nur ein paar zusätzliche Arbeitsstunden fehlen. Es klingt nach einem Land, das zu viel Energie an den falschen Stellen verbrennt.

KI als Spiegel unserer Tätigkeiten

Genau an diesem Punkt wird Künstliche Intelligenz (KI) interessant, aber nicht als Zauberstab oder als simples Heilsversprechen für schnell erzielbares Wirtschaftswachstum. Und auch nicht als bequeme Fantasie, man könne wirtschaftliche Schwäche einfach weg prompten. Interessant wird KI für mich viel mehr als ziemlich unangenehmer Spiegel.

Denn KI zeigt etwas, das insbesondere von Berufspolitikern ohne Erfahrung als Arbeitnehmer oder als Inhaber eines Unternehmens lieber nicht so genau gesehen werden möchte: nämlich wie Menschen in Unternehmen und Behörden ihre Tage damit verbringen, Informationen umzuformen, statt mit ihnen etwas Neues anzufangen.

Wie häufig hoch qualifizierte Fachkräfte nicht an schwierigen Problemen arbeiten, sondern an den sprachlichen, formalen und organisatorischen Nebenwirkungen und Dokumentationen komplexer Systeme. Und wie viel Potenzial ungenutzt bleibt, weil zu viele Köpfe mit Verwaltung statt mit Wirkung beschäftigt sind.

KI in der Wirtschaftskrise als Anklage gegen Zeitverschwendung

Das ist für mich der eigentliche Grund, warum die Debatte über KI so interessant ist. KI ist eben nicht nur eine Technologie zur Steigerung der Produktivität. Sie ist vielmehr auch eine „Anklage gegen Zeitverschwendung“.

Denn sobald eine KI in Sekunden eine Zusammenfassung, einen Textentwurf, eine Strukturierung, eine Voranalyse oder eine sortierte Auswertung liefern kann, wird mit einer gewissen Deutlichkeit sichtbar, wie viel teure menschliche Arbeitszeit bislang in genau diese Tätigkeiten versickert ist. KI macht also nicht nur schneller. Sie vielmehr sichtbar, was wir für inzwischen viel zu lange verfehlt für normal gehalten haben.

Das Problem Deutschlands ist meiner Ansicht nach nicht, dass zu wenig gearbeitet wird. Das Problem besteht vielmehr darin, dass zu viel menschliche Arbeit für Tätigkeiten aufgewendet wird, die den Wohlstand von morgen nicht erhöhen.

Wenn in einer wissensintensiven Wirtschaft wie der unseren pauschal mehr Arbeit gefordert wird, ohne zugleich über die Qualität, die Hebelwirkung und die Zielrichtung dieser Arbeit zu sprechen, dann wird Betriebsamkeit und generell Aktivität mit Fortschritt verwechselt.

Wo Unternehmen Aufmerksamkeit verschwenden

Und das gilt umso mehr in einer alternden Gesellschaft. Gerade wenn Fachkräfte knapp sind und die vorhandenen immer älter werden, ist es fast schon absurd, die Zeit der verbleibenden mit nicht Wert schaffenden Routinen zu überladen, die sich beschleunigen, vorbereiten oder zumindest teilweise automatisieren lassen.

KI wird insbesondere dann zu einer Technologie der Freilegung. Sie legt nämlich frei, wo in Unternehmen und Organisationen Aufmerksamkeit verschwenden wird bzw. verschwendet werden muss aufgrund von entsprechenden Regularien. Sie legt frei, wo Entscheidungswege unnötig zäh geworden sind. Und sie legt frei, wo Gründlichkeit mit Verzögerung verwechselt wird.

Was passiert, wenn KI Menschen nicht ersetzt, sondern besser einsetzt?

Mir geht es dabei ausdrücklich insbesondere nicht um die mittlerweile allzu bekannte Erzählung, der Mensch werde durch die KI ersetzt. Diese Erzählung ist meist entweder zu simpel oder zu bequem. Die interessantere Frage lautet vielmehr: Was wäre möglich, wenn wir Menschen nicht ersetzen, sondern besser einsetzen? Was geschieht, wenn KI einen Teil jener Vorarbeit übernimmt, die bislang Menschen mit Routinen beschäftigt, statt sie an die wirklich wichtigen Aufgaben zu bringen?

Dann könnte ausgerechnet eine Technologie, die so oft als Bedrohung beschrieben wird, zu einem Werkzeug werden, das Menschen wieder stärker an den Punkt bringt, an dem ihre Tätigkeiten wirklich Sinn ergeben: beim Einordnen, Entscheiden, Priorisieren, Verhandeln, Erfinden und Erklären.

Natürlich löst KI allein nicht das gesamte deutsche Wachstumsproblem. Sie senkt keine Energiepreise, sie ersetzt keine Industriepolitik und sie zaubert auch keine mutigen Investitionsentscheidungen herbei. Aber vielleicht liegt genau in dieser nüchternen Einordnung der entscheidende Punkt. KI muss gar nicht alles lösen, um wirtschaftlich enorm relevant zu sein. Es reicht bereits, wenn sie uns zwingt, eine unangenehme Wahrheit zur Kenntnis zu nehmen: dass wir in Deutschland sehr lange damit durchgekommen sind, geistige Schwerfälligkeit als Seriosität zu verkaufen.

Weniger Schweiß, weniger Vergeudung: Der echte Weg aus der Krise

Vielleicht liegt genau darin die eigentliche wirtschaftliche Provokation von KI. Sie bedroht nicht nur einzelne Tätigkeiten. Sie bedroht vielmehr auch Rechtfertigungsmuster. Sie stellt infrage, warum bestimmte Formen von Langsamkeit und Umständlichkeit bislang als normal, professionell oder gar alternativlos galten.

Und sie zwingt uns damit zu einer Frage, die weit größer ist als jede Tool-Debatte: Wofür genau wollen wir menschliche Intelligenz in Zukunft eigentlich noch verwenden? Die Antwort auf diese Frage dürfte am Ende wichtiger sein als jede moralisch aufgeladene Debatte über Fleiß. Denn der Weg aus der Wirtschaftskrise führt womöglich nicht zuerst über mehr Schweiß, sondern endlich über weniger Vergeudung.

Auch interessant: 

Der Beitrag Mehr arbeiten löst die Wirtschaftskrise nicht – KI zeigt, warum erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

TV-Beben: RTL schluckt Sky und verspricht mehr Bundesliga im Free-TV

24. April 2026 um 11:00

Der Beitrag TV-Beben: RTL schluckt Sky und verspricht mehr Bundesliga im Free-TV erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

RTL Sky Deutschland WOW Fußball Bundesliga Free-TV Fernsehen Streaming

Die Europäische Kommission hat RTL grünes Licht erteilt, den Pay-TV-Sender Sky Deutschland zu übernehmen. Das Unternehmen sichert sich damit auch den Streamingdienst WOW, Rechte zur Übertragung der ersten und zweiten Fußballbundesliga sowie der britischen Premier League in Deutschland, Österreich, der Schweiz und Luxemburg. Eine kommentierende Analyse.

RTL übernimmt Sky Deutschland: Zahlen und Hintergründe

  • Die RTL Group gab erstmals am 27. Juni 2025 bekannt, dass sie eine verbindliche Vereinbarung für den Kauf von Sky Deutschland unterzeichnet hat. Ob das Vorhaben realisiert werden kann, hing bislang von der Frage ab, wie die Europäische Kommission den Zusammenschluss mit Blick auf das Wettbewerbsrecht in Europa bewertet. Am 22. April 2026 gab die EU-Kommission grünes Licht. Zwischen der Anmeldung des Vorhabens am 27. Februar und der Freigabe liegen damit knapp zwei Monate. Die Genehmigung enthält keine Auflagen.
  • RTL hat sich mit Comcast, der Muttergesellschaft von Sky Deutschland, auf eine Fixzahlung von 150 Millionen Euro geeinigt. Je nachdem, wie sich der RTL-Aktienkurs in den kommenden Jahren entwickelt, können weitere 377 Millionen Euro hinzukommen. RTL peilt innerhalb von drei Jahren nach der finalen Übernahme eine Umsatzsteigerung von 250 Millionen Euro an. Der Abschluss der Transaktion soll am 1. Juni 2026 stattfinden.
  • Der Deal umfasst die Übernahme des Pay-TV-Senders Sky Deutschland, dessen Streamingdienst WOW sowie Rechte zur Übertragung der ersten und zweiten Fußballbundesliga sowie der britischen Premier League in Deutschland, Österreich, der Schweiz und Luxemburg. Ziel von RTL ist es, eine führende Streaming- und TV-Plattform zu schaffen. Das hauseigene Streaming-Angebot RTL+ kommt in Deutschland auf rund sieben Millionen Abonnenten, während Sky gut fünf Millionen zahlende Kunden an den Tisch bringt. Insgesamt zählt RTL also künftig zwölf Millionen Abonnenten. Zum Vergleich: Netflix hat in Deutschland über 17 Millionen Abonnenten, Amazon Prime (Video) rund 15 Millionen.

RTL setzt auf Fußball – und verspricht mehr Bundesliga im Free-TV

Das grüne Licht aus Brüssel ist der Startschuss für eine neue TV-Machtkonzentration in Deutschland. RTL und Sky verschmelzen zu einem gigantischen Gebilde aus Entertainment und Sport. Das ist insofern konsequent, als dass sich der Sender bereits zuvor Rechte zur Übertragung der Fußball Europa League und der NFL gesichert hatte.

Die eigentliche Sensation ist aber nicht, dass die Europäische Kommission den Deal durchgewunken, sondern einen zunehmenden Druck durch global agierende Streaminganbieter erkannt hat. Mit rund zwölf Millionen Abonnenten positioniert sich RTL samt Sky Deutschland derweil direkt hinter Netflix und Amazon Prime Video.

In direkte Konkurrenz zu den beiden Streaming-Granden tritt RTL aber nicht. Vielmehr setzt der Sender künftig vor allem auf Fußballübertragungen als Zugpferd, um den Druck durch Netflix und Co. auf sein klassisches TV- und Streamingangebot zu kompensieren.

Zwar kauft sich RTL mit dem Streamingdienst WOW auch Serien und Filme ein, doch der Großteil der neuen Abonnenten sind zweifellos Sportfans. Im Free-TV bleibt der Spielraum künftig zwar begrenzt. Doch mit der Ankündigung, bald mehr Fußball frei zu übertragen, könnte RTL ein kleiner Coup gelingen, der sowohl Zuschauer als auch Werbekunden anlockt.

Aus regulatorischen Gründen sind aber maximal fünf Bundesligaspiele pro Saisonhälfte möglich. Das soll sicherstellen, dass der Wettbewerb und TV-Formate wie die Sportschau nicht gefährdet werden. Vermutlich wird RTL die Grenze von bis zu zehn Spielen pro Saison aber ausschöpfen, was viele Fans freuen dürfte.

Stimmen

  • Thomas Rabe, CEO der RTL Group, offenbarte gegenüber der Deutschen Presseagentur und der Nachrichtenagentur Reuters bereits im Sommer 2025 ehrgeizige Ziele: „Das bringt uns auf Augenhöhe mit den amerikanischen Plattformen, vor allem Netflix und Amazon Prime. (…) Wir werden die Marke Sky langfristig weiter nutzen, weil das eine der stärksten Unterhaltungs- und Sportmarken in Europa ist.“ Er ergänzte: „Das Thema eines Zusammenschlusses mit ProSiebenSat.1 hat sich nun definitiv erledigt. Sky ist für uns die deutlich bessere Option, weil das Geschäft komplementär ist zu RTL.“
  • Viele Fußballfans befürchten, dass die Verteilung der Ausstrahlungsrechte künftig noch undurchsichtiger werden könnte. Stephan Schmitter, Chef von RTL Deutschland, dazu gegenüber dem Sportmagazin Kicker: „Es gibt da draußen zweifelsohne einen Abo-Dschungel und daraus resultierend auch den einen oder anderen Frust. Das ist uns bewusst, und wir spüren eine große Verantwortung, in unserer neuen Konstellation etwas Einzigartiges für die Fans zu entwickeln. Wir werden unsere Preisgestaltung unter die Maxime stellen, dass es ab sofort ein Angebot für möglichst jeden Geldbeutel geben sollte. Wir werden in der Kombination von RTL und Sky so viele Spiele der Bundesliga und 2. Bundesliga wie nie zuvor auch im Free-TV zeigen.“
  • EU-Wettbewerbskommissarin Teresa Ribera in einer Stellungnahme: „Wir haben diesen Deal sorgfältig geprüft und letztlich keine Anhaltspunkte dafür gefunden, dass diese Übernahme wettbewerbsrechtliche Bedenken aufwerfen würde. Die Transaktion wird es etablierten europäischen Medienkonzernen ermöglichen, ihre Position in einer Zeit zu festigen, in der sich die Branche im Wandel befindet und sie zunehmendem Druck durch globale Streaming-Plattformen ausgesetzt sind.“

Superangebot oder Abo-Flickenteppich – was kommt auf Zuschauer zu?

Die eigentliche Herausforderung für RTL wird nicht die Übernahme von Sky, sondern die Verschmelzung zweier Medienwelten sein. Das bisherige Angebot und die neuen Inhalte müssen nämlich nicht nur technisch, sondern auch markenstrategisch unter ein Dach gebracht werden.

Ob daraus ein gleichmäßig verschmolzenes Superangebot oder ein weiterer Abo-Flickenteppich entsteht, ist noch offen und wird geschäftsentscheidend sein. Die Gefahr liegt dabei weniger im Scheitern des Deals als in seiner potenziellen Überkomplexität für Nutzer und Zuschauer.

Gleichzeitig verschiebt sich das RTL-Geschäftsmodell weiter in Richtung Abo-Ökonomie und damit weg vom klassischen TV. Die Strategie: Aufmerksamkeit und Reichweite durch Sport statt Produktinnovationen oder eine neue Plattformlogik. Das größte Risiko wird die Abhängigkeit der künftigen Vergabe für Übertragungsrechte von Fußballspielen sein.

Auf europäischer Ebene erscheint der Deal derweil wie ein Signal der Konsolidierung unter globalem Druck. Denn die Entscheidung der EU-Kommission könnte weitere Zusammenschlüsse innerhalb Europas wahrscheinlicher machen.

Ob die Übernahme von Sky Deutschland für RTL von Erfolg gekrönt sein wird, hängt letztlich aber vor allem davon ab, ob es gelingt, Abopreise attraktiv zu gestalten, bestehende Abonnenten unkompliziert zu integrieren und vor allem: keinen neuen Tarifdschungel zu schaffen.

Unterm Strich stellt die Übernahme von Sky Deutschland durch RTL zwar ein kleines TV-Beben dar. Doch sie ist weniger innovative Offensive als solide Verteidigungsstrategie. Heißt konkret: Konsolidierung statt Kreativität. Sollte die Integration gelingen, dürfte sie für RTL von Erfolg gekrönt sein. Risikofrei sind Sportrechte aber nicht. Denn sie sind kurzfristig wertvoll, langfristig aber auch ein Kostentreiber.

Auch interessant:

Der Beitrag TV-Beben: RTL schluckt Sky und verspricht mehr Bundesliga im Free-TV erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Wie KI-generierte Daten deutsche Städte vor Überflutungen schützen sollen

24. April 2026 um 05:45

Der Beitrag Wie KI-generierte Daten deutsche Städte vor Überflutungen schützen sollen erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI Wetter Wasser Überflutung Künstliche Intelligenz Extremwetter

Deutsche Städte steuern ihre Kanalnetze mit Durchschnittswerten, obwohl sie für Extremereignisse gebaut wurden. Forscher des DFKI in Kaiserslautern wollen diesen Widerspruch mit generativer KI auflösen. Synthetische Daten simulieren Starkregenereignisse, für die es bisher kaum reale Messwerte gibt.

Szenen von überlasteten Kanalisationen und überfluteten Straßen wiederholen sich bundesweit immer häufiger. Diese Ereignisse legen ein Paradoxon in der Infrastrukturplanung offen, da Abwassersysteme zwar für Extremfälle konzipiert sind, ihre Steuerung im Alltag jedoch größtenteils auf Durchschnittswerten basiert. Wissenschaftler warnen davor, dass dieser Mangel an präzisen Informationen eine effektive Vorsorge in Zeiten wachsender Klimarisiken nahezu unmöglich macht.

Denn: Kommunen steuern lebenswichtige Wasserinfrastrukturen bisher weitgehend ohne detaillierte Kenntnisse über seltene, aber verheerende Extremereignisse. Historische Daten spiegeln solche Starkregenereignisse nur selten wider, und großflächige Messkampagnen gelten oft als zu kostspielig oder sind für die Öffentlichkeit nicht zugänglich. Dieser Zustand gleicht einem Blindflug, bei dem Städte die Konsequenzen unvorhersehbarer Wetterumschwünge tragen müssen.

Wie synthetische KI-Daten die Vorhersage von Starkregen verbessern

Generative KI-Modelle bieten laut Experten des Deutschen Zentrums für Künstliche Intelligenz (DFKI) einen Ausweg aus diesem Datenrätsel. Die Systeme würden reale Verteilungen erlernen und daraus synthetische Zeitreihen generieren, die auch seltene Extremfälle plausibel abbilden könnten.

Die Forschungsergebnisse zeigen, dass solche künstlich erzeugten Daten die Präzision von Vorhersagemodellen massiv steigern würden. Manche Modelle schaffen es laut Untersuchung bereits jetzt, ausschließlich mit KI-generierten Daten die Qualität von realen Messreihen zu erreichen. Für Städte und Kommunen würde das bedeuten, dass sie auf eine wesentlich verlässlichere Grundlage für ihre Vorsorgemaßnahmen zugreifen könnten.

DFKI testet KI-Modelle direkt am Abwassersystem Kaiserslautern

Am DFKI in Kaiserslautern treibt Andreas Dengel dieses Vorhaben als geschäftsführender Direktor und Leiter des Bereichs „Smarte Daten & Wissensdienste“ maßgeblich voran. Gemeinsam mit verschiedenen Forschungsbereichen testen die Wissenschaftler ihre KI-Systeme unter realen Bedingungen direkt am Abwassersystem der Stadt Kaiserslautern.

Dieser praxisnahe Ansatz soll sicherstellen, dass die theoretischen Modelle den harten Anforderungen der städtischen Infrastruktur standhalten. Wichtig für diese Entwicklung ist das am 13. Januar 2026 gestartete Transferlab mit der Bundesanstalt für Gewässerkunde (BfG).

Im Rahmen dieser Kooperation bündeln die Experten ihre Kompetenzen, um den digitalen Wandel in der Wasserwirtschaft zu beschleunigen. Ein Kernziel der Zusammenarbeit ist die langfristige Stärkung der Hydrologie sowie der Gewässergüte, um fundierte Handlungsoptionen für Politik und Verwaltung zu schaffen.

Was digitale Zwillinge bei Starkregen leisten können

Durch den Einsatz von Künstlicher Intelligenz werden sogenannte digitale Zwillinge der städtischen Infrastruktur deutlich resilienter gegen den Klimastress. KI ersetzt dabei zwar keine Ingenieure, füllt jedoch die kritischen Lücken in der Datengrundlage auf. Die simulierten Modelle erlauben es, die Belastungsgrenzen von Kanalsystemen bei Starkregen präzise zu analysieren und Schwachstellen frühzeitig zu identifizieren.

Die Simulation von Extremszenarien gilt als entscheidender Schritt auf dem Weg zu einer klimaresistenten Stadt. Andreas Dengel, geschäftsführender Direktor des DFKI Kaiserslautern, dazu:

Infrastrukturen werden für Extreme gebaut, aber mit Durchschnittsdaten betrieben. KI ermöglicht die Simulation solcher Ereignisse vorab – ein entscheidender Schritt zu klimaresistenten Städten.

Reagieren oder vorsorgen: Warum Kommunen jetzt handeln müssen

Letztlich ist die Frage nach der Nutzung dieser Technologien laut den Experten von politischer Natur. Städte müssen entscheiden, ob sie weiterhin reaktiv aus bereits eingetretenen Schäden lernen oder vorausschauend auf Basis simulierter Szenarien planen wollen.

In Zeiten knapper kommunaler Budgets bieten synthetische Daten eine kosteneffiziente Methode, um die eigene Infrastruktur gegen die Folgen des Klimawandels zu rüsten. Die Umsetzung einer vorausschauenden Planung sei im Angesicht des Klimawandels keine bloße Option mehr, sondern eine zwingende Pflicht für die Verantwortlichen. Durch den Einsatz von KI könnten Kommunen ihre Handlungsfähigkeit zurückgewinnen und ihre Bürger besser vor Naturgefahren schützen.

Auch interessant:

Der Beitrag Wie KI-generierte Daten deutsche Städte vor Überflutungen schützen sollen erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Geely überholt Tesla und VW: Die innovativsten E-Autobauer 2026

23. April 2026 um 20:50

Der Beitrag Geely überholt Tesla und VW: Die innovativsten E-Autobauer 2026 erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

BMW Auto Marke

Die Elektromobilität dreht die Automobilbranche immer mehr auf den Kopf. Neue Player erobern den Markt, und wer mithalten möchte, muss in innovative Technologien investieren. Welche Hersteller das am besten hinbekommen, klären wir in diesem Ranking.

Die Elektromobilität hat viele ihrer Kinderkrankheiten hinter sich gelassen und kommt so langsam in eine erste Phase der Konsolidierung. Der einstige Pionier Tesla ist längst nicht mehr die dominante Innovationskraft der Branche. Chinesische Konzerne haben aufgeholt und viele traditionelle Hersteller aus Japan, Deutschland und den USA versuchen nicht abgehängt zu werden. In diesem Artikel wollen wir klären, welche Marken die Technologien der Branche am meisten voranbringen.

Das sind die 10 innovativsten E-Auto-Hersteller 2026

Bei klassischen Verbrennern sind häufig Aspekte wie das Markenimage und die reine Leistung entscheidend. Doch bei Autos mit Elektroantrieb müssen Parameter wie Reichweite, Ladeleistung und Batterielaufzeit passen, um die Käufer überzeugen zu können. Deshalb analysiert der CAM Electromobility Report 2026 insgesamt 713 Innovationen in der Elektromobilität, die im Zeitraum von 2021 bis 2025 ins Leben gerufen wurden.

Auch wenn es der deutschen Automobilbranche momentan nicht gut geht, kann man den Herstellern nicht vorwerfen, keine Innovationen auf den Markt zu bringen. Firmen wie Volkswagen, BMW und Mercedes-Benz sind gemeinsam für über ein Drittel aller weltweiten Neuerungen verantwortlich. Lediglich China kommt mit 41 Prozent auf einen noch höheren Wert. Der dritte Platz geht an Japan (11 Prozent), dann folgen der Rest der EU (10), die USA und Südkorea (jeweils 2).

In Deutschland ist man scheinbar aufgewacht, denn seit 2024 gab es einen Anstieg von circa 20 auf jetzt 34 Prozent. Die Kurve von China ist etwas abgeflacht, aber außerhalb der Top Ten lauern Firmen wie Nio. Die USA scheinen nicht bereit, im großen Stil zu investieren, auch wenn Ford, Lucid und Rivian am Tor unseres Rankings klopfen und es in den kommenden Jahren aufstoßen könnten. Wer es tatsächlich in die Top Ten geschafft hat, verraten wir in der folgenden Galerie.

Platz 10: General Motors

Der US-Konzern General Motors gehört zu den Verlierern der aktuellen Studie und belegt mit einem Innovations-Score von 67,3 den zehnten Rang. Im Vergleich zum vorherigen Zeitraum von 2016 bis 2020 bedeutet das einen Abstieg um fünf Plätze.

General Motors, Super Cruise, Cadillac Escalade, Blue Cruise
Bild: General Motors

Der Beitrag Geely überholt Tesla und VW: Die innovativsten E-Autobauer 2026 erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Bluesky zu Eurosky übertragen: So gelingt der Umzug auf EU-Server

23. April 2026 um 16:43

Der Beitrag Bluesky zu Eurosky übertragen: So gelingt der Umzug auf EU-Server erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Bluesky zu Eurosky übertragen Migration Anleitung Wie nutzen

Viele Nutzer fragen sich, wie sie ihre digitale Identität stärker unter eigener Kontrolle behalten können. Genau hier setzt Eurosky an: Mit einer gemeinsamen technischen Grundlage sollen Konten und soziale Beziehungen zwischen Netzwerken übertragbar sein. Wir zeigen dir Schritt für Schritt, wie du deinen Bluesky-Account zu Eurosky übertragen und migrieren kannst, inklusive Handle-Wechsel und Bestätigungscodes.

Mit Eurosky betritt ein neuer Player die Bühne der sozialen Netzwerke. Der Dienst bietet einen zentralen Login für verschiedene Plattformen wie Bluesky und will sich als europäische Alternative zu Big Tech etablieren.

Aufgrund der wachsenden Kritik an den Datenpraktiken der großen Tech-Konzerne setzt Eurosky auf strengere Datenschutzstandards und mehr Kontrolle durch die Nutzer. Langfristig soll die Plattform dafür mit verschiedenen Netzwerken kompatibel sein, damit Nutzer mit nur einem Eurosky‑Account verschiedene Dienste nutzen können.

Als Grundlage dafür dient das AT-Protokoll, mit dem soziale Netzwerke dezentral organisiert und miteinander vernetzt werden können. Nutzerkonten, Inhalte und soziale Beziehungen lassen sich so unabhängig von einzelnen Plattformen verwalten und bei Bedarf zwischen Diensten übertragen.

Bluesky ist aktuell der wichtigste und größte Dienst im Eurosky-Ökosystem aus dem Bereich der sozialen Netzwerke. Wir zeigen dir, wie du deinen Bluesky-Account auf die europäische Alternative übertragen kannst.

Migration starten: Bluesky-Account zu Eurosky übertragen

Willst du Bluesky künftig nutzen und deine Daten aber auf europäischen Servern wissen, kannst du deinen Account zu Eurosky übertragen. Dafür musst du keinen neuen Account erstellen und kannst deine Daten und Kontakte behalten.

Die Migration deines Accounts kannst du hier vornehmen. Dafür musst du im ersten Schritt dein Bluesky-Handle sowie dein Passwort eingeben. Dann stimmst du den Nutzungsbedingungen und der Datenschutzerklärung zu und klickst auf den Button „Weiter„.

Im nächsten Schritt musst du deine bei Bluesky hinterlegte E-Mail-Adresse verifizieren und bestätigen. Damit bestätigst du, dass du Zugriff auf das Postfach hast, um den Bestätigungscode abzurufen.

In Schritt drei wählst du dann den Server aus, auf den dein Account umziehen soll. Eurosky ist schon als erste Option für die Migration voreingestellt. Du kannst diese Auswahl über den Button „Weiter“ bestätigen.

Im vorletzten Schritt wählst du dein neues Handle aus. Eurosky gibt bereits dein altes vor. Du kannst aber auch ein neues Handle wählen oder dein altes behalten. Es wechselt dann von der Struktur „handle.bsky.social“ zu „handle.eurosky.social“.

Schritt für Schritt bestätigen: Code eingeben und Umzug starten

Nach der Überprüfung der Verfügbarkeit deines gewünschten Handles kommst du zum letzten Schritt deiner Account-Übertragung. Dort kannst du wählen, ob du eine Sicherungskopie vor der Migration erstellen möchtest.

Klickst du auf „Weiter“, erhältst du eine E-Mail mit einem Bestätigungscode. Gib diesen auf der Migrationswebsite ein, so kannst du die Übertragung von Bluesky zu Eurosky starten.

Wichtig ist, dass du alle Apps und Browser-Tabs mit deinem Bluesky-Konto während der Übertragung schließt und dein Konto nicht verwendest. Denn Beiträge, Likes oder Follows, die während der Migration auftreten, können nicht übertragen werden.

Der Vorgang dauert nach Angaben von Eurosky zwischen 20 und 30 Minuten. Ist er abgeschlossen, erhältst du eine weitere Benachrichtigung per E-Mail. Du kannst den jeweiligen Stand der Migration aber auch auf der Website einsehen, auf der du den Bestätigungscode aus der E-Mail eingegeben hast.

Du erhältst während der Migration eine weitere E-Mail mit dem Betreff „PLC Update Operation Requested“ von Blusky. Hier findest du einen weiteren Bestätigungscode, mit dem du Migration abschließen kannst.

Nach Abschluss der Übertragung kannst du deine Sicherungskopie herunterladen und den Wiederherstellungsschlüssel für dein Konto kopieren. Diese Daten stehen allerdings nur zwei Tage zur Verfügung.

Auch interessant:

Der Beitrag Bluesky zu Eurosky übertragen: So gelingt der Umzug auf EU-Server erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Images 2.0: OpenAI treibt ChatGPT-Bildern klassischen KI-Look aus

23. April 2026 um 11:00

Der Beitrag Images 2.0: OpenAI treibt ChatGPT-Bildern klassischen KI-Look aus erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

ChatGPT Images 2.0 OpenAI Bild-KI Künstliche Intelligenz Bilder erstellen

KI-Bilder in einer bislang nie da gewesenen Qualität: Das verspricht OpenAI mit seinem neuen Modell zur Bildgenerierung. ChatGPT Images 2.0 soll komplexe Anweisungen deutlich besser umsetzen als bisher. Auch bei Text oder Schrift im Bild will das Unternehmen Fortschritte erzielt haben. Eine kommentierende Analyse.

Was ist ChatGPT Images 2.0?

  • OpenAI hat mit ChatGPT Images 2.0 ein neues KI-Bildmodell präsentiert, das in ChatGPT, Codex und über die Programmierschnittstelle (API) des Unternehmens verfügbar ist. Es soll den Modellen der Konkurrenz in puncto Bilderstellung und -qualität weit voraus sein. Eine der wichtigsten Neuerungen ist der integrierte Denkmodus. Ähnlich wie bei Nano Banana Pro von Google soll Images 2.0 vor der eigentlichen Erstellung „nachdenken“ und auf das Internet zugreifen, um aktuelle Ereignisse korrekt in den Bildern darzustellen. Der Modus steht aber nur kostenpflichtigen Abonnenten zur Verfügung.
  • Von den Verbesserungen bei der allgemeinen Bildqualität sollen OpenAI zufolge alle Nutzer profitieren. Das Unternehmen will etwa den typischen KI-Look mit glatten Gesichtern und unechter Beleuchtung behoben haben. ChatGPT Images 2.0 soll zudem bei der Darstellung fotorealistischer Bilder Fortschritte gemacht haben. Nutzer sollen Bilder mit nahezu perfekten Beschriftungen und kleinen Schriften generieren können, die grammatikalisch korrekt sind. OpenAI präsentierte etwa täuschend echte Screenshots von Browserfenstern oder mobilen Apps.
  • ChatGPT Images 2.0 soll bis zu acht Bilder aus einem einzigen Prompt generieren können. Charakter, Objekte oder bestimmte Stile ließen sich laut OpenAI auf andere Bildszenen übertragen – etwa, um Comics, Mangas, Grafiken oder Broschüren zu erstellen. Das Unternehmen will außerdem räumliche Darstellungen verbessert haben. Gleiches gilt für Bildformate.

Qualitätssprung oder Abo-Falle? Eine Einordnung

OpenAI verkauft ChatGPT Images 2.0 als großen Qualitätssprung. Das Unternehmen hat vor allem versucht, sich von einem klassischen KI-Look zu verabschieden, den viele KI-generierte Bilder haben – und zwar durchaus mit Erfolg. Doch zwischen Produktbildern und Alltagsnutzung liegt bekanntlich oft dieselbe Distanz wie zwischen Werbeversprechen und WLAN im ICE.

Ökonomisch steht für OpenAI bei ChatGPT Images 2.0 aber weniger Bildästhetik als eine glasklare Plattformstrategie im Vordergrund. Der Denkmodus ist etwa kein Feature aus Liebe zur Präzision, sondern ein klarer Premium-Hebel: bessere Qualität gegen kostenpflichtiges Abo. Sprich: Wer komplexe, aktuelle oder präzise Bilder will, muss zahlen und im OpenAI-Ökosystem bleiben.

Parallel bleibt das Urheberrecht der eigentliche blinde Fleck dieses Geschäftsmodells. Denn solange unklar ist, wie Trainingsdaten rechtlich sauber vergütet oder abgegrenzt werden, schwebt über jedem beeindruckenden Bild auch ein potenzielles Klage- oder Missbrauchsrisiko.

Dass OpenAI seine Bild- und Video-KI Sora wieder eingestampft hat, passt hingegen in dieses Bild einer radikalen Konsolidierung. Heißt: weniger Experimente am Rand, mehr Monetarisierung im Zentrum. Oder anders gesagt: Die Spielwiese wird eingezäunt, damit sich die Kühe besser melken lassen.

Stimmen und Reaktion zu ChatGPT Images 2.0

  • OpenAI erklärt in einer offiziellen Mitteilung: „Images 2.0 sorgt für ein bisher unerreichtes Maß an Detailtreue und Präzision bei der Bildgenerierung. Es kann nicht nur komplexere Bilder konzipieren, sondern diese Vision auch effektiv zum Leben erwecken, indem es Anweisungen befolgt, gewünschte Details beibehält und die feinen Elemente rendert, die Bildmodelle oft zum Scheitern bringen: kleiner Text, Ikonografie, UI-Elemente, dichte Kompositionen und subtile stilistische Vorgaben – und das alles bei einer Auflösung von bis zu 2K.“
  • Mitch Stoltz, Leiter der Abteilung für Rechtsstreitigkeiten im Bereich geistiges Eigentum bei der Electronic Frontier Foundation, gegenüber Business Insider: „Wenn die Ausgabe im Wesentlichen etwas ähnelt, womit das Modell trainiert wurde oder was es gecrawlt hat, dann kommt ein urheberrechtliches Problem ins Spiel. Wenn die Ähnlichkeit nur auf der Ebene einer Idee besteht (…), dann reicht das im Allgemeinen nicht aus. Die urheberrechtlichen Fragen sind dieselben, als würde man einfach Photoshop, eine Dunkelkammer oder einen menschlichen Künstler nutzen. Die gesellschaftlichen Probleme sind größer, weil es einfacher, schneller und leichter zugänglich ist.“
  • Ein Reddit-Nutzer hat ChatGPT Images 2.0 bereits ausprobiert und nimmt den Inhaltsfilter aufs Korn: „Ich habe es mit ‚Sydney Sweeney in einem freizügigen Bikini‘ versucht, aber das ging nicht. Also habe ich es mit ‚Sydney Sweeney in einem nicht freizügigen Bikini‘ versucht, aber das ging auch nicht. Also habe ich es dann mit ‚Sam Altman, vollständig bekleidet, in einem Whirlpool mit Peter Thiel, der ebenfalls vollständig bekleidet ist‘ versucht, und da hatte ich Erfolg. Die sexuelle Spannung ist dort förmlich greifbar. Wir befinden uns definitiv im Bereich der allgemeinen künstlichen Intelligenz.“

Kann OpenAI mit KI-Bildern wirklich wachsen?

ChatGPT Images 2.0 ist weniger ein Produkt als eine Wette darauf, dass qualitativ hochwertige KI-Bilder zum nächsten großen Abo-Treiber für OpenAI werden. Denn: Das Unternehmen hatte sich zuletzt strategisch verzettelt und zahlreiche Nutzer verloren – vor allem an den Konkurrenten Anthropic.

OpenAI versucht aber nicht nur, Nutzer (zurück) zu gewinnen, sondern sie in eine komfortable Bild-Abhängigkeit zu überführen. Der Konkurrenzdruck bleibt dabei brutal hoch. Google hat bereits mit eigenen Modellen vorgelegt, und spezialisierte Anbieter wie Midjourney verteidigen ihre Nische mit Fanatismus.

Doch am Ende entscheidet vermutlich weniger die beste Bildqualität als die beste Plattformintegration. Die eigentliche Frage ist, ob sich dieser Fortschritt wirtschaftlich wirklich so sauber in Wachstum übersetzen lässt, wie die Präsentationen es suggerieren. OpenAI adressiert mit ChatGPT Images 2.0 hingegen klar Unternehmenskunden.

KI-Spielereien im Privatbereich sind für die Betreiber nicht nur unwirtschaftlich, sondern aufgrund des hohen Energie- und Wasserverbrauchs von KI eine Gefahr für die Umwelt und den Planeten. Wie gut sich ChatGPT Images 2.0 schlagen wird, muss jedoch die Zeit zeigen. Denn Alltagstauglichkeit und wirklicher Mehrwert lassen sich nicht im Voraus simulieren. Ebenso wenig wie Schwachstellen und Fehler.

Auch interessant:

Der Beitrag Images 2.0: OpenAI treibt ChatGPT-Bildern klassischen KI-Look aus erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

❌