Lese-Ansicht

Selbstreinigende Solaranlagen: Neue Beschichtung sorgt für Leistungs-Boost

Der Beitrag Selbstreinigende Solaranlagen: Neue Beschichtung sorgt für Leistungs-Boost erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Selbstreinigende Solaranlagen Beschichtung

Forscher haben eine Beschichtung entwickelt, mit der sich Solaranlagen selbst reinigen können. Sie soll sich auch für bestehende Module eignen und deren Leistung erhöhen. 

Forscher aus Schottland, China und Indien haben eine transparente, wasserabweisende Beschichtung für Solarmodule entwickelt. Diese zweischichtige Lösung soll die Panels selbst reinigen und dadurch die Stromausbeute erhöhen, ohne den Lichteinfall zu verringern. Ein wesentlicher Vorteil gegenüber bisherigen Lösungen auf dem Markt ist der Verzicht auf sogenannte Ewigkeitschemikalien (PFAS).

Staub, Schmutz und Vogelkot bremsen Solaranlagen im Alltag schlichtweg aus. Hierzu erklärte Sudhagar Pitchaimuthu von der Heriot-Watt University, dass die manuelle Säuberung oft ein teures Logistik-Puzzle ist und die empfindlichen Zellen zerstören kann. Solche Wartungsarbeiten fressen oft den Gewinn der Anlagen wieder auf.

Der Nano-Trick: Wie Luft Schmutz vertreibt

Die neue Technologie nutzt eine dünne Klebeschicht als Basis für wasserabweisende Silica-Nanopartikel. Diese Partikel sitzen zunächst in dieser Adhäsivschicht, bevor sie beim Aushärten des Materials fest einrasten. Sie erzeugen eine mikroskopische Rauheit auf der Oberfläche, die eine feine Luftschicht einschließt. Dadurch perlt Wasser in Tropfenform ab und nimmt Schmutzpartikel gleich mit.

Die Forscher veröffentlichten ihre Ergebnisse im Fachjournal „Colloids and Surfaces A: Physiochemical and Engineering Aspects“. Da die Beschichtung transparent bleibt, erreichen weiterhin genügend Lichtstrahlen die darunterliegenden Photovoltaikzellen zur Stromerzeugung. Dieser Prozess funktioniert rein physikalisch, ohne mechanische Einwirkung oder zusätzliche chemische Reinigungsmittel.

Selbstreinigende Solaranlagen: Nachhaltige Materialien und globale Förderung

Bei der Entwicklung setzten die Forscher bewusst auf Silica, da dieses Material reichlich in Ressourcen wie Sand oder Quarz vorkommt. Shanhu Liu von der Henan University betont, dass Silica im Vergleich zu fluorierten Polymeren oder seltenen Metalloxiden eine nachhaltigere Option darstellt.

Der bewusste Verzicht auf PFAS ist für die Umwelt entscheidend, da diese „Ewigkeitschemikalien“ in der Natur nicht abgebaut werden können. Sie reichern sich über Jahrzehnte in Ökosystemen an, was die Umwelt enorm belasten würde. Für die geplante Produktion ist zudem die Verwendung von grünem Ammoniak vorgesehen, das aus erneuerbarem Wasserstoff entsteht.

Die National Natural Science Foundation of China sowie die State Key Laboratory of Water Pollution Control and Green Resource Recycling Foundation finanzieren die Forschung aktiv. Zudem tragen das Petro-China Research Institute of Petroleum Exploration and Development und das Seed Money Scheme des Vivekanand College das Projekt finanziell. Als Nächstes will das Team die Panels unter extremen Bedingungen wie schottischen Wintern oder in der Wüste von Dubai testen.

Markteinführung und industrielle Bedeutung

Ein großer Vorteil des Systems ist die einfache Handhabung bei der Nachrüstung bestehender Anlagen. Man kann die Schicht einfach auf alte Module aufsprühen, um deren Selbstreinigungskräfte nachträglich zu aktivieren. Das Forscherteam geht davon aus, dass das Produkt innerhalb der nächsten fünf Jahre marktreif sein wird.

Sanjay S. Latthe ist überzeugt, dass die Technologie die Ausbeute der weltweiten Solarparks – die aktuell fünf Prozent des Stroms liefern – nachhaltig verbessern kann. Eine höhere Energieausbeute bestehender Anlagen sorgt für eine effizientere Nutzung sauberer Energie ohne zusätzliche Neuinstallationen. Die Reduzierung der Wartungskosten ist ein entscheidender Hebel, um dieses Ziel weltweit schneller zu erreichen.

Auch interessant:

Der Beitrag Selbstreinigende Solaranlagen: Neue Beschichtung sorgt für Leistungs-Boost erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Mini-Atomkraftwerke: Viel PR mit wenig Power

Der Beitrag Mini-Atomkraftwerke: Viel PR mit wenig Power erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Mini-Atomkraftwerke Small Modular Reactors SMR Europa Deutschland

Die EU-Kommission hat Pläne vorgestellt, um Mini-Atomkraftwerke in Europa zu fördern. In den USA erhielt nahezu zeitgleich das Unternehmen Terrapower von Bill Gates grünes Licht für den Bau erster Reaktoren. Das hat die Kernkraft-Debatte in Deutschland neu entfacht. Problem: Viele erwecken den Eindruck, dass Mini-Kernkraftwerke ein Gamechanger wären. Doch sogenannte Small Modular Reactors müssten mit Steuergeldern finanziert werden und lohnen sich allenfalls bedingt. Eine kommentierende Analyse-

Was sind Mini-Atomkraftwerke?

  • In den vergangenen Jahren hat sich an den Argumenten für und gegen Atomkraftwerke kaum etwas geändert. Der Vorteil: Kernenergie ist konstant und verursacht kaum Treibhausgase. Der Nachteil: Kernkraftwerke sind teuer und die Entsorgung von Atommüll stellt nach wie vor ein ungelöstes Problem dar. Doch obwohl diese Fakten nach wie vor stagnieren, keimt in Deutschland immer wieder eine Kernkraft-Debatte auf.
  • Anfang März 2026 hat die US-Atomaufsichtsbehörde dem Energieunternehmen Terrapower von Bill Gates grünes Licht erteilt, seine ersten kommerziellen Mini-Atomreaktoren zu bauen. Ob diese in den 2030er-Jahren den Betrieb aufnehmen dürfen, ist aber noch unklar. Nur wenige Tage später hat die EU-Kommission einen Plan vorgestellt, der eine Förderung solcher Mini-Atomkraftwerke in Europa vorsieht. Das rief zahlreiche deutsche Spitzenpolitiker auf den Plan. Während Ministerpräsident Markus Söder (CSU) für ein Pilotprojekt in Bayern warb, stellte sich Bundesumweltminister Carsten Schneider (SPD) entschieden gegen die Pläne.
  • Es gibt bislang keine einheitliche Definition für Mini-Atomkraftwerke. Die Bezeichnung Small Modular Reactor (SMR) stammt aus Übersee und hebt die modulare Bauweise der Anlagen hervor. Deutsche Behörden definieren SMRs als kleine Atomkraftwerke mit einer Leistung von 300 Megawatt (600.000 Haushalte). Zum Vergleich: Klassische Kernkraftwerke kommen auf rund 1.400 Megawatt (drei Millionen Haushalte). Die modulare Serienbauweise von Mini-Atomkraftwerken verspricht langfristig kürzere Produktionszeiten und geringere Produktionskosten. Allerdings müssten sie wie ihre großen Vorbilder staatlich finanziert werden, um sich zu rentieren – und zwar mit Steuergeldern.

Small Modular Reaktors würden Strom teurer machen

Die geplanten Mini-Meiler sollen die zwei größten Schwächen der klassischen Atomkraft kurieren: Investorenflucht und hochpreisigen Strom. Doch was auf den ersten Blick nach einem technologischen Befreiungsschlag klingt, entpuppt sich auf den zweiten als Small Marketing Reactor. Denn: Mini-Atomkraftwerke sind nicht automatisch günstiger, sondern nur anders verpackt.

Für gewisse industrielle Zweige könnten sie sich langfristig vielleicht lohnen, doch die gesamte Debatte täuscht darüber hinweg, dass Verbraucher nicht davon profitieren würden. Im Gegenteil: Große Reaktoren waren ökonomisch einst langfristig effizienter, weil sie Fixkosten auf viel Strom verteilten. Schrumpft die Anlage, schrumpft dieser Effekt gleich mit.

Das Ergebnis: Strom wird tendenziell teurer – und braucht umso mehr staatliche Starthilfe. Hinzu kommt, dass sich ein Neubau großer Atomkraftwerke auch nicht mehr lohnt, da es deutlich sinnvollere und günstigere Alternativen gibt. Klar: Die Energiewende war anfangs teuer, wird sich langfristig aber in jedem Portemonnaie positiv bemerkbar machen.

Die Grundlogik bleibt bei Mini-Atomkraftwerken deshalb erstaunlich vertraut: Ohne Subventionen geht es nicht und mit Subventionen wird es politisch. Dass die Debatte trotzdem immer wieder aufflammt, sagt weniger über technische Fortschritte als über politische Sehnsüchte aus – nach planbarer Energie, die sich nicht nach dem Wetter richtet.

Investitionen in Erneuerbare in Kombination mit Energiespeichern und einem Netzausbau erscheinen jedoch deutlich sinnvoller. Denn: Sie bringen kein Endlager-Problem mit sich und sorgen langfristig für günstigeren Strom.

Stimmen

  • EU-Kommissionspräsidentin Ursula von der Leyen beim zweiten internationalen Gipfel zur Kernenergie in Boulogne-Billancourt bei Paris: „Ich glaube, es war ein strategischer Fehler für Europa, einer zuverlässigen, erschwinglichen und emissionsarmen Energiequelle den Rücken zu kehren. In den letzten Jahren erleben wir eine weltweite Renaissance der Kernenergie. Und Europa will an dieser Renaissance teilhaben. Deshalb legen wir heute eine neue europäische Strategie für kleine modulare Reaktoren vor.“ Ziel ist, „dass diese neue Technologie in Europa bis Anfang der 2030er-Jahre einsatzbereit ist“, erklärte sie.
  • Bundesumweltminister Carsten Schneider (SPD) bezeichnete die Pläne der EU als „rückwärtsgewandte Strategie“. Er erklärte: „Wenn eine Risiko-Technologie nach einem Dreivierteljahrhundert noch immer am staatlichen Tropf hängt und es längst bessere Alternativen gibt, sollte man daraus Konsequenzen ziehen. Noch mehr Steuergeld für neue Risikoreaktoren auszugeben, lehne ich ab. Dazu kommt: Diese kleinen Atomkraftwerke werden schon seit Jahrzehnten angekündigt, schaffen aber den Durchbruch nicht und ringen stattdessen um Subventionen.“
  • Die SPD-Fraktion im Bayerischen Landtag wehrt sich gegen „Söders Atom-Hokuspokus“ und „Märchen-Reaktor“. SPD-Energieexperte Florian von Brunn dazu: „In der gesamten westlichen Welt ist kein einziges dieser kleinen Atomkraftwerke im kommerziellen Betrieb. Es gibt welche in China und in Russland – also in zwei Ländern, die nicht gerade für eine kritische Öffentlichkeit und gute Sicherheitsstandards bekannt sind. In Kanada läuft keiner dieser kleinen Reaktoren – auch wenn Markus Söder das wahrheitswidrig behauptet hat.“

Mini-Atomkraftwerke lohnen sich nicht

Die große SMR-Hoffnung ruht auf einer Wette: weniger Risiko, weniger Sicherheitsaufwand und niedrigere Kosten. Doch wie viel Sicherheit eine Gesellschaft bereit ist einzupreisen, ist keine Ingenieursfrage, sondern eine politische und erfahrungsgemäß eine sehr teure.

Entscheidend wird aber die Lernkurve sein. Heißt: Nur wenn SMRs in Serie gebaut werden wie Flugzeuge, könnten die Kosten tatsächlich sinken. Kritiker halten dagegen, dass es dafür erst einmal Hunderte oder Tausende Bestellungen bräuchte. Ein solcher Markt existiert aber nicht, da die meisten Länder die Vorteile der Erneuerbaren mittlerweile erkannt haben.

Wahrscheinlicher ist daher ein unspektakuläres Szenario. Mini-Atomkraftwerke werden kommen, aber langsam und ausschließlich in Nischen wie abgelegenen Industriestandorten, für Spezialanwendungen oder vielleicht sogar Prozesswärme. Das könnte sinnvoll sein, ist aber kein Gamechanger, sondern eher ein weiterer Baustein. Problem: Die gesamte Debatte täuscht darüber hinweg, dass sich Atomkraft – ob in Small oder Big – großflächig einfach nicht mehr lohnt.

Und wer nun mit Frankreich, China oder den USA argumentieren möchte, dem soll gesagt sein, dass Frankreich nur Atomstrom liefern kann, weil er mit 60 Milliarden Euro an Steuergeldern bezuschusst wird. Dass die USA zwar Atomkraftwerke betreiben, aber aufgrund der zu hohen Neubaukosten und einer Klimawandel-leugnenden Regierung die Atemluft und Atmosphäre lieber mit Öl verpesten. Und: Dass China SMRs allenfalls bedingt einsetzt und mittlerweile führend im Ausbau der Erneuerbaren ist.

Warum es die Debatte dennoch gibt? Weil Politiker täuschen wollen, um Wahlen zu gewinnen. Weil Großkonzerne ihre Lobbyinteressen durchsetzen wollen. Und: Weil es häufig nicht mehr um das Wohl der Allgemeinheit geht, sondern um Macht.

Auch interessant:

Der Beitrag Mini-Atomkraftwerke: Viel PR mit wenig Power erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Magnesium-Sauerstoff-Batterien: Eine günstige Lithium-Alternative?

Der Beitrag Magnesium-Sauerstoff-Batterien: Eine günstige Lithium-Alternative? erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Magnesium-Sauerstoff-Batterie

Forschern ist es offenbar gelungen, flexible Magnesium-Sauerstoff-Batterien mit einer extrem hohen Energiedichte zu entwickeln – und zwar ohne seltene Erden. Sie könnten eine echte Alternative zu Lithium-Akkus darstellen. 

Magnesium-Sauerstoff-Batterien (Mg-O2) könnten teure Lithium-Systeme kosteneffizient ersetzen. Denn Magnesium kostet derzeit etwa 2.320 US-Dollar pro Tonne, während bei dem für Batterien notwendigen Lithium (je nach Art) etwa 20.000 bis 25.000 US-Dollar pro Tonne anfallen.

Gleichzeitig liegt die theoretische Energiedichte von Magnesium bei 6.859 Wattstunden pro Liter, während Lithium 5.960 Wattstunden pro Liter erreicht. Forschern gelang es kürzlich, bei Magnesium-Sauerstoff-Batterien bedeutende Fortschritte zu erzielen.

In der Erdkruste lagern Magnesiummengen von etwa 3,1 x 1020 Kilogramm. Das Metall macht den Betrieb sicher, da es kaum Dendriten bildet. Dabei handelt es sich um winzige Metall-Nadeln, die bei anderen Akkus Kurzschlüsse verursachen. Die neue Technologie nutzt diese Vorteile für eine Energiespeichertechnik ohne Ressourcenknappheit.

Magnesium-Sauerstoff-Batterien: Metallfreie Kathode und Korrosionsschutz

Die metallfreie Kathode besteht aus einem dreidimensionalen Netzwerk aus stickstoffdotiertem Graphen. Mit einer Schichtdicke von etwa 30 Mikrometern übernimmt dieses Bauteil gleichzeitig die Funktion des Stromkollektors. Stickstoff-Atome im Gitter beschleunigen die chemischen Abläufe ohne teure Edelmetalle wie Platin.

Zusätze wie Magnesiumchlorid (MgCl2) sorgen dafür, dass sich die Batterie gut wieder aufladen lässt. Diese Chlorid-Ionen greifen herkömmliche Kathoden aus Edelmetallen jedoch chemisch an. Stickstoffdotiertes Graphen widersteht dieser Korrosion wiederum dauerhaft und ermöglichte im Test 174 Ladezyklen ohne Funktionalitätsverlust.

In flüssigen Testaufbauten nutzt der Speicher ein Gemisch aus Magnesium-bis(trifluormethansulfonyl)imid (Mg(TFSI)2) und Magnesiumchlorid im Lösungsmittel Diglyme. Eine Porosität des Graphen-Netzwerks von bis zu 99 Prozent bietet Platz für das Entladeprodukt Magnesiumoxid (MgO). In dieser Umgebung erreichte die Zelle eine spezifische Kapazität von 20.898 Milliamperestunden pro Gramm.

Der Entladeprozess lagert das Magnesiumoxid direkt in den mikroskopischen Poren des Netzwerks ein. Die Batterie erreicht ihre Kapazitätsgrenze, sobald diese Poren vollständig verstopft sind und keine Gase mehr hindurchlassen. Dieser Verschluss blockiert den notwendigen Transport von Sauerstoff und beendet die chemische Reaktion innerhalb der Zelle.

Feststoff-Technik und Flexibilität

Die All-Solid-State-Variante nutzt einen Gel-Polymer-Elektrolyten (GPE), der auf einer Ionenflüssigkeit basiert. Dieser Feststoff-Elektrolyt besitzt eine ionische Leitfähigkeit von 2,7 Millisiemens pro Zentimeter bei einer Raumtemperatur von 25 Grad Celsius. Er verhindert das Auslaufen von Chemikalien und stabilisiert den Zelltyp gegenüber mechanischen Belastungen.

Die Feststoff-Batterie liefert eine spezifische Kapazität von 17.934 Milliamperestunden pro Gramm. Dank der mechanischen Stärke des Graphen-Netzwerks übersteht der Speicher Biegewinkel von bis zu 120 Grad im Testbetrieb. Der Zelltyp hält während der Entladung eine stabile Spannung von durchschnittlich 1,21 Volt.

Magnesium-Sauerstoff-Technologien ermöglichen Batterien, die ohne seltene Erden auskommen, nicht auslaufen und mechanisch flexibel bleiben. Der Verzicht auf flüssige Elektrolyte und teure Edelmetalle senkt die Materialkosten dauerhaft. Damit bietet die Speichertechnik eine funktionale Basis für langlebige Energiespeicher in der industriellen Anwendung.

Auch interessant:

Der Beitrag Magnesium-Sauerstoff-Batterien: Eine günstige Lithium-Alternative? erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Das sind die zuverlässigsten Autos im Jahr 2026

Der Beitrag Das sind die zuverlässigsten Autos im Jahr 2026 erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Kfz-Versicherung Auto-Versicherung Familien

Wer viel mit dem Auto unterwegs ist braucht in aller Regel Verlässlichkeit. Ein zuverlässiges Auto bietet Sicherheit, Komfort und die Gewissheit, dass man alle Ziele gut erreichen kann. Unser aktuelles Ranking zeigt dir die zehn zuverlässigsten Autos im Jahr 2026.

Nicht immer ist es ganz einfach, die zuverlässigsten Autos direkt zu erkennen. Der Markt ist groß und die Auswahl vielfältig. Somit kann es durchaus sinnvoll sein, vor dem Kauf eines neuen Autos einen Vergleich anzustellen und sich darüber zu informieren, welche Automodelle der jeweiligen Hersteller wirklich überzeugen können. Nicht immer sind das Modelle, die man direkt auf dem Schirm hat. Und vor allem sind es nicht immer die neuesten Modelle, sondern eher jene, die sich über einen längeren Zeitraum als wirklich zuverlässige Autos präsentieren konnten.

Eine Auswertung von autohero.com zeigt direkt, welches die zuverlässigsten Autos 2026 sind und welche Fabrikate dabei durch welche Aspekte überzeugen können. Aus dieser Datenbasis ergibt sich auch unser aktuelles Ranking, das dir die zuverlässigsten Autos 2026 direkt zeigt und somit bei der Kaufentscheidung für ein neues Auto sicherlich hilfreich sein kann. Einzelne Autobauer kommen dabei auch mit verschiedenen Modellen im Ranking vor.

Die zuverlässigsten Autos 2026

Kleinwagen oder SUV? Die Frage stellt sich in manchen Fällen, ebenso die Frage, ob man ein Auto für die ganze Familie sucht oder eher einen Wagen für die tägliche Fahrt zur Arbeit. Unser Ranking zeigt, welche Autos zu den zuverlässigsten im Jahr 2026 gehören und liefert dazu auch noch einzelne Merkmale, die diese Autos ganz besonders auszeichnen.

Toyota Yaris

Bei den Kleinwagen ist der Toyota Yaris bereits seit Jahren sehr gefragt und ein Garant für Zuverlässigkeit. Der Toyota Yaris ist daher im Ranking der zuverlässigsten Autos 2026 vertreten und kann vor allem mit seiner Langlebigkeit punkten. Dazu kommt, dass der Toyota Yaris wartungsarm ist und somit mit genereller Zuverlässigkeit überzeugt. Kleine Fehler gibt es zwar, diese sind beim Toyota Yaris allerdings oftmals zu vernachlässigen.

sparsamsten Autos, Toyota Yaris 1.5 Hybrid CVT
Der Toyota Yaris ist im Ranking vertreten. Hier als Hybrid-Modell. Bild: Screenshot / ADAC

Der Beitrag Das sind die zuverlässigsten Autos im Jahr 2026 erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

OpenAI vs. Anthropic: ChatGPT und Claude im direkten Vergleich

Der Beitrag OpenAI vs. Anthropic: ChatGPT und Claude im direkten Vergleich erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

ChatGPT Claude Vergleich Anthropic OpenAI KI

ChatGPT gab lange das Tempo vor, doch einige Konkurrenten haben ihre KI-Modelle so massiv aufgerüstet, dass sie in bestimmten Bereichen inzwischen nicht nur mithalten können, sondern selbst das Feld anführen. Wir präsentieren: ChatGPT und Claude im Vergleich.

In der Technologiebranche können sich die Verhältnisse schnell ändern. Wie wir bereits in unserem Vergleich zwischen ChatGPT und Gemini resümiert haben, liefert sich Pionier OpenAI derzeit einen harten Kampf um die Führungsposition in Sachen künstliche Intelligenz.

Künstliche Intelligenz und Ethik

Neben den reinen Fähigkeiten der KIs kommt momentan eine weitere Komponente hinzu: Ethik. OpenAI galt einst als Aushängeschild für offene und verantwortungsbewusste Forschung, ist bei vielen Nutzern jedoch in Ungnade gefallen. Die Entscheidung des Unternehmens, seine Modelle für das US-Militär und die Bürgerüberwachung durch die amerikanische Regierung freizugeben, hat dem Ansehen von OpenAI und ChatGPT massiv geschadet.

Während sich Sam Altman und sein Team dem US-Kriegsministerium anbiedern, positioniert sich Konkurrent Anthropic demonstrativ am anderen Ende des Spektrums. Aus ethischen Gründen weigert sich das Unternehmen hinter der KI Claude, ihre Modelle für militärische Zwecke oder staatliche Überwachung zur Verfügung zu stellen. Deshalb kehren einige Nutzer ChatGPT momentan den Rücken zu und migrieren zu Alternativen wie Claude.

Anthropic hat sogar spezielle Maßnahmen ergriffen, mit denen die Übertragung der Nutzerdaten von ChatGPT zu Claude erleichtert wird. In diesem Artikel wollen wir die moralische Komponente aber beiseite lassen und uns auf die Technik konzentrieren. Dafür haben wir uns die aktuellen Modelle GPT-5.2 und Claude 4.6 (Sonnet und Opus) einmal näher angesehen und direkt miteinander verglichen.

ChatGPT und Claude im Vergleich

Auch wenn wir an dieser Stelle eine objektive Gegenüberstellung anstreben, spiegelt sich der philosophische Ansatz der jeweiligen Unternehmen auch in der Aufmachung und dem Design ihrer Chatbots wider. ChatGPT wirkt wie ein effizientes, aber manchmal etwas opportunistisches Werkzeug. Aufgaben werden meist ohne Rückfragen erfüllt, und die Nutzeransprache kommt häufig schablonenhaft oder sogar herablassend rüber.

Claude hingegen hat eine deutlich stärkere Tendenz zur Reflexion. Die Modelle weisen eher auf potenzielle Risiken hin oder betrachten eine Aufgabe aus ethischen Gründen differenzierter. Der Chatbot hat viel mehr einen partnerschaftlichen Charakter, was vor allem an der deutlich niedrigeren Quote an Floskeln liegt.

Textqualität und Kreativität

Die Tonalität beim Chatten lässt sich auch auf die Texterstellung übertragen. ChatGPT liefert meist solide, logisch strukturierte Texte ab. Der Nutzer-Prompt wird systematisch auseinandergenommen und umgesetzt. Das ist praktisch für sachliche Aufgaben wie Zusammenfassungen, Datenanalysen oder offizielle Anschreiben – aber nicht unbedingt für kreatives Schreiben.

Die poetischen Namen der Modelle von Claude (Sonnet, Opus, Haiku) lassen bereits erahnen, dass hier mehr Wert auf kreative Freiheit gelegt wird. Und dem ist tatsächlich so. Claude hat ein größeres erzählerisches Potenzial und klingt dabei auch noch natürlicher. Typische Klischees und stereotype Satzanfänge kommen deutlich seltener vor. Generell ist der Schreibstil von Claude menschlicher, weniger vorhersehbar und emotionaler.

Genau deshalb ist Claude vor allem in der Marketing-Branche inzwischen sehr beliebt. Bei der Erstellung von Headlines und Leads für Content-Marketing liefert Claude in der Regel authentischere Texte und vermeidet die angesprochenen Klischees, die viele andere KIs weiterhin plagen. Die KI von Anthropic scheint weniger technischen Zwängen zu unterliegen.

Logik und Strategie

Auch bei komplexen Entscheidungsfindungen unterscheiden sich die Ansätze. ChatGPT konzentriert sich auf praktische Vorteile und Optionen, wenn die KI eine Strategie ausarbeiten soll. Zahlen werden akribisch durchgerechnet und Vorgehensweisen klar auf Basis des Prompts ausgelegt. Das ist vor allem dann nützlich, wenn eine Aufgabe klar umrissen werden kann. Für die Urlaubsplanung oder Optimierungen am Arbeitsplatz ist die KI bestens geeignet.

Claude antwortete weniger wie eine Maschine und eher wie ein erfahrener Berater. Bei komplizierten Vorgängen bekommen Nutzer häufig nicht nur eine Lösung vorgelegt, sondern auch einen risikobewussten Rahmen, der klar benennt, wo künstliche Intelligenz funktioniert und wo ihre Grenzen liegen. Die Frage ist natürlich, was ein Nutzer gerne hätte: eine simple Antwort oder eine umfassende Risikoanalyse.

Die Tendenz von ChatGPT, Gegebenheiten vereinfacht darzustellen, hat durchaus ihre Vorteile. Der typische „erklär-es-mir-als-wär-ich-fünf“-Prompt ist eine Spezialität der KI. Wer auf spezifische Zielgruppen ausgerichtete Antworten haben möchte, ist bei OpenAI besser aufgehoben. Das ist nicht nur dann ein Vorteil, wenn ein Kind angesprochen werden soll, sondern auch beim Lernen neuer Konzepte und Tätigkeiten.

Zusammenfassungen und kritisches Denken

Im modernen Büroleben können präzise Zusammenfassungen durch KIs extrem viel Zeit sparen. ChatGPT liefert in diesem Zusammenhang immer wieder klare, leicht zu lesende Dokumente ab. Auch hier werden die unterschiedlichen Ansätze wieder deutlich. Claude geht nämlich einen Schritt weiter und macht aus einem einfachen Bericht oft eine umfassende Analyse. Ob man das nun gut findet oder nicht, muss jeder Nutzer für sich entscheiden.

Beim kritischen Denken ergibt sich genau das gleiche Bild. Auf komplexe Fragen mit vielen Nuancen antwortet ChatGPT mit umfassenden, strukturierten Erklärungen und bietet praktische Lösungsvorschläge an. Claude erklärt hingegen nicht nur die Mechaniken hinter der jeweiligen Problemstellung, sondern identifiziert deutlich offener ethische und wirtschaftliche Aspekte – das kann zu einer realistischeren Analyse führen.

ChatGPT vs. Claude: Die Funktionen im Vergleich

Claude hat also einiges zu bieten, hinkt bei den verfügbaren Features aber noch ein wenig hinterher. Zum Beispiel kann die KI keine Bilder generieren. Allerdings wurde mit den Funktionen Websuche und Deep Research sowie einer erweiterten Datenverarbeitung zuletzt nachgerüstet. Und die KI hat noch ein Ass im Ärmel: Mit den sogenannten „Artifacts“ wurde von Anthropic eine Funktion eingeführt, die Berufsgruppen wie Programmierern und Datenanalysten extrem effizientes Arbeiten ermöglicht. Code, Diagramme oder interaktive Tabellen können in einem separaten Fenster in Echtzeit dargestellt werden.

ChatGPT konterte mit dem ähnlichen Feature „Canvas“, mit dem Dokumente direkt im Chat bearbeitet werden können. Canvas kann auch dann zum Einsatz kommen, wenn mehrere Nutzer parallel an einem Dokument schreiben und editieren wollen. Ein weiterer Vorteil ist der „Advanced Voice Mode“, der Emotionen erkennt und so schnelle und natürliche Unterhaltungen mit dem Chatbot erlaubt.

Fazit: ChatGPT und Claude im Vergleich

Einen klaren Gewinner gibt es beim Vergleich zwischen GPT-5.2 und Claude 4.6 nicht. Und ganz ehrlich: Nutzer, die eine KI im Alltag kleine Aufgaben erledigen lassen, werden kaum einen Unterschied merken. Die jeweiligen Eigenheiten machen sich erst bei komplexen Arbeitsaufträgen bemerkbar. Zudem bewegen sich die Preise für die Einstiegsabos auf einem ähnlichen Niveau.

OpenAI bietet ein effizientes, schnelles und relativ verlässliches All-in-One-Paket, Anthropic hingegen einen kreativen Partner mit natürlichem Schreibstil. Wer kein Vielnutzer ist und nicht unbedingt Bilder generieren möchte, kann also bedenkenlos zwischen den KIs wechseln.

Auch interessant: 

Der Beitrag OpenAI vs. Anthropic: ChatGPT und Claude im direkten Vergleich erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Die 10 schlechtesten Filme aller Zeiten

Der Beitrag Die 10 schlechtesten Filme aller Zeiten erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

schlechtesten Filme aller Zeiten

Es ist modern geworden, sich besonders schlechte Filme anzusehen und in der Bekanntschaft oder den sozialen Medien darüber auszutauschen. Doch was sind eigentlich die miesesten Streifen aller Zeiten? Das wollen wir in unserem Ranking klären.

In einer Zeit, in der uns Streaming-Plattformen so viel Content bieten, wie wir ihn in zehn Lebzeiten nicht konsumieren könnten, wird Qualität wieder wichtiger. Welche Produktionen sind es wirklich wert, dass wir unsere Zeit für sie opfern? Da wären auf der einen Seite natürlich die besten Filme aller Zeiten, die jeder gesehen haben muss. Auf der anderen Seite ist es aber auch en vogue, die schlechtesten Streifen zu kennen.

Das sind die schlechtesten Filme aller Zeiten

Egal ob The Room oder Sharknado, Filme „ironisch“ zu schauen ist ein Phänomen unserer Zeit. Natürlich ist es subjektiv, welche Produktionen wirklich mies sind, doch die Plattform Rotten Tomatoes hat es sich zur Aufgabe gemacht, eine Rangliste zu erstellen und die größten Rohrkrepierer zu küren. Ab Rang 41 erhalten alle Streifen eine Wertung von 0 Prozent auf dem Tomatometer.

Darunter befinden sich durchaus bekannte Filme wie Cabin Fever, Highlander II: The Quickening und Hard Kill. Und auch in der Top Ten sind mit John Travolta, Eddie Murphy oder Nicolas Cage einige bekannte Gesichter vertreten. Ein Budget in Millionenhöhe kann eine Produktion offenbar nicht retten, wenn Originalität, Witz und ein gewisser Respekt gegenüber dem Publikum Mangelware sind.

Zugelassen werden nur Filme mit mindestens 20 Bewertungen. Entsprechend sind auf der Liste keine Indie- oder Hobby-Produktionen zu finden. Welche Titel es unter die zehn schlechtesten Filme aller Zeiten geschafft haben, verraten wir im folgenden Ranking.

Platz 10: The Ridiculous 6 (2015)

Den Auftakt macht eine Produktion, die allen Kritikern von Adam Sandler in die Karten spielen wird. The Ridiculous 6 unter der Regie von Frank Coraci erreicht wie alle folgenden Filme auch einen Tomatometer-Score von 0 Prozent. Dem Publikum gefällt der Western-Spoof offenbar deutlich besser, denn das sogenannte Popcornmeter steht immerhin auf 37 Prozent. Kritiker werfen dem Western mit Starbesetzung (Will Forte, Taylor Lautner, Steve Buscemi) seine langweiligen und beleidigenden Witze vor.

Der Beitrag Die 10 schlechtesten Filme aller Zeiten erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Forscher erzielen Supraleiter-Rekord – für verlustfreie Stromübertragung

Der Beitrag Forscher erzielen Supraleiter-Rekord – für verlustfreie Stromübertragung erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Rekord Supraleitung Strom Energie Energiewende

Physiker der University of Houston haben einen neuen Rekord in der Supraleitung erzielt. Sie können nun Strom unter deutlich einfacheren Bedingungen verlustfrei fließen lassen. Die besonders effiziente Energieversorgung ist damit zwar noch nicht alltagstauglich, rückt jedoch durch diesen Durchbruch ein großes Stück näher.

Energie wird selten dort erzeugt, wo sie tatsächlich auch gebraucht wird. Kraftwerke, Windparks oder Solaranlagen stehen oft weit entfernt von Haushalten oder Industrieanlagen, die auf eine zuverlässige Versorgung angewiesen sind.

Deshalb muss Energie über große Entfernungen transportiert werden, um Angebot und Nachfrage ausgleichen und eine stabile Versorgung sicherstellen zu können. Bei diesem Transportprozess, beispielsweise in Stromleitungen, geht jedoch ein erheblicher Teil der Energie verloren.

Der Grund dafür liegt im elektrischen Widerstand der Materialien. Denn wenn der Strom durch die Leitungen fließt, stoßen Elektronen mit Atomen zusammen, wodurch ein Teil der Energie in Form von Wärme abgegeben wird.

Diese Verluste summieren sich, wenn Strom lange Strecken zurücklegen muss, was die Energieübertragung ineffizient und teuer macht. Eine Lösung für dieses Problem sind Supraleiter, also Materialien, in denen der elektrische Widerstand vollständig verschwindet, sodass Strom ohne Verluste fließen kann.

Physiker der University of Houston haben in ihrer Forschung nun einen Durchbruch erzielt, der die Supraleitung unter deutlich praktikableren Bedingungen ermöglicht. Eine Entwicklung, die ein enormes Potenzial für Stromnetze und eine nachhaltigere Energiewirtschaft bedeuten könnte.

Forscher erzielen Temperaturrekord für Supraleitung

Bereits im Jahr 1911 wurde die Supraleitung entdeckt, nun haben die Wissenschaftler einen entscheidenden Fortschritt erzielt. Diese Entdeckung könnte das Feld einen großen Schritt näher an praktische Anwendungen bringen.

Die Forscher des Texas Center for Superconductivity und des Fachbereichs Physik der University of Houston konnten einen neuen Temperaturrekord für die Supraleitung unter Umgebungsdruck aufstellen. Das ist besonders von Vorteil, da die meisten Supraleiter bisher auf extrem niedrige Temperaturen gekühlt werden müssen, was sie teuer und schwierig in der Anwendung macht.

In ihrer Arbeit erreichten die Wissenschaftler eine Übergangstemperatur von 151 Kelvin, also etwa minus 122 Grad Celsius. Der bisherige Rekord aus dem Jahr 1993 lag bei 133 Kelvin, also minus 140 Grad Celsius. Diese Temperatur bezeichnet den Punkt, unterhalb dessen ein Material supraleitend wird und Strom widerstandsfrei fließen kann.

„Bei der Stromübertragung im Netz gehen etwa acht Prozent der Energie verloren“, erklärt Physikprofessor und Hauptautor Ching-Wu Chu. „Wenn wir diese Energie einsparen, sparen wir Milliarden von Dollar, reduzieren den Aufwand erheblich und schonen die Umwelt.“

Die Erhöhung der Übergangstemperatur stellt dabei einen entscheidenden Faktor dar. Denn je näher diese an die Raumtemperatur herangeführt werden kann, desto praktischer und kostengünstiger könnten supraleitende Technologien werden.

Druckabschreckung ermöglicht Temperaturrekord für Supraleitung

Die Entwicklung basiert auf einer „Druckabschreckungs“-Technik. Diese wird bereits in Bereichen wie der Diamantherstellung angewendet.

Die Forscher haben das Material für diesen Vorgang zunächst starkem Druck ausgesetzt, um seine supraleitenden Eigenschaften zu verbessern und seine Übergangstemperatur zu erhöhen. Während das Material unter Druck steht, wird es auf eine bestimmte Temperatur abgekühlt und anschließend schnell und vollständig vom Druck befreit.

Dieser Vorgang fixiert die verbesserten supraleitenden Eigenschaften und hält das Material so unter normalen Bedingungen stabil. Auch die höhere Übergangstemperatur bleibt so nach Entfernen des Drucks bestehen.

„Diese Entdeckung birgt großes Potenzial“, so Chu. „Wir sind überzeugt, dass wir dieses Potenzial mit genügend Forschern und ausreichend Zeit ausschöpfen können.“

Die Supraleitung bei Umgebungsdruck und Raumtemperatur von etwa 300 Kelvin bleibe demnach weiterhin das ultimative Ziel. Dennoch handle es sich laut der Forscher bei dem neuen Rekord um einen wichtigen Fortschritt und eine bedeutende Entdeckung für die Supraleitungsforschung.

Auch interessant:

Der Beitrag Forscher erzielen Supraleiter-Rekord – für verlustfreie Stromübertragung erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Das sind die schönsten Reiseziele in Europa

Der Beitrag Das sind die schönsten Reiseziele in Europa erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

schönsten Reiseziele Europa

Schöne Ziele für den Urlaub gibt es überall – und auch Europa hat in dieser Hinsicht eine ganze Menge zu bieten. Somit laden viele Reiseziele in Europa dazu ein, sie zu entdecken und kennenzulernen. Im unserem wöchentlichen Ranking zeigen wir dir die zehn schönsten Reiseziele in Europa 2026 sind.

Spanien, Portugal, Zypern – die Liste schöner Orte in Europa führt unweigerlich in diese Länder. Doch es gibt in Europa eine Vielzahl schöner Reiseziele, die sich für einen Urlaub oder auch eine Tagesfahrt auf jeden Fall eignen. Ob man nun eher den Strand bevorzugt oder doch in die Berge fahren will, hängt dabei von den persönlichen Präferenzen ab. Doch insgesamt bieten die schönsten Reiseziele in Europa für jeden Geschmack die passende Auswahl.

Die Webseite europeanbestdestinations.com hat ermittelt, welche Reiseziele auf dem europäischen Kontinent die schönsten sind – und auf dieser Basis ergibt sich unser aktuelles Ranking mit den zehn schönsten Reisezielen in Europa. Dabei sind durchaus Destinationen dabei, die man auf jeden Fall erwarten kann. Doch auch Geheimtipps oder Orte, die man nicht sofort auf dem Schirm hat, kommen darin vor.

Die schönsten Reiseziele in Europa

Endlose Strände am Mittelmeer, bunte Häuser oder Vulkanfelsen und mehr: Europa bietet eine ganze Menge und ziemlich viel Abwechslung. Das zeigt sich auch bei den zehn schönsten Reisezielen in Europa, die im folgenden Ranking zu finden sind. Vielleicht ergibt sich daraus ja ein neues Urlaubsziel für den Sommer oder aber man kann die eigene Bucketliste noch ein wenig ergänzen?

Platz 10: Almeria in Spanien

Den zehnten Platz im Ranking belegt das spanische Almeria. Almeria ist vor allem für Naturfreunde gut geeignet, zudem aber auch ein Anlaufpunkt für Strandfreunde oder alle, die entspannte Reisen bevorzugen. Zudem ist Almeria aufgrund seiner vielen Fotomotive auch wunderbar für Fotografen geeignet. Im Ranking der schönsten Reiseziele in Europa landet Almeria somit durchaus berechtigt.

Almeria landet auf Platz 10. Foto: depositphotos.com
Almeria landet auf Platz 10. Foto: depositphotos.com

Der Beitrag Das sind die schönsten Reiseziele in Europa erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Günstiger Strom oder überschätzter Trend? Was Balkonkraftwerke wirklich leisten können

Der Beitrag Günstiger Strom oder überschätzter Trend? Was Balkonkraftwerke wirklich leisten können erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Balkonkraftwerke-2

Es braucht nur ein Solarmodul am Balkon, das über eine Steckdose angeschlossen wird – und schon fließt eigener Strom ins Hausnetz. Was lange nach einer experimentellen Lösung klang, lässt sich inzwischen in vielen Städten entdecken. Balkonkraftwerke haben sich vom Nischenprodukt zu einer ernstzunehmenden Option entwickelt. Doch um Erwartung und Realität abzugleichen, lohnt sich ein genauer Blick.

Energiepreise bleiben weiterhin Thema

Der Reiz liegt auf der Hand. Die Energiepreise sind weiterhin ein sensibles Thema. Zudem wächst das Interesse an unabhängigen Lösungen in vielen Haushalten. 

Kleine Photovoltaikanlagen versprechen einen einfachen Einstieg. Für sie sind keine Dachinstallation oder große Investitionen notwendig. Genau darin liegt ihre Stärke – aber auch ihre Grenze.

Wer sich näher mit den verfügbaren Systemen beschäftigt, stößt schnell auf unterschiedliche Komponenten und Komplettsets, zum Beispiel, wenn die Suche zu Solarmarkt24.de führt. Gerade Einsteiger profitieren davon, hier Leistung, Bauweise und Anschlussmöglichkeiten zu vergleichen, bevor sie sich entscheiden.

Was technisch wirklich möglich ist

Ein Balkonkraftwerk besteht aus nur wenigen Bauteilen: Solarmodul, Wechselrichter und Anschlusskabel. Der erzeugte Gleichstrom wird in Wechselstrom umgewandelt und anschließend direkt ins Hausnetz eingespeist. Geräte im Haushalt lässt sich diese Energie unmittelbar nutzen.

2024 wurde in Deutschland eine wichtige Anpassung vorgenommen: Die zulässige Wechselrichterleistung wurde auf 800 Watt angehoben. Damit dürfen solche Anlagen etwas mehr Strom einspeisen als zuvor. Der Betrieb bleibt dennoch bewusst begrenzt, um die Sicherheit des Stromnetzes zu gewährleisten.

Der zeitliche Faktor spielt eine große Rolle. Strom entsteht nur dann, wenn ausreichend Sonnenlicht vorhanden ist. Eine Speicherung erfolgt bei klassischen Balkonkraftwerken nicht. Der erzeugte Strom steht also nur in dem Moment zur Verfügung, in dem er auch produziert wird.

So viel Entlastung ist wirklich möglich

Die tatsächliche Energieersparnis hängt stark vom individuellen Alltag ab. Haushalte haben einen Grundverbrauch, da viele Geräte wie Kühlschrank, Router oder Standby-Systeme laufen konstant. Genau für diesen lässt sich ein Balkonkraftwerk nutzen. 

Ein Teil dieses Grundverbrauchs kann durch selbst erzeugten Strom abgedeckt werden. Wie groß dieser Anteil tatsächlich ist, variiert jedoch. Diejenigen, die tagsüber häufig zu Hause sind oder Geräte bewusst dann nutzen, wenn die Sonne scheint, profitieren deutlich stärker.

Ein kompletter Ersatz des Strombezugs ist jedoch nicht realistisch. Die erzeugte Menge bleibt begrenzt. Balkonkraftwerke reduzieren die Kosten, können aber keine klassische Energieversorgung ersetzen.

Was bei Anmeldung und Nutzung zu beachten ist

Die rechtlichen Rahmenbedingungen wurden in den letzten Jahren vereinfacht. In Deutschland reicht in der Regel die Registrierung im Marktstammdatenregister. Viele bürokratische Hürden, die früher abschreckend wirkten, sind mittlerweile entfallen.

Auch die Installation ist einfacher geworden. Viele Geräte werden bereits steckfertig geliefert. Trotzdem lohnt sich ein Blick auf die vorhandene Elektroinstallation, besonders in älteren Gebäuden. Sicherheit muss immer Priorität haben. 

Für Mieterinnen und Mieter gilt außerdem: Die Nutzung ist grundsätzlich möglich, allerdings können die baulichen Veränderungen eine Abstimmung mit dem Vermieter erforderlich machen. Dies betrifft die Befestigung am Balkon oder an der Fassade.

Fazit: sinnvoll, wenn die Erwartungen stimmen

Balkonkraftwerke sind weder als Wundermittel noch als kurzfristiger Trend zu bewerten. Sie bieten eine praktische Möglichkeit, sich mit eigener Stromerzeugung auseinanderzusetzen und die laufenden Kosten zu reduzieren.

Ihr Nutzen hängt von Details ab. Wer den eigenen Verbrauch kennt und entsprechend anpasst, kann das Potenzial besser ausschöpfen. Diejenigen, die hingegen eine vollständige Unabhängigkeit erwarten, werden enttäuscht sein.

Am Ende heißt das: Kleine Solaranlagen sind eine sinnvolle Ergänzung im Energiemix. Nicht mehr, aber auch nicht weniger.

Der Beitrag Günstiger Strom oder überschätzter Trend? Was Balkonkraftwerke wirklich leisten können erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Schluss mit Giftstoffen? Neue Batterie setzt auf Wasser-Lösemittel

Der Beitrag Schluss mit Giftstoffen? Neue Batterie setzt auf Wasser-Lösemittel erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

LFP-Kathoden Herstellung

Mit einer neuen, wasserbasierten Produktionsmethode könnten LFP-Batterien deutlich energiesparender und umweltfreundlicher hergestellt werden. Denn: Statt giftiger Lösungsmittel kommt ein spezielles Wassergemisch zum Einsatz.  

Lithium-Ionen-Batterien bilden das Rückgrat der Elektromobilität, belasten jedoch durch giftige Stoffe die Umwelt. Standardbinder wie Polyvinylidenfluorid (PVDF) benötigen für die Elektrodenfertigung herkömmlicherweise das giftige Lösungsmittel N-Methyl-2-Pyrrolidon (NMP). Forscher des Fraunhofer-Instituts für Produktionstechnik und Automatisierung IPA entwickelten nun eine nachhaltige Lösung auf Wasserbasis.

Studienautorin Leah Jalowy und ihr Kollege Dominik Nemec setzen auf den biobasierten Binder Carboxymethylcellulose (CMC). In enger Kooperation mit dem japanischen Maschinenhersteller Sugino optimierten sie die Produktionsprozesse für Lithium-Eisenphosphat-Kathoden (LFP). Das Team veröffentlichte seine wissenschaftlichen Erkenntnisse in der Fachzeitschrift Applied Chem.

LFP-Kathoden: Neue Batterie setzt auf Wasser-Lösemittel

Das Team untersuchte systematisch zwei industriell relevante Verfahren zur Mischung der Elektrodenpaste, auch Slurry genannt. Während beim Dissolver-Mischen eine gezahnte Scheibe in der Paste rotiert, nutzt das Wet Jet Milling extremen Hochdruck. Die Anlage presst das Material mit bis zu 2.200 Bar durch präzise Mikrodüsen.

Diese Methode reduziert die mittlere Partikelgröße der Materialien um 39 Prozent. Das Wet Jet Milling senkt zudem die Viskosität bei niedrigen Scherraten um 96 Prozent, bei mittleren um 80 Prozent und bei hohen Raten um 64 Prozent. Diese physikalische Optimierung verbessert das Fließverhalten und ermöglicht einen höheren Feststoffgehalt in der Paste.

Verbesserte Performance und Energiebilanz

Hochauflösende Aufnahmen unter dem Elektronenmikroskop belegen, dass die so hergestellten Elektroden homogener und dichter gepackt sind. Eine glattere Grenzfläche zum Stromkollektor lässt einen besseren Stromfluss und eine höhere mechanische Stabilität erwarten. Die Forscher führen diese Qualität auf die effiziente Zerkleinerung der Partikel zurück.

Bei einer nominalen Laderate von 1,0 C, was einer vollen Ladung innerhalb einer Stunde entspricht, stieg die Kapazität deutlich an. Die mit Hochdruck hergestellte Variante erreichte 83,8 Milliamperestunden pro Gramm gegenüber 73,1 bei der Standard-Methode. Diese Steigerung um 12,8 Prozent resultiert aus der größeren aktiven Oberfläche der kleineren Partikel.

Nachhaltige Produktion spart 42 Prozent Energie

Die Kombination aus Wet Jet Milling und Dissolver-Mischen benötigt lediglich 0,98 Kilowattstunden pro Kilogramm Paste. Im Vergleich dazu verbraucht das reine Dissolver-Verfahren mit 1,70 Kilowattstunden pro Kilogramm deutlich mehr Prozessenergie. Zusammen mit der gesparten Trocknungsenergie erreicht das neue Verfahren eine Gesamtersparnis von 42 Prozent.

LFP-Kathoden gelten als sichere und kostengünstigere Alternative zu nickelbasierten Systemen, da sie ohne kritische Rohstoffe wie Kobalt oder Nickel auskommen. In der Praxis bedeutet das thermisch stabilere Batterien mit langer Lebensdauer für Elektroantriebe oder industrielle Speicherlösungen. Jalowy und Nemec betonen, dass die Vorteile des Verfahrens bei einer industriellen Skalierung laut der Studie noch deutlicher ausfallen könnten.

Auch interessant:

Der Beitrag Schluss mit Giftstoffen? Neue Batterie setzt auf Wasser-Lösemittel erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Wie KI Wahrheit verzerrt und Demokratie zerstört

Der Beitrag Wie KI Wahrheit verzerrt und Demokratie zerstört erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI Demokratie Künstliche Intelligenz Wahrheit

Künstliche Intelligenz verändert das Internet und unsere Gesellschaft von Grund auf – und zwar nicht nur zum Positiven. Denn: Inhalte und Debatten werden oberflächlicher, grundlegend verzerrt oder schlichtweg falsch. Das hat nicht nur negative Effekte auf die Informationsqualität und das digitale Miteinander. KI gefährdet reale Diskurse, unser soziales Zusammenleben und letztlich auch die Demokratie. Eine kommentierende Analyse.

Wie KI  Wahrheit verzerrt und Demokratie gefährdet

  • Ob Diktaturen, Medien oder populistische Parteien: Immer mehr politische Akteure setzen gezielt KI ein, um Menschen zu täuschen, falsche oder irreführende Informationen zu verbreiten oder Debatten zu verfälschen. Die häufigsten Ziele: Aufmerksamkeit, wirtschaftliche Vorteile oder politische Macht. Die häufigsten Täuschungsmanöver: Die Verbreitung von KI-generierten Bildern, Videos oder Inhalten, die nicht der Realität entsprechen oder Tatsachen verfälschen oder unterschlagen.
  • Die vermutlich noch größere Gefahr: Täuschung im großen Stil. Sogenannte KI-Schwärme könnten schon bald einen öffentlichen Konsens suggerieren und Demokratien klammheimlich verzerren und zersetzen. Hintergrund sind gesteuerte KI-Bots, die ein Gedächtnis haben, sich auf gemeinsame Ziele koordinieren und dabei Ton und Inhalt variieren können.
  • Nicht nur viele naive Nutzer übernehmen unbedarft KI-Inhalte, ohne diese zu prüfen. Auch KI-Systeme selbst basieren mitunter auf falschen Informationen, die sie aus dem Netz speisen. Es ist sogar möglich, Sprachmodelle gezielt zu manipulieren. Ein Beispiel dafür lieferte der britische Suchmaschinen-Experte Jon Goodey. Auf LinkedIn veröffentlichte er im Rahmen eines Experiments einen Beitrag über ein angebliches Google-Update, das es niemals gab. Zahlreiche Nutzer, aber auch Medien übernahmen den Inhalt, den übrigens eine KI zusammengesponnen hatte, ungeprüft. Das führte dazu, dass er sogar von einigen KI-Modellen selbst aufgenommen wurde.

KI lässt zirkuläres Verfäschungs-System entstehen

Die große Erzählung von einer schier übermächtigen KI, die weder Grenzen noch Unmögliches kennt, war sowohl für viele Unternehmen als auch Medien lange bequem. Mittlerweile zerbröselt sie aber immer mehr. Denn: Künstliche Intelligenz ist kein Orakel, sondern ein Echo-Raum.

Sie verstärkt, was da ist: Fakten und Urteile, aber auch Halbwissen, Vorurteile und Lügen. Die Wahrheit wird zwar keineswegs abgeschafft, aber verdünnt. Denn: Desinformation ist kein neues Phänomen. Aber KI kann genutzt werden, um sie zu skalieren. Denn: Was einst Menschen zusammenschustern mussten, kann nun automatisiert werden.

Oder kurzum: KI braucht kein Orchester, um zur Täuschung missbraucht zu werden, sondern nur einen Dirigenten und einen digitalen Chor, der dieselbe interessengetriebene Partitur singt – inklusive automatisiertem Applaus. Das Perfideste ist jedoch, dass die Grenzen zwischen Täuschung und Irrtum verschwimmen. Denn KI „lernt“ mittlerweile aus falschen Inhalten und lässt ein zirkuläres System der Verfälschung entstehen.

Stimmen

  • In einem Artikel in der renommierten Fachzeitschrift Science beschreiben die Autoren, wie gefährlich KI-Schwärme sein können. Jonas R. Kunst von der BI Norwegian Business School und einer der Hauptautoren dazu: „Die Gefahr besteht nicht mehr nur in Fake News, sondern darin, dass die Grundlage des demokratischen Diskurses – unabhängige Stimmen – zusammenbricht, wenn ein einzelner Akteur Tausende von einzigartigen, KI-generierten Profilen kontrollieren kann.“
  • David Garcia, Professor für Social and Behavioural Data Science an der Universität Konstanz, in einem Statement: „Über die Täuschungen oder die Sicherheit von einzelnen Chatbots hinaus müssen wir neue Gefahren erforschen, die sich aus der Interaktion von vielen KI-Akteuren ergeben. Dazu ist es essenziell, dass wir diese KI-Akteure mit Methoden der Verhaltenswissenschaften untersuchen und ihr kollektives Verhalten analysieren, wenn sie in großen Gruppen interagieren.“
  • Forscher der Ludwig-Maximilians-Universität München und der Universität Wien haben noch einen weiteren KI-Einfluss ausgemacht, der demokratiegefährdend sein kann und häufig medial befeuert wird. Studienautor Christoph Fuchs dazu: „Wenn Menschen das Gefühl haben, von Künstlicher Intelligenz verdrängt zu werden, äußern sie Zweifel am politischen System – diese Leute sind weniger zufrieden mit Demokratie und ihren Institutionen.“

KI wird Demokratie nicht kollabieren lassen, aber sie ausfransen

Die gute Nachricht zuerst: KI wird wahrscheinlich keinen plötzlichen Demokratie-Kollaps herbeiführen. Doch sie wird weiterhin genutzt und missbraucht werden sowie sich in ihrer technischen Funktionsweise selbst ad absurdum führen und dadurch freiheitliche Gesellschaftsstrukturen gefährden und ausfransen.

Öffentliche Debatten könnten zu einer Kulisse werden, in der echte Stimmen gegen ein Heer synthetischer und manipulierter Inhalte antreten – und verlieren könnten oder kompromissbereit sein müssten. Problem: KI-generierte Inhalte würden dann dazu führen, dass Konsens kein Ergebnis mehr wäre, sondern ein gelenktes Fake-Produkt.

Gleichzeitig beginnt bereits ein neuer Wettstreit. Auf der einen Seite: KI-gestützte Manipulation. Auf der anderen: Aufklärung, die mitunter selbst auf KI basiert. Denn um die Wahrheit nicht immer weiter zu verzerren und Demokratien zu zerstören, braucht es Prüfalgorithmen, Herkunftsnachweise, digitale Wasserzeichen.

Heißt: Der Kampf zwischen Täuschung und Aufklärung könnte zu einem Dauerzustand werden – zumal Schlupflöcher nie auszuschließen sind. Grundsätzliches Hinterfragen ist im KI-Zeitalter deshalb einerseits angebracht. Doch andererseits droht aller Aufklärung zum Trotz eine Gesellschaft im Dauerzweifel.

Das Bitterste daran ist, dass eine Technologie, die Wissen demokratisieren sollte, Vertrauen zu einer der knappsten Ressourcen machen könnte. Mittlerweile hoffe ich deshalb eigentlich nur noch, dass die sogenannte KI-Blase endlich platzt.

Auch interessant:

Der Beitrag Wie KI Wahrheit verzerrt und Demokratie zerstört erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Steuererklärung mit KI: Darauf musst du achten

Der Beitrag Steuererklärung mit KI: Darauf musst du achten erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Steuererklärung KI, Künstliche Intelligenz, Wirtschaft, Geld, Steuer, Einkommen, Side Business, Side Hustle

KI-Tools verändern gerade die Spielregeln für Nebenprojekte. Mit ChatGPT, Midjourney oder Cursor lassen sich in kurzer Zeit Shops aufsetzen, Micro-SaaS-Produkte bauen oder Beratungsleistungen skalieren. Aus „ich probiere mal was“ wird schneller als gedacht ein ernstzunehmender Umsatz. Das ist großartig, aber es wirft eine Frage auf: Was muss ich bei KI in der Steuererklärung beachten?

Die gute Nachricht vorweg: Steuerlich ist es völlig irrelevant, ob du mit KI arbeitest oder ohne. Entscheidend ist, dass du Einnahmen erzielst und welche Art von Tätigkeit dahintersteht.

KI-Business und Steuererklärung: Was machst du da eigentlich?

Viele Side-Businesses starten diffus: hier ein Auftrag, dort ein Verkauf, dann wieder Wochen nichts. Steuerlich wird es relevant, sobald du regelmäßig am Markt auftrittst und das Ganze auf Dauer angelegt ist.

Ein wichtiger Punkt dabei: Ist deine Tätigkeit eher freiberuflich oder gewerblich? Die Klärung entscheidet unter anderem darüber, ob Gewerbesteuer ein Thema wird. Wer unsicher ist, sollte das rechtzeitig checken; in einem früheren Beitrag habe ich ausführlicher erklärt, wie selbstständige, freiberufliche oder gewerbetreibende Tätigkeiten abgegrenzt werden.

Einkommensteuer: KI-Gewinne gehören in die Steuererklärung

Sobald dein Side-Business Geld abwirft, geht es um deinen Gewinn, also vereinfacht: Einnahmen minus Ausgaben. Wichtig zu wissen: Erst ab einem zu versteuernden Einkommen über dem Grundfreibetrag von 12.348 Euro (Stand 2026) fällt überhaupt Einkommensteuer an. Darunter muss keine Einkommensteuer gezahlt werden.

Wenn dein KI-gestütztes Projekt wächst, steigen typischerweise nicht nur die Einnahmen, sondern auch die Kosten: Tools, Hosting, Software-Abos, Hardware, Werbung, vielleicht Freelancer:innen. Das ist grundsätzlich gut, denn betriebliche Ausgaben senken den steuerpflichtigen Gewinn.

KI-Tools als Betriebsausgaben: ChatGPT absetzen

Wenn du KI-Tools nachvollziehbar beruflich nutzt, können sie Betriebsausgaben sein. Das gilt für die ChatGPT-Membership genauso wie für Midjourney, Cursor, Hosting oder API-Kosten. Die Logik ist dieselbe wie bei einem Fachzeitschriften-Abo oder einer Verbandsmitgliedschaft: Brauchst du das Tool, um deinen Beruf auszuüben? Dann ist es absetzbar. Immer die Rechnungen dazu aufheben.

Wenn du KI-Tools auch privat nutzt, kann eine anteilige Aufteilung sinnvoll sein, ähnlich wie bei der Telefonrechnung. Wichtig ist, dass die berufliche Nutzung plausibel dokumentiert ist.

Umsatzsteuer: Der Teil, der am häufigsten überrascht

Für den Start kann die Kleinunternehmerregelung eine sinnvolle Option sein. Wer im vorangegangenen Kalenderjahr nicht mehr als 25.000 Euro Umsatz erzielt hat und im laufenden Jahr die Grenze von 100.000 Euro nicht überschreitet, kann sich von der Umsatzsteuer befreien lassen.

Das vereinfacht Rechnungsstellung und Buchhaltung erheblich. Allerdings bedeutet es auch, dass du keine Vorsteuer aus deinen eigenen Ausgaben geltend machen kannst, was bei hohen Investitionen ein Nachteil sein kann.

Sobald du regelmäßig an Unternehmen verkaufst, digitale Leistungen anbietest oder Kund:innen im Ausland hast, wird die Umsatzsteuer schnell komplexer. Faustregel: Wenn dein Side-Business wächst, solltest du das Thema früh auf dem Radar haben und nicht erst, wenn die erste Betriebsprüfung ansteht.

Darf mein Nebenjob mehr einbringen als mein Hauptjob?

Steuerlich ist das völlig unproblematisch. Einnahmen aus dem Side-Business werden einfach zu deinem zu versteuernden Einkommen addiert. Jedoch können Gewinne aus den Nebengewerben zu Einkommensteuer-Vorauszahlungen führen.

Es kann sonst auch eine höhere Nachzahlung entstehen. Hierauf sollte man vorbereitet sein, genauso wie auf die Gewerbesteuer, die ab einem Gewinn von über 24.500 € anfällt.

Relevant werden kann allerdings die Frage der Sozialversicherung: Wenn die selbstständige Tätigkeit zeitlich oder wirtschaftlich zur Haupttätigkeit wird, kann sich das auf die Krankenversicherung auswirken.

Außerdem kann eine Versicherungspflicht in der gesetzlichen Rentenversicherung entstehen. Eventuell müssen auch Beiträge zur Krankenversicherung auf den Gewinn gezahlt werden.

Steuererklärung bei KI-Side-Business: Drei Dinge, die sich ab Tag eins lohnen

Damit es später nicht nervig wird, lohnt sich ein sauberer Start. Daher direkt:

  • Zahlungsströme trennen: Ein separates Konto oder zumindest eine klare Buchungslogik schafft Übersicht.
  • Steuer-Rücklagen einplanen: Wer von Anfang an 25 bis 30 Prozent des Gewinns zurücklegt, wird nicht überrascht.
  • Belege und Verträge dokumentieren: Klingt banal, spart aber im Ernstfall enorm viel Zeit und Geld.

Ob ChatGPT, Midjourney oder Cursor: Die Technologie ändert nichts am Steuerrecht. Aber sie sorgt dafür, dass aus einem Nebenprojekt schneller ein echtes Business wird und damit auch die steuerlichen Pflichten früher greifen, als viele erwarten. Wer das von Anfang an ernst nimmt, spart sich später den teuren Ärger.

Auch interessant: 

Der Beitrag Steuererklärung mit KI: Darauf musst du achten erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Die Länder mit dem höchsten Ölverbrauch

Der Beitrag Die Länder mit dem höchsten Ölverbrauch erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Ölverbrauch Energie Fabrik Industrie

Durch den Krieg im Iran wird Öl immer teurer. Wohl den Ländern, die einen geringen Verbrauch haben. Auf Deutschland und die meisten anderen Industriestaaten trifft das leider nicht zu, wie unser Ranking der Nationen mit dem höchsten Ölverbrauch zeigt.

Der Energiewende – Windrädern, Wärmepumpen und Elektroautos – zum Trotz, ist Rohöl noch immer das Rückgrat der modernen Zivilisation, ob als Treibstoff für die globale Logistik, als Heizöl oder als Grundstoff für Asphalt und Schmieröle. Durch den Irankrieg und die Sperrung der Straße von Hormus ist der weltweite Handel momentan erlahmt und die Preise sind deutlich gestiegen. Welche Länder davon am meisten betroffen sind, klären wir in diesem Ranking.

Hier ist der Ölverbrauch am höchsten

Nach einem deutlichen Knick während der Corona-Pandemie im Jahr 2020 hat der Ölbedarf im Jahr 2023 einen neuen historischen Rekordwert von rund 102,2 Millionen Barrels pro Tag erreicht. Fossile Brennstoffe sind also auch weiterhin gefragt.

Ein Blick auf die Verteilung zeigt eine Konzentration des Konsums. Die zehn größten Verbraucher sind allein für etwa 60 Prozent des weltweiten Ölverbrauchs verantwortlich. Aber auch innerhalb der Top Ten gibt es klare Unterschiede. Die Nationen auf dem Treppchen kommen gemeinsam auf einen weltweiten Anteil von über 40 Prozent.

Kleine Nationen wie Niue oder St. Helena kommen mit weniger als 100 Barrels pro Tag aus, ganz oben sind wir im zweistelligen Millionenbereich. Das kann allerdings nicht mehr ewig so gehen, denn Experten schätzen, dass die weltweiten Reserven bei dem aktuellen Verbrauch noch etwa 53 Jahre reichen werden.

Welche Nationen haben mit ihrem Ölverbrauch den größten Anteil an dieser Entwicklung? Das verraten wir im folgenden Ranking (via Worldometers).

Platz 10: Deutschland

Deutschland belegt den zehnten Platz im weltweiten Vergleich. Mit einem täglichen Ölverbrauch von 2.056.735 Barrels macht die Bundesrepublik etwa 2,01 Prozent des globalen Marktes aus. Statistisch gesehen verbraucht jeder Deutsche jährlich etwa 372,9 Gallonen. Als führende Industrienation Europas ist Deutschland trotz der Bemühungen um erneuerbare Energien weiterhin auf Rohöl angewiesen.

Der Beitrag Die Länder mit dem höchsten Ölverbrauch erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

KI-Chips auf Glas sollen Computer schneller und effizienter machen

Der Beitrag KI-Chips auf Glas sollen Computer schneller und effizienter machen erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI-Chips auf Glas

Glas als Substrat für KI-Chips eröffnet neue Möglichkeiten, mehrere spezialisierte Siliziumchips effizient zu verbinden. Die Technik soll nicht nur Überhitzung und Verformung verhindern, sondern Computer auch schneller und effizienter machen. 

Spezielle Glaspanels könnten künftig organische Trägerschichten in der Halbleiterindustrie ersetzen und die Effizienz von KI-Prozessoren steigern. Während herkömmliche Substrate unter Hitze verformen, bietet Glas die notwendige mechanische Stabilität für die nächste Generation von Hochleistungsrechnern. Der Materialwechsel könnte den Beginn einer neuen Phase in globalen Rechenzentren markieren.

Die US-Regierung fördert eine Partnerschaft zwischen Absolics und Georgia Tech mit 175 Millionen US-Dollar aus dem „CHIPS for America“-Programm. Damit sichern sich die USA eine zentrale Rolle in der Halbleiter-Lieferkette. In Covington, Georgia, entstand bereits eine Fabrik für die kommerzielle Fertigung dieser Glassubstrate.

KI-Chips auf Glas: Der globale Wettbewerb im Fokus

Hinter den Kulissen hat sich ein industrieller Wettlauf zwischen den führenden Technologie-Nationen entwickelt. Neben dem US-Konzern Intel beschleunigen südkoreanische Unternehmen wie Samsung oder LG ihre Forschung. Auch chinesische Firmen gehören zu den frühen Anwendern dieser Technologie.

Der Zulieferer JNTC produziert bereits semi-fertige Glaspanels in hohen Stückzahlen für den Weltmarkt. Das Unternehmen plant für das Jahr 2027 eine zusätzliche Fertigungslinie in Vietnam. Analysten prognostizieren für den Sektor ein Wachstum auf bis zu 4,4 Milliarden US-Dollar bis 2036.

Die physikalischen Vorteile von Glas gegenüber Epoxidharz sind messbar: Die Oberfläche ist 5.000-mal glatter als bei organischen Substraten. Das ermöglicht eine zehnmal höhere Dichte bei elektrischen Verbindungen. So können etwa 50 Prozent mehr Siliziumchips auf der gleichen Fläche Platz finden.

Lichtbasierte Signale für KI-Hardware

Die Panels weisen eine Dicke von lediglich 700 Mikrometern bis 1,4 Millimetern auf. Dennoch sollen sie den thermischen Belastungen moderner KI-Workloads standhalten. Glas verspricht dabei eine präzise Ausrichtung der Komponenten und verhindert Verformungen.

Künftige Chip-Generationen könnten die Transparenz des Materials für integrierte optische Signalwege nutzen. Designer würden diese direkt in das Substrat einbauen. Lichtpulse ersetzen dabei stromintensive Kupferpfade und senken den Energiebedarf der Rechenzentren.

Intel demonstrierte bereits Anfang 2025 einen funktionsfähigen Computer mit Glaskern-Substrat, der das Windows-Betriebssystem startete. Neue Fertigungswerkzeuge stabilisieren die Prozesse mittlerweile zuverlässig. Die Technologie wandert vom Prototypenstadium in die industrielle Massenfertigung.

Auch interessant:

Der Beitrag KI-Chips auf Glas sollen Computer schneller und effizienter machen erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Fahndung per Selfie: Bundesregierung will biometrische Gesichtsscans einführen

Der Beitrag Fahndung per Selfie: Bundesregierung will biometrische Gesichtsscans einführen erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

biometrische Gesischtsscans Gesichtserkennung Deutschland

Geht es nach der Bundesregierung, soll es der Polizei künftig erlaubt sein, das Internet für die Strafverfolgung und Terrorismusbekämpfung nach Gesichtern zu durchsuchen. Fahndungsfotos sollen dafür etwa biometrisch mit öffentlich auffindbaren Bildern im Netz verglichen werden können. Eine kommentierende Analyse.

Bundesregierung will biometrische Gesichtsscans einführen

  • Bundesinnenminister Alexander Dobrindt (CSU) und Bundesjustizministerin Stefanie Hubig (SPD) haben sich im März 2026 auf drei Gesetzesentwürfe geeinigt, die eine biometrische Überwachung in Deutschland ermöglichen sollen, um Fotos mit Bildern aus dem Internet abzugleichen. Während das Bundesjustizministerium geplante Änderungen der Strafprozessordnung präsentierte, stellte das Bundesinnenministerium zwei Entwürfe mit neuen Befugnissen für die deutschen Polizeibehörden vor.
  • Die biometrische Gesichtserkennung basiert darauf, dass jedes Gesicht einzigartige Merkmale aufweist. Darunter unter anderem: Abstände zwischen Augen, Nasenspitze und Kinn. Diese Eigenschaften lassen sich digital ermitteln und in Form von sogenannten Daten-Templates darstellen, die anschließend automatisiert miteinander verglichen werden können.
  • Die KI-Verordnung der EU untersagt es, Gesichtsbilder aus dem Netz willkürlich zu erfassen, um biometrische Datenbanken zu erstellen. Ziel der Bundesregierung ist es offenbar, diese Vorschriften zu umgehen. Das Bundesjustiz- und Bundesinnenministerium verteidigen ihr Vorhaben, indem sie betonen, dass für die Datenanalyse kein KI-System genutzt werden soll. Daten würden zudem nicht dauerhaft gespeichert.

Ein juristischer Trick, um EU-Recht zu umgehen?

Die Gesetzesentwürfe der Bundesregierung wirken wie ein juristischer Trick. Die zuständigen Ministerien versprechen, keine KI-Modelle zu nutzen, wollen jedoch mit vergleichbaren Technologien ein Überwachungsinstrument etablieren und EU-Recht auf dem Papier umgehen. Wie man ohne dauerhafte Datenspeicherung und KI ein solches System umsetzen will, geht aus den Entwürfen nicht hervor.

All das erweckt den Eindruck, dass man eine biometrische Überwachung per Algorithmen einführen und EU-Recht umkurven will, indem man der Software einfach keinen Namen gibt. Dass das Bundesjustiz- und das Bundesinnenministerium die technische Ebene äußerst vage formulieren, ist fast schon so auffällig, als wäre Unklarheit Teil der Strategie.

Die Pläne der Bundesregierung stehen dabei quer zu dem, was auf EU-Ebene mühevoll ausgehandelt wurde: einem Schutzraum für Anonymität im öffentlichen Leben. Das Europäische Parlament wollte eine biometrische Gesichtserkennung deshalb verhindern. Doch die Bundesregierung versucht nun, eine Hintertür in Form einer juristischen Grauzone zu finden.

Doch das wäre durchaus gefährlich. Denn Anonymität ist nicht zwangsläufig ein Trick, sondern ein Schutzschild – etwa für Minderheiten, Demonstranten oder Oppositionelle. Hinzu kommt, dass sich Gesichter nicht ändern lassen wie etwa Passwörter. In den falschen Händen wäre ein solches Überwachungsinstrument deshalb brandgefährlich.

Ein Blick in die USA, in denen Menschen über Social Media verfolgt und die Meinungsbildung durch KI verzerrt werden, zeigt etwa, wie schnell sich freiheitliche Standards verschieben und in einer zunehmenden Autokratie münden können.

Stimmen

  • Das Bundesjustizministerium schreibt in seinem Gesetzesentwurf: „Außerdem muss beim Einsatz solcher KI-Systeme durch Strafverfolgungsbehörden beachtet werden, dass Artikel 5 Absatz 1 Buchstabe e der Verordnung über Künstliche Intelligenz das Inverkehrbringen, die Inbetriebnahme für diesen spezifischen Zweck oder die Verwendung von KI-Systemen verbietet, die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen erstellen oder erweitern. Dieses Verbot gilt nicht, sofern für das Auslesen der Daten keine KI-Systeme eingesetzt werden.“
  • Julia Duchrow, Generalsekretärin von Amnesty International Deutschland, in einem Statement: „Massenhafte Überwachung mit KI gefährdet Menschenrechte und Demokratie. Sie hat eine einschüchternde Wirkung und birgt die Gefahr von Missbrauch. Sowohl beim KI-Einsatz für einen biometrischen Abgleich als auch für eine automatisierte Analyse von Polizeidaten besteht ein erhebliches Risiko für Diskriminierung. Falls für die automatisierte Datenanalyse Software von Palantir eingesetzt werden soll, handelt es sich um ein Unternehmen, das nach Recherchen von Amnesty International in den USA systematisch in Menschenrechtsverletzungen der Trump-Administration involviert ist.“
  • Der Chaos Computer Club kritisierte bereits im Oktober 2025: „Die in einem Gesetzespaket formulierten Ideen von Bundesinnenminister Alexander Dobrindt (CSU) nach biometrischer Dauerüberwachung sind nicht mit einem demokratischen Rechtsstaat kompatibel und verstoßen gegen EU-Recht. (…) Aber das Problem heißt nicht Palantir, Pimeyes oder Clearview AI. Das eigentliche Problem ist die Idee einer allgegenwärtigen Überwachung und Datenrasterung, der niemand mehr ausweichen kann.“

Biometrische Gesichtsscans als gefährliches Werkzeug

Noch ist die biometrische Gesichtserkennung in Deutschland nicht beschlossen, aber die politische Dynamik scheint klar. Die Entwürfe müssen von den Bundesländern und vom Bundesrat abgesegnet werden. Erfahrungsgemäß verschieben sich solche Vorhaben selten zurück Richtung Freiheit, sondern eher in Richtung einer praktikablen Anwendung. Kritik wird zwar eingepreist, aber selten zum K.o.-Kriterium.

Auf europäischer Ebene könnte jedoch ein Konflikt entstehen. Sollte Deutschland versuchen, die KI-Verordnung faktisch zu unterlaufen, könnte das einerseits juristische Nachspiele haben. Andererseits könnten andere Mitgliedstaaten ähnliche Instrumente etablieren. Aus einem nationalen Sonderweg entstünde dann ein europäischer Flickenteppich der Überwachung.

Hinzu kommt, dass die technologische Entwicklung nur eine Richtung kennt: schneller, präziser, allgegenwärtiger. Selbst wenn der Staat sich formal zurückhalten würde, dürften private Anbieter mit den Hufen scharen, um solche Lücken zu füllen. Die eigentliche Frage ist daher nicht, ob Gesichtserkennung kommt – sondern wer sie kontrolliert. Oder: ob wir künftig vom Staat erkannt werden oder von einem Privatunternehmen.

Das wirft automatisch Fragen auf. Wo würden Identitätsdaten gespeichert werden? Wer hätte Zugriff? Wie verhindert man Missbrauch oder Datenlecks? Eine zentrale staatliche Identitätsinfrastruktur wäre zweifellos ein sensibles Machtinstrument, das in den falschen Händen verheerende Folgen haben kann. Hinzu kommt die politische Realität: Eine gesichert rechtsextreme AfD steht kurz davor, stärkste Kraft in Deutschland zu werden. Wer heute ein Überwachungsinstrument schaffen will, muss deshalb bedenken, wer es morgen nutzen könnte.

Auch interessant: 

Der Beitrag Fahndung per Selfie: Bundesregierung will biometrische Gesichtsscans einführen erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Neuer Schufa-Score: Punktesystem statt Prozenten – das ändert sich

Der Beitrag Neuer Schufa-Score: Punktesystem statt Prozenten – das ändert sich erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

neuer Schufa-Score Geld Kreditwürdigkeit

Die Schufa hat ihr Bewertungssystem grundlegend umgestellt. Der neue Schufa-Score basiert künftig auf Punkten statt Prozentwerten und soll mehr Einblick in die Berechnung bieten. Für Verbraucher soll das Verfahren so verständlicher werden. Was genau neu ist und worauf Betroffene jetzt achten sollten.

Die „Schutzgemeinschaft für allgemeine Kreditsicherung“ – besser bekannt als Schufa – sammelt und bewertet Daten zur Kreditwürdigkeit von Millionen Menschen in Deutschland und erstellt daraus ihren Score. Banken, Vermieter oder Onlinehändler können auf diesen Score zurückgreifen, um so Risiken für Kredite, Ratenkäufe oder Mietverträge besser einschätzen zu können.

Damit kann die Auskunftei einen enormen Einfluss auf das Leben vieler Menschen haben, weshalb sie auch seit Jahren in der Kritik steht. Denn Verbraucherschützer kritisieren bisher unter anderem die mangelnde Transparenz bei der Berechnung des Scores sowie die Nutzung umfangreicher personenbezogener Daten.

Die Schufa hat nun eingelenkt und ihr Bewertungssystem überarbeitet. Dabei setzt die Auskunftei nach eigenen Angaben „auf völlige Transparenz“, der neue Score soll für Verbraucher „verständlich und nachvollziehbar“ sein.

Wie setzt sich der neue Schufa-Score zusammen?

Eine der größten Neuerungen beim Schufa-Score stellen die Bewertungskriterien dar. Bisher hat die Auskunftei für ihre Bewertungen auf hunderte Datensätze zurückgegriffen, künftig sollen nur noch diese zwölf Kriterien einfließen:

  • Zahlungsstörungen
  • Alter des ältesten Bankvertrags
  • Alter der ältesten Kreditkarte
  • Alter der aktuellen Adresse
  • Alter des jüngsten Rahmenkredits
  • Anzahl Anfragen und Abschlüsse für Girokonten und Kreditkarten in den vergangenen zwölf Monaten
  • Anzahl Anfragen außerhalb des Bankenbereichs in den vergangenen zwölf Monaten
  • Aufgenommene Ratenkredite in den vergangenen zwölf Monaten
  • Längste Restlaufzeit aller Ratenkredite
  • Kreditstatus
  • Immobilienkredit
  • Vorliegen einer Identitätsprüfung

Für jeden dieser Aspekte werden dabei künftig Punkte vergeben, deren Gesamtzahl von der Wichtung des jeweiligen Kriteriums abhängt. Insgesamt kann der Wert des Scores damit zwischen 100 und 999 Punkten liegen, ab 776 Punkten bewertet die Schufa die Bonität als „hervorragend“.

Anders als bisher können Verbraucher ihren Schufa-Score künftig jederzeit online einsehen. Bislang war dies nur einmal im Jahr kostenlos möglich, die Infos hat die Schufa auf Anfrage per Post versendet.

Nun soll dies über einen Schufa-Account digital möglich werden. Für die Registrierung muss jedoch eine Identifizierung, beispielsweise über den Personalausweis mit aktiver Online-Ausweisfunktion vorgenommen werden.

Erklärtool im Schufa-Account soll für mehr Transparenz sorgen

Wer sich für einen Schufa-Account registriert hat, kann hier jedoch nicht nur seinen aktuellen Score einsehen. Auch die Berechnung will die Auskunftei hier künftig einsehbar machen. Damit soll der Score laut der Schufa „ganz einfach nachgerechnet werden können – und das ganz ohne statistische Fachkenntnisse“.

Zusätzlich will die Schufa in den kommenden Monaten weitere Services bereitstellen. Dann soll es unter anderem möglich sein, sich kostenfrei bei erstmalig negativen Einträgen benachrichtigen zu lassen.

Trotz der Transparenzoffensive der Schufa warnt die Verbraucherzentrale NRW, dass sich an der tatsächlichen Bewertung der Kreditwürdigkeit für viele Verbraucher vorerst kaum etwas ändern könnte. Denn der neue Score gilt noch nicht flächendeckend und wird erst nach und nach eingeführt.

„Es kann also nach wie vor sein, dass nicht der neue Score, sondern ein anderer Score-Wert der Schufa maßgeblich für die Ablehnung eines Vertrages war“, erklärt die Verbraucherzentrale. Daher sei es ratsam, den Score und die ihm zugrunde liegenden personenbezogenen Daten regelmäßig zu überprüfen.

Das sei auch ohne Schufa-Account über eine kostenlose Auskunft möglich. Diese „Datenkopie nach Artikel 15 DSGVO“ kann auf der Website der Schufa ganz einfach angefordert werden.

Auch interessant:

Der Beitrag Neuer Schufa-Score: Punktesystem statt Prozenten – das ändert sich erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Die Länder mit der höchsten Lebenserwartung

Der Beitrag Die Länder mit der höchsten Lebenserwartung erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Rentner Lebenserwartung Bank Park alter Mann Frau Paar

In manchen Ländern stagniert die Lebenserwartung, in anderen steigt sie auch 2026 noch. Wo auf der Welt die Menschen im Schnitt am ältesten werden, verraten wir in diesem Ranking.

Solange wir unseren Verstand nicht in die Cloud hochladen oder unsere abgenutzten Körperteile einfach so ersetzen können, müssen wir auf unsere Gesundheit achten, um es bis ins hohe Alter zu schaffen. Ein bis ins Letzte getrimmter Lebensstil ist dabei aber nicht unbedingt zielführend. Intensiver Sport, pedantisches Kalorienzählen und optimierte Schlafzeiten können helfen, doch es gibt offenbar einfachere Wege, um sehr alt zu werden.

In diesen Regionen ist die Lebenserwartung am höchsten

Machen wir uns nichts vor, die genetische Disposition macht beim Lebensalter eine Menge aus. Trotzdem kann der Lebensstil einen großen Unterschied machen. Regionen, in denen Menschen besonders alt werden und auffallend häufig die Marke von 100 Jahren überschreiten, bezeichnet die Wissenschaft als sogenannte „Blue Zones“. Dazu gehören zum Beispiel Sardinien, die japanische Insel Okinawa oder das griechische Ikaria.

Forscher haben festgestellt, dass eine Kombination aus pflanzlicher Ernährung, starkem sozialen Zusammenhalt und regelmäßiger Bewegung den Alterungsprozess verlangsamen kann. Diese Zonen beschreiben lokale Phänomene, doch auch zwischen den Nationen dieser Welt gibt es immense Unterschiede, die auf Faktoren wie wirtschaftliche Stabilität und die Qualität des Gesundheitssystems zurückgeführt werden können.

Zwischen dem Spitzenreiter der Liste und dem Schlusslicht Nigeria liegt eine Differenz von 31,78 Jahren. Menschen in Krisengebieten erreichen oft kaum das 60. Lebensjahr. Gründe sind unter anderem der fehlende Zugang zu sauberem Wasser, eine unzureichende medizinische Versorgung, die hohe Kindersterblichkeit und Kriege.

Deutschland landet in dem Ranking mit einer durchschnittlichen Lebenserwartung von 81,86 Jahren auf Platz 44. In unserer Top Ten präsentieren wir die zehn Nationen, in denen die Menschen derzeit die höchste Lebenserwartung haben (via Worldometers).

Platz 10: Australien

Australien sichert sich den zehnten Platz. In Down Under erreichen die Menschen eine durchschnittliche Lebenserwartung von 84,34 Jahren. Dabei liegt die Lebenserwartung der Frauen mit 86,07 Jahren deutlich über der Statistik der Männer, die bei lediglich 82,59 Jahren liegt. Ein hoher Lebensstandard und ein gut ausgebautes Gesundheitssystem sind die Grundlage für die positiven Zahlen.

Der Beitrag Die Länder mit der höchsten Lebenserwartung erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Solarenergie für Zuhause: PV-Komplettpakete mit 10 kWh Batterie ab 5.999 Euro

Der Beitrag Solarenergie für Zuhause: PV-Komplettpakete mit 10 kWh Batterie ab 5.999 Euro erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

ACTEC Solar

Wer unabhängig von steigenden Strompreisen werden will, setzt auf eine Photovoltaik-Komplettlösung. Mit den leistungsstarken PV-Komplettpaketen von ACTEC Solar, inklusive 10 kWh Batterie und Trina Vertex S+ Glas-Glas Bifacial Modulen, ist der Weg zur eigenen Energiewende einfach und effizient.

Nicht nur große Solarparks treiben die Energiewende voran – mit den modernen Photovoltaik-Komplettpaketen von ACTEC Solar sichern sich auch Eigenheimbesitzer und Unternehmen maximale Unabhängigkeit und Effizienz.

Jetzt zuschlagen und richtig sparen: Als BASIC thinking Leser profitierst du von exklusiven Aktionspreisen: Das 10,68 kWp Komplettpaket gibt es bereits ab 5.999 Euro und das 16,02 kWp Paket für nur 6.719 Euro inkl. MwSt. Als Privatkunde in Deutschland zahlst du dank der aktuellen 0 % MwSt.-Regelung für Anlagen bis 30 kWp ohnehin zum günstigsten Preis. Und sicherst dir obendrauf umfangreiche Produkt- und Leistungsgarantien für maximale Langzeitsicherheit. Ein Komplettpaket, das sich rechnet, von Tag eins an.

Jetzt zum Komplettpaket

Trina Vertex S+ Module: Effizienz und Langlebigkeit

Im Zentrum beider Pakete stehen die Trina Vertex S+ 445W Glas-Glas Bifacial Module. Dank bifazialer Technologie wird nicht nur Sonnenlicht von vorne, sondern auch reflektiertes Licht von hinten genutzt – das sorgt für eine spürbar höhere Energieausbeute. Die Module bringen einen Wirkungsgrad von 22,3 Prozent und sind durch die Doppelglas-Konstruktion besonders robust und langlebig.

Trina Solar steht für höchste Qualität: 25 Jahre Produktgarantie und 30 Jahre Leistungsgarantie geben Investitionssicherheit. Die fortschrittliche N-Typ i-TOPCon-Zelltechnologie sorgt auch bei schwachem Licht für optimale Erträge.

10 kWh Speicher: Energie, wann sie gebraucht wird

Mit dem Solplanet Ai-HB G2 Pro Energiespeicher steht der selbsterzeugte Solarstrom auch nachts oder bei schlechtem Wetter zur Verfügung. Die 10,24 kWh Kapazität sind optimal für Haushalte und kleine Betriebe, die ihren Eigenverbrauch maximieren wollen. Die modulare Bauweise ermöglicht eine flexible Erweiterung und hier zeigt sich, was den Solplanet klar von der Konkurrenz abhebt:

Während Speicher namhafter Hersteller wie Growatt oder Huawei lediglich auf 6.000 Ladezyklen kommen, überzeugt die langlebige Lithium-Eisenphosphat-Technologie (LiFePO4) des Solplanet mit bis zu 8.000 Ladezyklen – das bedeutet spürbar mehr Lebensdauer und Investitionssicherheit.

Auch bei der Ladeleistung setzt Solplanet Maßstäbe: Wo andere Hersteller oft nur 5 kWh, maximal 7 kWh Ladeleistung bieten, liefert der Solplanet Ai-HB G2 Pro vollwertige 10 kWh Ladeleistung und nutzt damit das volle Potenzial deiner Solaranlage aus. Die Überwachung und Steuerung erfolgen komfortabel per App, alle Komponenten sind für den Innen- und Außeneinsatz geeignet.

Hybrid-Wechselrichter und Notstromfunktion

Egal ob 10,68 kWp oder 16,02 kWp – beide Pakete enthalten den Solplanet ASW 10kH-T3 Hybrid-Wechselrichter. Drei unabhängige MPP-Tracker sorgen für optimale Leistung bei verschiedenen Dachausrichtungen (z.B. Ost-Süd-West).

Die integrierte Notstromfunktion (USV/UPS) schützt vor Ausfällen und versorgt wichtige Verbraucher im Haus. Der Wechselrichter überzeugt mit 10 Jahren Produktgarantie.

Kompletter Lieferumfang und einfache Installation

Beide Pakete werden als vollständiges Set geliefert – inklusive Solarmodule, Speicher, Wechselrichter, Smart Meter & Wifi Stick. Das macht die Installation schnell und unkompliziert. Für Fragen steht ein hauseigenes Expertenteam bereit.

  • 24 bzw. 36 Trina Vertex S+ Module (je nach Paket)
  • Solplanet Hybrid-Wechselrichter
  • 10kWh Solplanet Speicher Set inkl. Batterie Managment System und Base
  • Smart Meter, Wifi Stick, Garantiekarten und Bedienungsanleitung

Preis-Leistung & steuerliche Vorteile

Das 10,68 kWp Komplettpaket kostet 5.999 Euro inkl. MwSt., das 16,02 kWp Paket 6.719 Euro inkl. MwSt. Für Anlagen bis 30 kWp gilt in Deutschland aktuell die 0 Prozent Mehrwertsteuer-Regelung für Privatkunden. Zudem profitieren Käufer von umfangreichen Produkt- und Leistungsgarantien.

Für noch mehr Unabhängigkeit ist eine passende Wallbox für das Laden von E-Autos optional erhältlich.

Fazit: Jetzt mit eigener PV-Anlage durchstarten

Ob für das Einfamilienhaus oder den Gewerbebetrieb – die PV-Komplettpakete von ACTEC Solar bieten eine rundum sorglose Lösung für alle, die Solarstrom selbst erzeugen, speichern und optimal nutzen wollen. Die hochwertige Technologie und die attraktiven Konditionen machen den Einstieg in die Energiewende besonders einfach.

Alle Details zum Komplettpaket

Der Beitrag Solarenergie für Zuhause: PV-Komplettpakete mit 10 kWh Batterie ab 5.999 Euro erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Realitätsverlust: KI-Agenten werden an der Arbeitswelt vorbei entwickelt

Der Beitrag Realitätsverlust: KI-Agenten werden an der Arbeitswelt vorbei entwickelt erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI-Agenten Assistenten Realität Arbeit

Die Produktivität von KI-Agenten wird an Aufgaben gemessen, die mit der realen Arbeitswelt nur wenig zu tun haben, wie eine neue Studie zeigt. Während Benchmarks vor allem Programmierfähigkeiten testen, bleiben demnach zentrale Tätigkeiten vieler Berufe weitgehend außen vor.

Künstliche Intelligenz ist einer der aktuellen und meist diskutierten Trends in der Arbeitswelt. Unternehmen versprechen sich Effizienzgewinne und neue Geschäftsmodelle, während in der Gesellschaft diskutiert wird, welche Tätigkeiten durch KI automatisiert werden können – und welche nicht.

Gleichzeitig entwickeln sich KI-Systeme rasant weiter. Das gilt insbesondere für die sogenannte KI-Agenten, die in der Arbeitswelt künftig eigenständig Aufgaben planen und ausführen sollen. Doch je größer die Erwartungen werden, desto drängender stellt sich die Frage, wie realistisch diese Fähigkeiten tatsächlich sind.

Eine Studie der Carnegie Mellon University und der Stanford University hat sich genau diese Thematik genauer angesehen. Die Ergebnisse legen nahe, dass bei der Bewertung von KI-Agenten zwischen Anspruch und Wirklichkeit eine erhebliche Lücke klafft. Denn diese orientiert sich bislang stark an eng gefassten, oft programmierlastigen Aufgaben und damit eher weniger an tatsächlichen Aufgaben aus der Arbeitswelt.

Wie gut sind KI-Agenten wirklich für die Arbeitswelt geeignet?

Benchmarks dienen für die Bewertung von KI-Agenten als Maßstab für Fortschritt und Leistungsfähigkeit. Denn sie definieren, welche Aufgaben die Systeme lösen sollen und können dann anhand standardisierter Tests Aussagen über die Leistungsfähigkeit zulassen.

Entwickler und Unternehmen können dann anhand dieser Tests entscheiden, für welche Aufgaben die KI aufgrund ihrer Leistungsfähigkeit geeignet ist. Die Forscher der Carnegie Mellon University und der Stanford University haben sich für ihre Untersuchung jedoch die Frage gestellt, wie repräsentativ diese Benchmarks für die reale Arbeitswelt tatsächlich sind.

Das größte Problem sehen die Wissenschaftler in der Definition der Benchmarks für KI-Agenten. Denn sind diese nur auf einen kleinen Aufgabenbereich beschränkt, führen Verbesserungen möglicherweise nicht zu breiten Produktivitätssteigerungen oder einer spürbaren Entlastung des Arbeitsmarktes.

KI-Agenten konzentrieren sich auf geringen Teil der Arbeitswelt

Für die Untersuchung haben die Forscher systematisch den Zusammenhang zwischen der Entwicklung von Agenten und der Verteilung realer menschlicher Arbeit untersucht. Dafür haben sie 72.342 Aufgaben aus 43 Agenten-Benchmarks gesammelt, standardisiert und diese 1.016 realen Berufen auf dem US-amerikanischen Arbeitsmarkt zugeordnet.

„Wir zeigen erhebliche Diskrepanzen zwischen der tendenziell programmierzentrierten Agentenentwicklung und den Kategorien auf, in denen menschliche Arbeit und wirtschaftlicher Wert konzentriert sind“, schreiben die Forscher in ihrer Studie. Denn die Entwicklung von KI-Agenten sei stark auf wenige Arbeitsbereiche und Fähigkeiten konzentriert.

Benchmarks für KI-Agenten fokussierten sich überproportional auf programmier- und mathematikintensive Aufgaben. Diese machen laut der Auswertung jedoch nur 7,6 Prozent der Gesamtbeschäftigung auf dem US-Arbeitsmarkt aus.

Dabei seien arbeitsnahe Benchmarks nicht immer realistisch, da manche Aufgaben zwar oberflächlich betrachtet realer Arbeit ähnelten, aber nur begrenzt auf tatsächliche Arbeitsbereiche anwendbar sind. Denn reale Berufe erfordern oft die Koordination mehrerer Kompetenzen über verschiedene Bereiche hinweg, was viele Benchmarks nur teilweise erfassen würden.

Auch interessant:

Der Beitrag Realitätsverlust: KI-Agenten werden an der Arbeitswelt vorbei entwickelt erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Fracking-Gas in Deutschland: Eine Uralt-Idee mit neuen Illusionen

Der Beitrag Fracking-Gas in Deutschland: Eine Uralt-Idee mit neuen Illusionen erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Fracking Deutschland

Die deutschen Gasspeicher sind fast leer und die Preise für Öl und Flüssiggas gehen aufgrund internationaler Kriege und Konflikte durch die Decke. Da unter unseren Füßen mehrere Billionen Kubikmeter Erdgas schlummern, fordert ein Gutachten für das Wirtschaftsministerium eine Überprüfung des sogenannten Fracking-Verbots. Die Methode ist jedoch nicht nur umstritten. Sie ist wirtschaftlicher Unsinn. Eine kommentierende Analyse.

Was ist Fracking?

  • Fracking ist ein Verfahren, bei dem eine Mischung aus Wasser, Chemikalien und Sand unter Druck in tiefe Gesteinsschichten gepumpt wird, um mikroskopisch kleine Risse zu erzeugen. Diese werden durch den beigemischten Sand offen gehalten. Das in den Gesteinsschichten gebundene Gas kann dann durch Bohrlöcher an die Oberfläche strömen.
  • In Deutschland unterscheidet man zwischen konventionellem und unkonventionellem Fracking. Das konventionelle Verfahren wird in porösem Sandstein eingesetzt und ist hierzulande grundsätzlich legal, setzt aber eine strenge Prüfung voraus und findet kaum statt. Unkonventionelles Fracking bedarf aufwändiger sowie kilometertiefer Bohrungen und ist seit 2017 in Deutschland verboten. Das sogenannte Fracking-Gesetzespaket sah eigentlich eine Prüfung des Verbots im Jahr 2021 vor. Diese hat aber bis heute nicht stattgefunden.
  • Die Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) hat das Potenzial des unkonventionellen Frackings in Deutschland im Rahmen mehrerer Studien überprüft. Das Ergebnis: In den Schiefergesteinen des Norddeutschen Beckens sowie in Teilen des Oberrheingrabens und auf der Insel Rügen lagern Schätzungen zufolge 0,7 bis 2,3 Billionen Kubikmeter Schiefergas. Hinzu kommen rund 450 Milliarden Kubikmeter Kohleflözgas. Prognosen gehen von Ressourcen aus, die rechnerisch den Bedarf für rund 20 Jahre decken könnten.

Ein energiepolitisches Déjà-vu

Die deutsche Fracking-Debatte wirkt wie ein energiepolitisches Déjà-vu. Kaum steigen die Öl- und Gaspreise und schrumpfen die Speicher, wird unter dem heimischen Boden plötzlich wieder ein Schatz vermutet. Bilder von brennenden Wasserhähnen, aus denen Gas strömt, geistern durch die Schlagzeilen, obwohl sie mehr Einzel- als Regelfall sind. Die Risiken sind zwar real, aber nach heutigem Stand eher beherrschbar als apokalyptisch.

Das eigentliche Paradoxon: Deutschland lehnt die Förderung im eigenen Land ab, importiert aber fröhlich Gas aus Ländern, in denen Fracking, das hierzulande als unzumutbar gilt, genutzt wird – vor allem aus den USA. Moralisch sauber ist das nicht, sondern eher ein energiepolitisches Outsourcing des schlechten Gewissens.

Die heimische Reinheit wird dadurch zu einer globalen Verlagerung von Risiken. Doch selbst wenn man die Umweltfrage nüchtern betrachtet, bleibt ein schaler Beigeschmack. Denn die technischen Herausforderungen sind hoch und die geologischen Bedingungen komplizierter als in anderen Förderländern. Fracking in Deutschland wäre deshalb ein bürokratischer Drahtseilakt.

Stimmen

  • Die wissenschaftlichen Berater von Wirtschaftsministerin Katherina Reiche um die Wirtschaftsweise Veronika Grimm in ihrem Kurzgutachten: „Eine Möglichkeit wäre es, die Gas-Extraktion durch Fracking zu erlauben und zu prüfen, um die Abhängigkeit von ausländischen Lieferanten zu reduzieren. Ein geeigneter Rahmen könnte dazu beitragen, ökologische Risiken zu begrenzen. Zudem sollte berücksichtigt werden, dass ein vollständiger Verzicht auf inländische Förderung bei gleichzeitigem Import entsprechender Energieträger aus ethischer Perspektive Fragen der globalen Verteilung von ökonomischen Vorteilen und ökologischen Risiken aufwirft.“
  • Karen Pittel, Leiterin des ifo Zentrums für Energie, Klima und Ressourcen, bilanzierte bereits Ende 2023: „Nach Schätzungen könnte Fracking 6 bis 12 Prozent des deutschen Gasverbrauchs decken.“ Von der Planung bis hin zur ersten Förderung würden fünf bis neun Jahre vergehen. „Aufgrund dieses begrenzten Zeitraums ist eine Investition in die Erdgasförderung aus betriebswirtschaftlicher Sicht schwierig“, so Pittel. „Private Investitionen durch Unternehmen brauchen Planungssicherheit.“ Die gäbe es beim Fracking in Deutschland nicht.
  • Laut Grünen-Fraktionsvize Julia Verlinden ist der Vorschlag „extrem unverantwortlich für Mensch, Umwelt und Klima.“ Der Deutschen Presse-Agentur sagte sie: „Solche Vorschläge führen uns immer tiefer in den Sumpf aus Lobbyinteressen, Klimaschäden und teurer fossiler Energie.“

Fracking hat in Deutschland keine Zukunft

Selbst unter der wohlwollenden Annahme, dass Fracking in Deutschland umweltverträglich umsetzbar wäre, stellt sich die Frage: Wozu das Ganze? Denn der Weg von einer politischen Entscheidung bis hin zur ersten Gasförderung wäre nicht nur lang, sondern teuer und mit vielen Unsicherheiten gespickt. Wenn am Ende nur ein einstelliger Anteil des Bedarfs gedeckt würde, wirke der Aufwand wie ein energetischer Tropfen auf dem heißen Stein.

Ökonomisch erinnert das Vorhaben an eine Investition in Faxgeräte im Zeitalter von Cloud-Computing. Doch Industrie und Unternehmen brauchen Planungssicherheit statt politischer Halbherzigkeit ohne klare Rendite. Zwischen Klimazielen, Protesten und regulatorischen Hürden würde kein verlässlicher Markt entstehen, sondern ein Minenfeld für Investoren.

Deshalb riecht die aktuelle Debatte weniger nach Strategie als nach Symbolpolitik. Das Fracking-Verbot prüfen? Klar: Kann man machen. Aber vieles deutet bereits auch ohne Prüfung darauf hin, dass das Ergebnis schon feststeht: zu teuer, zu langsam und zu ineffizient. Wer wirklich Versorgungssicherheit will, sollte Zeit und Geld lieber dort einsetzen, wo Zukunft entsteht – und nicht dort, wo sie mit Hochdruck aus dem Gestein gepresst werden muss.

Auch interessant:

Der Beitrag Fracking-Gas in Deutschland: Eine Uralt-Idee mit neuen Illusionen erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •