Lese-Ansicht

Nächster Solar-Moment? China will europäische Wärmepumpen-Branche kapern

Der Beitrag Nächster Solar-Moment? China will europäische Wärmepumpen-Branche kapern erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Wärmepumpen China Erneuerbare Energien Energiewende

China rückt den Wärmepumpenmarkt in den Fokus und will seine Kapazitäten mit einem ambitionierten Aktionsplan massiv ausbauen. Für europäische Anbieter wächst damit der Wettbewerbsdruck – und die Sorge vor einem Déjà-vu wie bei der Solarindustrie.

Wärmepumpen gelten als zentrale Technologie der Energiewende im Gebäudesektor, weil sie fossile Heizsysteme ersetzen und den CO2-Ausstoß von Gebäuden drastisch senken können. Da sie vorwiegend Strom nutzen, der zusätzlich zunehmend aus erneuerbaren Quellen stammt, sind sie ein wichtiger Baustein für das Erreichen der Klimaziele und die zunehmende Unabhängigkeit von Gas und Öl.

Allein im Jahr 2025 wurden in Deutschland laut dem Bundesverband Wärmepumpe (BWP) rund 299.000 neue Wärmepumpen installiert. Ein Plus von rund 55 Prozent im Vergleich zum Vorjahr 2024, in dem nur rund 193.000 Wärmepumpen hinzukamen.

Der wachsende Markt ruft jedoch auch internationale Hersteller auf den Plan. Besonders deutlich zeigt sich das am Beispiel China, das mit einem staatlich gesteuerten „Aktionsplan zur Förderung einer hochwertigen Entwicklung in der Wärmepumpenindustrie“ gezielt den massiven Ausbau des Wärmepumpensektors vorantreiben will.

Der Bundesverband Wärmepumpe hat dieses Aktionspapier veröffentlicht und ausgewertet. Der BWP geht davon aus, dass daraus resultierend „steigender Wettbewerbsdruck für die europäische Wärmepumpenindustrie erwartet werden kann“.

Sind bald alle Wärmepumpen „Made in China“?

Der Aktionsplan zeigt, dass China Wärmepumpen als Schlüsseltechnologie für die Energiesouveränität und die Erreichung von Klimazielen und zur CO2-Reduktion einschätzt. Bis zum Jahr 2030 sieht der Plan konkrete Ziele vor. So will China unter anderem die Effizienz von Wärmepumpen um mehr als 20 Prozent steigern.

Zusätzlich sollen die Fertigungs- und F&E-Kapazitäten für Wärmepumpen kontinuierlich verbessert werden. Es sollen in diesem Zeitraum Durchbrüche bei Kerntechnologien wie Hochleistungs-Hochtemperatur-Wärmepumpen, hocheffizienten Kompressoren und neuartigen Kältemitteln erarbeitet werden.

Doch China will im Bereich der Wärmepumpen nicht nur in Forschung und Entwicklung und im Ausbau im eigenen Land vorankommen. Auch ein „ausgebauter internationaler Wettbewerbsvorteil“ wird bis zum Jahr 2030 konkret als Ziel im Strategiepapier aufgeführt.

Der Bundesverband Wärmepumpe liest daraus, „dass China einen breiten und politisch gestützten Nachfragehochlauf fördern möchte“. Denn der Plan umfasst nicht nur den Gebäudesektor, sondern zielt auch auf Industrie, Landwirtschaft und Verkehr ab. China könne so im Inland bereits einen breiten Markt abdecken – nicht nur einzelne Nischenprodukte.

Was bedeutet das für die Wärmepumpenindustrie in Europa?

Doch droht der europäischen Wärmepumpenindustrie damit nun ein Szenario, das viele aus der Solarbranche nur zu gut kennen? Innerhalb weniger Jahre hatten chinesische Hersteller dort mit massiver staatlicher Unterstützung, hohen Stückzahlen und niedrigen Preisen große Teile der hiesigen Produktion verdrängt.

Wegfallende staatliche Subventionen taten ihr übriges für die deutsche Solarbranche. Angesichts des rasch wachsenden Wärmepumpenmarkts wächst nun die Sorge, dass sich diese Entwicklung wiederholen könnte.

EU-Kommissar Stéphane Séjourné fordert auch deshalb in einem Gastkommentar im Handelsblatt: „Wir müssen ein für alle Mal eine echte europäische Präferenz in unseren strategisch wichtigsten Sektoren etablieren.“

Vor allem auch im Hinblick auf die Wärmewende spiele der Energiesektor eine wichtige Rolle. „Ohne eine ehrgeizige, wirksame und pragmatische Industriepolitik ist die europäische Wirtschaft dazu verdammt, nur ein Spielplatz für ihre Konkurrenten zu sein“, meint Séjourne.

Auch der Bundesverband Wärmepumpe erwartet als Konsequenz aus den Bemühungen in China einen deutlich ansteigenden Wettbewerbsdruck. Denn mit den ehrgeizigen Plänen für das Steigern des Inlandsvolumens, die modernisierte Fertigung, zentral entwickelte Kernkomponenten und ein Vorantreiben der internationalen Standardisierung könnte chinesische Hersteller „ihre internationale Wettbewerbsfähigkeit deutlich ausbauen“.

Für China bilde das Strategiepapier „die Grundlage für einen beschleunigten Markthochlauf der Wärmepumpentechnologie“. Das wiederum erhöhe den Qualitäts- und Konsolidierungsdruck im Markt.

Dadurch könne der Preisdruck bei Luft-Wasser-Wärmepumpen und einzelnen Komponenten in Europ steigern. Für europäische Endkunden erwartet der BWP ein breiteres Angebot zu „voraussichtlich sehr kompetitiven Preisen“.

Auch interessant:

Der Beitrag Nächster Solar-Moment? China will europäische Wärmepumpen-Branche kapern erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Forscher entwickeln Tofu-Batterie mit Lebensdauer von 328 Jahren

Der Beitrag Forscher entwickeln Tofu-Batterie mit Lebensdauer von 328 Jahren erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Tofu-Batterie Wasserbatterie Akku China

Forscher haben eine wasserbasierte Batterie mit einem pH-neutralen Elektrolyten entwickelt, die nicht brennbar und extrem langlebig ist. In Labortests überstand der Energiespeicher Hunderttausende Ladezyklen, was rechnerisch einer Lebensdauer von mehreren Jahrhunderten entspricht. Könnte die „Tofu-Batterie“ ein Schritt in Richtung sichere und nachhaltige Großspeicher sein?

Ohne Batteriespeicher kann die Energiewende nicht gelingen. Denn ohne sie lässt sich Strom aus Wind- und Solaranlagen nicht zuverlässig speichern oder bedarfsgerecht abrufen.

Da erneuerbare Energien abhängig von Wetterlage und Tageszeiten sind, braucht es leistungsfähige, sichere und langlebige Speicher. Denn nur so können Versorgungssicherheit und Netzstabilität sichergestellt und Klimaziele erreicht werden.

Schätzungen zufolge wird der Markt für Batterie-Energiespeichersystemen (BESS) bis zum Jahr 2030 deshalb auf einen Wert von bis zu 150 Milliarden US-Dollar ansteigen. 2023 lag die Zahl weltweit noch zwischen 44 und 55 Milliarden US-Dollar.

Doch derzeit dominierenden Batteriesysteme, wie beispielsweise Lithium-Ionen-Akkus, stoßen zunehmend an ihre Grenzen. Doch nicht nur ihre teure und ressourcenintensive Produktion sind nachteilig, auch die hohe Brennbarkeit der verwendeten Materialien ist problematisch.

Zusätzlich verlieren sie mit der Zeit deutlich an Kapazität, was vor allem die Nutzung in stationären Großspeichern wenig praktikabel macht. Wissenschaftler weltweit forschen daher an alternativen Energiespeichern.

Forscher der City University of Hong Kong und der Southern University of Science and Technology haben nun ein System vorgestellt, das die bekannten Sicherheits- und Haltbarkeitsprobleme herkömmlicher Batterien gezielt umgeht. Die wasserbasierte Batterie arbeitet mit einem pH-neutralen Elektrolyten, ist nicht brennbar und zeigt selbst nach einer enorm hohen Anzahl an Ladezyklen kaum Alterungserscheinungen.

„Tofu-Batterie“ überdauert 120.000 Ladezyklen

Die sogenannte „Tofu-Batterie“ könnte eine neue Generation von Energiespeichern bedeuten. Durch den Einsatz eines wasserbasierten und pH-neutralen Elektrolyten ist sie nicht nur nachhaltig, sondern auch sicher.

Denn bei der Herstellung kommen keine brennbaren oder giftigen Chemikalien zum Einsatz. Statt herkömmlichen Säuren und Laugen haben die Forscher neutrale Magnesium- und Calciumsalze als Elektrolyt verwendet. Diese werden so ähnlich auch bei der Herstellung von Tofu eingesetzt.

Auch bei der negativen Elektrode setzen die Forscher auf eine Alternative. Während hier normalerweise metallbasierten Materialien genutzt werden, setzen die Forscher auf ein eigens entwickeltes Material aus kovalenten organischen Polymeren.

„Im Vergleich zu herkömmlichen wässrigen Batteriesystemen bietet das neue System eine außergewöhnliche Langzeitstabilität und ist unter neutralen Bedingungen umweltfreundlicher“, erklären die Forscher in ihrer Studie, die im Fachmagazin Nature Communications veröffentlicht wurde. „Die Elektrolyte wässriger Batterien sind meist sauer oder alkalisch, was zu unvermeidlichen Nebenreaktionen führt.“

Durch den Einsatz eines Elektrolyten mit einem pH-Wert von 7 können die Forscher solche Nebenreaktionen umgehen. Die Zellen sollen außerdem „umweltverträglich und ungiftig“ und „direkt in die Umwelt entsorgt werden“.

„Tofu-Batterie“ kann Lebensdauer von mehr als 300 Jahren erreichen

In den Labortests der Forscher blieb die „Tofu-Batterie“ über 120.000 Ladezyklen stabil. Hochgerechnet kommt sie somit auf eine Lebensdauer von mehr als 300 Jahren. Zum Vergleich: Ein herkömmlicher Smartphone-Akku überdauert lediglich einige Hundert Ladezyklen, bevor seine Kapazität merklich absinkt.

Allerdings ist das neuartige Batteriesystem der Forscher kaum für mobile Geräte wie Smartphones oder Smartwatches gedacht. Denn aufgrund ihrer Größe eignet es sich eher für Großspeicher.

Bei einem Spannungsintervall von 2,2 Volt kommt die „Tofu-Batterie“ auf eine spezifische Energie von bis zu 48,3 Wattstunden je Kilogramm. Damit liegt sie zwar unter der Energiedichte eines herkömmlichen Smartphone-Akkus, für wässrige organische Batterie erreicht sie damit allerdings einen hohen Wert.

Auch interessant:

Der Beitrag Forscher entwickeln Tofu-Batterie mit Lebensdauer von 328 Jahren erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Social Media und KI: Kinder werden erstmals dümmer

Der Beitrag Social Media und KI: Kinder werden erstmals dümmer erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Social Media KI Bildschirmzeit Kinder Jugendliche dümmer

Die Generation Z liegt im Bildungsniveau erstmals hinter vorherigen Jahrgängen zurück. Eine mögliche Ursache könnte die zunehmende Bildschirmzeit der Gen Z sein, die sich negativ auf die Bildung auswirkt. Experten warnen deshalb nun vor langfristigen Auswirkungen auf Bildungs- und Arbeitsmarktchancen.

In den vergangenen Jahrzehnten haben sich die durchschnittlichen Intelligenzwerte von Generation zu Generation immer weiter erhöht. Gemessen wird dieses Phänomen mit dem sogenannten Flynn-Effekt.

Über viele Jahrzehnte hinweg waren jüngere Jahrgänge ihren Vorgängern messbar überlegen. Grund hierfür waren unter anderem verbesserte Bildung oder bessere Ernährung.

Doch dieser Trend ist nun in Stocken geraten. Denn erstmals seit Beginn vergleichender Bildungsstudien schneidet eine Generation im Vergleich schlechter ab als die Jahrgänge vor ihr. Es handelt sich um die Gen Z, also die zwischen 1997 und 2010 Geborenen.

Gen Z fällt im Bildungsranking zurück

Der australische Neurowissenschaftler Jared Cooney Horvath hat Unmengen von Daten aus standardisierten akademischen Tests ausgewertet und kürzlich vor dem Ausschuss des US-Senats für Handel, Wissenschaft und Verkehr präsentiert. „Sie sind die erste Generation in der modernen Geschichte, die bei standardisierten akademischen Tests schlechter abschneidet als die vorherige“, erklärt der Wissenschaftler gegenüber der New York Post.

In „praktisch allen kognitiven Bereichen“ hätten sie schlechter abgeschnitten als ihre Vorgängergeneration. Untersucht wurden dabei neben der grundlegenden Aufmerksamkeit auch Gedächtnis, Lese- und Schreibfähigkeit, Rechnen sowie exekutive Funktionen bis hin zum allgemeinen IQ.

Die kognitive Entwicklung werde seit dem späten 19. Jahrhundert standardisiert und gemessen. In der Gen Z zeige sich nun erstmals, dass sie kognitiv weniger leistungsfähig sind, als vorherige Generationen im gleichen Alter.

„Und zu allem Übel überschätzen die meisten dieser jungen Leute ihre Intelligenz“, so Horvath weiter. Denn je intelligenter sie sich selbst einschätzten, desto dümmer seien sie in Wirklichkeit.

Ruiniert Bildschirmzeit die Gen Z?

Horvath sieht vor allem die wachsende Bildschirmzeit als Problem an. Denn die Generation Z sei die erste Generation, die mit ständiger Bildschirmzeit aufgewachsen ist.

„Mehr als die Hälfte der Zeit, die ein Teenager wach ist, verbringt er damit, auf einen Bildschirm zu starren“, erklärt Horvath. „Menschen sind biologisch darauf programmiert, von anderen Menschen und durch vertieftes Lernen zu lernen, nicht durch das Durchblättern von Bildschirmen nach Stichpunktzusammenfassungen.“

Doch auch in der Bildung würden vermehrt Bildschirme für sogenannte Bildungstechnologien eingesetzt. Anschließend verbrächten die Schüler dann ihre Freizeit an Smartphone, Tablet oder Laptop.

Trend bezieht sich nicht nur auf die USA

Doch genau diese steigende Bildschirmzeit habe die Gen Z „zu oberflächlichen Lernern gemacht“, erklärt der Neurowissenschaftler. Er plädiert deshalb vor allem an Schulen, die Bildschirmzeit von Schülern zu begrenzen.

Doch dabei handle es sich nicht nur um einen lokalen Trend in den USA. „Wenn man sich die Daten aus 80 Ländern ansieht, zeigt sich: Sobald digitale Technologien in Schulen weit verbreitet sind, sinken die Leistungen deutlich“, erklärt er. Schulen müssten den Einsatz von Technologie in den Klassenzimmern einschränken, damit sich das Lernen wieder weiterentwickeln kann.

Auch interessant:

Der Beitrag Social Media und KI: Kinder werden erstmals dümmer erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Spracheingabe beim Mac: Nachrichten, Notizen und Dokumente erstellen

Der Beitrag Spracheingabe beim Mac: Nachrichten, Notizen und Dokumente erstellen erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Spracheingabe Mac MacBook Apple Diktierfunktion

Mit der Spracheingabe kannst du auf deinem Mac Texte schneller und intuitiver verfassen – ganz ohne deine Tastatur. Das System verschriftlicht dein gesprochenes Wort und erleichtert so den Arbeitsalltag sowie die barrierefreie Nutzung.

Ob Alexa, Siri oder die Sprachnachricht bei WhatsApp – Sprache ist für die Kommunikation mit digitalen Geräte längst Teil des Alltags geworden. Auch am Computer gewinnt diese Technologie zunehmend an Bedeutung, weil sie das Schreiben von Texten beschleunigt und den Umgang mit Technik vereinfacht.

Auch auf deinem Mac kannst du Spracheingabe nutzen und so langwieriges Tippen auf der Tastatur beschleunigen. Die Funktion ist laut Apple überall verfügbar, wo normalerweise Text eingegeben werden kann. Wir zeigen dir, wie du das Tool auf deinem Mac aktivierst und im Anschluss Texte einsprechen kannst.

Spracheingabe auf dem Mac – so aktivierst du das Tool

Die Diktierfunktion auf dem Mac ist in zahlreichen Sprachen verfügbar. Darunter unter anderem Deutsch, Englisch, Italienisch, Griechisch oder Tschechisch. Die vollständige Liste findest du auf der Website von Apple.

Willst du die Spracheingabe auf deinem Mac aktivieren, kannst du dies in den Systemeinstellungen tun. Öffne die Rubrik „Tastatur“ am linken Rand des Fensters. Dort findest du den Bereich „Diktierfunktion„.

Über einen einfachen Schieberegler kannst du die Funktion aktivieren. Auch weitere Einstellungen sind hier möglich. So kannst du wählen, in welcher Sprache du diktieren willst, welches Mikrofon als Quelle dafür verwendet werden soll und ob du die automatische Interpunktion nutzen möchtest.

Außerdem bietet Apple dir die Möglichkeit, einen Kurzbefehl für das Starten der Spracheingabe auf deinem Mac auszuwählen. Hier findest du zahlreiche Optionen in einem Drop-down-Menü, wie beispielsweise die Mikrofon-Taste auf deinem Mac.

Du kannst aber auch einen eigenen Kurzbefehl erstellen. Wähle hierfür im Drop-down-Menü bei Kurzbefehl die Option „Anpassen …“ und drücke dann die von dir gewünschten Tasten.

So kannst du die Spracheingabe auf deinem Mac nutzen

Hast du all diese Einstellungen vorgenommen, kannst du mit der Spracheingabe auf deinem Mac loslegen. Platziere hierfür deinen Cursor in einer App auf deinem Mac an der Stelle, an der du Text eingeben möchtest.

Drücke nun deine Mikrofon-Taste oder die von dir gewählte Tastenkombination zum Starten der Diktierfunktion. Alternativ kannst du die Spracheingabe auch über das Menü am oberen Bildschirmrand nutzen. Klicke hierfür auf „Bearbeiten“ und wähle dann „Diktat starten„.

Hast du die Spracheingabe gestartet, hörst du einen Ton, der die Bereitschaft zum Diktieren signalisiert. Außerdem siehst du anstelle deines Cursors ein kleines Mikrofon in deinem Textfeld.

Nutzt du einen Mac mit Apple Chip kannst du auch während des Diktieren deine Tastatur weiter verwenden. Du musst hierfür das Diktat nicht beenden.

Du kannst bei der Nutzung der Spracheingabe auf deinem Mac außerdem Emoji oder Satzzeichen einfügen. Hierfür bietet Apple zahlreiche Kurzbefehle, die auf dieser Seite gelistet sind.

Zum Beenden deines Diktats drückst du erneut deine Mikrofon-Taste oder die von dir gewählte Tastenkombination. Es ist erneut ein Ton zu hören und dein Cursor ist wieder an der Stelle des Mikrofon-Symbols zu sehen.

Auch interessant:

Der Beitrag Spracheingabe beim Mac: Nachrichten, Notizen und Dokumente erstellen erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Pseudo-Lärm und Infraschall: Keine Belege für Windrad-Mythen

Der Beitrag Pseudo-Lärm und Infraschall: Keine Belege für Windrad-Mythen erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Windparks Gesundheitsrisiken Erneuerbare Energien Windenergie Energiewende Gesundheit

Windparks gelten als Schlüsseltechnologie der Energiewende, stoßen jedoch immer wieder auf Kritik aus der Bevölkerung. Im Mittelpunkt stehen vor allem Sorgen über Lärmbelastung und mögliche Gesundheitsrisiken durch niedrigfrequenten Infraschall. Doch gibt es tatsächlich belastbare Belege für diese Befürchtungen?

Die Windenergie spielt eine zentrale Rolle beim Umbau der Energieversorgung hin zu mehr Klimaschutz und Unabhängigkeit von fossilen Brennstoffen. Als vergleichsweise kostengünstige und emissionsarme Technologie leistet sie einen wesentlichen Beitrag zur Stromerzeugung aus erneuerbaren Quellen.

Deshalb ist ihr Ausbau in den vergangenen Jahren auch strategisch vorangetrieben worden. Allein im Jahr 2025 betrugt der Anteil der Windenergie an Land und auf See 26,6 Prozent des gesamten Bruttostroms in Deutschland. Zehn Jahre zuvor waren es noch 12,3 Prozent.

Doch mit dem fortschreitenden Ausbau von Windkraftanlagen wachsen auch die Bedenken vieler Anwohner in nahegelegenen Wohngebieten. Häufig genannt werden Sorgen über Lärmbelastung durch das gleichmäßige Geräusch der Rotoren sowie über möglichen Infraschall, der als gesundheitliches Risiko wahrgenommen wird.

Bergen Windparks tatsächlich Gesundheitsrisiken?

Die Debatte um mögliche Gesundheitsrisiken durch Windparks sorgt auch gerichtlich immer wieder für Auseinandersetzungen. So hatte im Jahr 2019 beispielsweise ein Landwirt und Pensionsbetreiber vor dem Landgericht Paderborn Schadenersatz von einem Windparkbetreiber erstreiten wollen.

Es sei durch den Betrieb der Anlagen unter anderem „zu Störungen der Nachtruhe mit häufigen Aufwachereignissen, teilweisem Herzrasen, Druck auf den Ohren, vermehrten Kopfschmerzen, innerer Unruhe sowie Unausgeglichenheit und Müdigkeit“ gekommen. Vor allem der sogenannten Infraschall – Schall mit sehr niedriger Frequenz, der für das menschliche Ohr nicht hörbar ist – gelte hierbei als Belastung und potenzielle Ursache.

Doch das Landgericht wies die Klage zurück. Der Kläger habe nicht hinreichend beweisen können, dass die auftretenden Beschwerden durch den Infraschall des Windparks verursacht wurden. Sein Vortrag hätte lediglich „auf Hypothesen und Forschungsansätzen aufbaut, die jedoch noch nicht zu gesicherten Erkenntnissen geführt haben“.

Im Urteil des Landgerichts heißt es außerdem, es stehe nicht in Frage, „dass Infraschall existiert und auch gemessen werden kann“. Doch lasse der aktuelle Forschungsstand keinen Rückschluss darauf zu, dass der von Windrädern erzeugte Infraschall negative gesundheitliche Auswirkungen habe. Auch die vom Kläger geschilderten Symptome seien nicht eindeutig darauf zurückzuführen.

Wie ist der Stand der Forschung?

Im Jahr 2020 veröffentlicht das technische Forschungszentrum Finnland in Zusammenarbeit mit dem finnischen Institut für Gesundheit und Soziales, der finnischen Arbeitsschutzbehörde und der Universität Helsinki die Ergebnisse einer Langzeitstudie zu den Auswirkungen von Infraschall durch Windenergieanlagen. Bei dieser konnten keine Hinweise für eine Gesundheitsgefährdung von Anwohnern gefunden werden.

Für die Studie wurden neben einer Langzeitmessung von Schall in Wohngebäuden in der Nähe von Windenergieanlagen ebenfalls Befragungen und Hörtests durchgeführt. Die Forscher konnten bei Simulationen des Schalls von Windparks zusätzlich keine Reaktionen des autonomen Nervensystems auf Infraschall messen.

Dennoch von Anwohnern und Betroffenen wahrgenommene gesundheitliche Beeinträchtigungen seien auf den „Nocebo-Effekt“ – analog zum „Placebo-Effekt“ – zurückzuführen. Bei diesem treten negativen Gesundheitseffekt dadurch auf, dass Betroffene negative Effekte erwarten.

Davor warnte das Umweltbundesamt bereits 2016 in einem Positionspapier. Demnach komme es nicht zu negativen Auswirkungen auf die Gesundheit durch akustische Effekte oder eine mögliche Infraschallbelastung durch Windenergieanlagen.

Trotz klarer wissenschaftlicher Befunde dazu komme es immer wieder zu Ängsten und Bedenken bei Anwohnern „bezüglich potenzieller gesundheitlicher Risiken“. Wichtig sei es hier laut dem Umweltbundesamt „die Personen adäquat zu informieren und sie nicht mit ihren Bedenken alleine zu lassen“.

Auch interessant:

Der Beitrag Pseudo-Lärm und Infraschall: Keine Belege für Windrad-Mythen erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Atommüll: Teilchenbeschleuniger soll Strahlung um 99 Prozent reduzieren

Der Beitrag Atommüll: Teilchenbeschleuniger soll Strahlung um 99 Prozent reduzieren erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Atommüll Teilchenbeschleuniger Umwelt Umweltschutz Atomkraftwerke

Ein Forschungsinstitut in den USA arbeitet an einer neuen Methode, bei der Teilchenbeschleuniger die Strahlung von hochradioaktivem Atommüll stark reduzieren. Das Projekt könnte langfristig die Lagerzeiten von Atommüll auf wenige hundert Jahre verkürzen.

Hochradioaktiver Atommüll entsteht vor allem beim Betrieb von Kernkraftwerken, wenn die genutzten Brennelemente ihre Energie abgegeben haben und deshalb nicht weiter genutzt werden können. Trotz des Ausstiegs einzelner Länder spielt die Atomkraft weltweit noch immer eine bedeutende Rolle.

In vielen Ländern gilt sie als verlässliche Quelle für emissionsarmen Strom und trägt einen erheblichen Anteil zur globalen Energieversorgung bei. Allein im Jahr 2024 wurden weltweit durch Kernkraft rund 2,76 Petawattstunden Strom erzeugt, im Jahr 2020 waren es noch rund 2,54 Petawattstunden. Zum Vergleich: Der Bruttostromverbrauch Deutschlands betrug im Jahr 2024 rund 528 Terawattstunden, also 0,528 Petawattstunden.

Atommüll gilt als eines der größten ungelösten Umweltprobleme unserer Zeit. Denn hochradioaktive Abfälle bleiben über Zehntausende Jahre gefährlich. Forscher des Jefferson Labs in den USA arbeiten deshalb nun im Auftrag des Department of Energy an einer neuen Technik, die die Strahlung von hochradioaktivem Atommüll stark reduzieren soll.

Teilchenbeschleuniger soll Atommüll schneller unschädlich machen

In einem typischen modernen Leichtwasserreaktor entstehen pro Jahr rund 20 Tonnen hochradioaktive Abfälle in Form von abgebrannten Brennelementen. Zusätzlich entstehen noch weitere schwach- oder mittelradioaktive Abfälle.

Forscher des Jefferson Labs arbeiten derzeit an einer Möglichkeit, den Umgang mit diesen Abfällen zu verändern. Dafür haben sie eine Förderung in Höhe von 8,17 Millionen US-Dollar aus dem Programm Nuclear Energy Waste Transmutation Optimized Now (NEWTON) erhalten.

Mithilfe dieses Fundings sollen sie in den kommenden 30 Jahren eine Technik entwickeln, um den gesamten Kernkraft-Atommüll der USA zu bearbeiten. Zum Einsatz kommen sollen dabei Teilchenbeschleuniger, die die radioaktive Strahlung deutlich reduzieren können. Die Forscher sprechen von bis zu 99 Prozent.

„Aufbauend auf unseren eigenen Erfolgen in der Entwicklung modernster Beschleunigertechnologien für wissenschaftliche Entdeckungen sind wir überzeugt, dass wir mit unserer jahrzehntelangen Erfahrung einen wertvollen Beitrag leisten können“, erklärt Rongli Geng, einer der Hauptverantwortlichen des Förderprojekts sowie Leiter der Abteilung SRF Science & Technology in der Beschleunigerbetriebs-, Forschungs- und Entwicklungsabteilung des Jefferson Lab.

Transmutation soll Atommüll weniger schädlich machen

Die Forscher arbeiten an einer Weiterentwicklung ihrer bestehenden Systeme. Ziel sei es wirtschaftlich tragbares Verfahren zu entwickeln, das die Transmutation von Atommüll rentabel macht.

Dabei sollen hochradioaktive Elemente mit der Hilfe von Teilchenbeschleunigern in weniger radioaktive, kurzlebigere Materialien umgewandelt werden. Als Nebenprodukt soll außerdem gleichzeitig zusätzlicher Strom erzeugt werden.

Zum Einsatz kommen sollen dabei sogenannte Accelerator-driven system (ADS). Diese Hybridreaktoren bestehen aus einem Teilchenbeschleuniger, der einen Strahl hochenergetischer Protonen auf ein Zielmaterial, wie zum Beispiel flüssiges Quecksilber richtet. Dieses wiederum setzt dabei Neutronen frei, die auf Behälter mit abgebranntem Kernbrennstoff gerichtet werden.

„Diese Neutronen reagieren mit den unerwünschten Isotopen und wandeln sie in besser handhabbare Isotope um, die entweder für eine sinnvolle Anwendung getestet oder unterirdisch gelagert werden können. Anstatt beispielsweise eine Lagerdauer von 100.000 Jahren zu haben, kann diese auf 300 Jahre verkürzt werden“, so Geng.

Auch interessant:

Der Beitrag Atommüll: Teilchenbeschleuniger soll Strahlung um 99 Prozent reduzieren erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Greenwashing: Studie entlarvt KI-Klimaversprechen als irreführend

Der Beitrag Greenwashing: Studie entlarvt KI-Klimaversprechen als irreführend erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI Greenwashing Künstliche Intelligenz Klima

Künstliche Intelligenz verschlingt enorme Mengen an Energie und Rechenleistung. Dennoch präsentieren die großen Tech-Konzerne KI zunehmend als Klima-Retter. Eine neue Studie zeigt nun jedoch, dass es für die meisten dieser Versprechen kaum belastbare Belege gibt.

Experten gehen davon aus, dass sich der weltweite Strombedarf von Rechenzentren bis zum Jahr 2030 mehr als verdoppeln könnte. Laut einer Prognose der Internationalen Energieagentur (IEA) wird der Energiebedarf von sogenannten „accelerated“ Servern zwischen 2025 und 2030 um 225 Prozent steigen.

Diese Hochleistungsserver bieten auch die Grundlage für Rechenzentren, ohne die KI-Tools wie ChatGPT, Gemini und Co. nicht denkbar wären. Zum Vergleich: Der Stromverbrauch von konventionellen Servern soll laut der IEA-Prognose im selben Zeitraum hingegen nur um 52 Prozent steigen.

Dennoch gibt es aus den Reihen der Tech-Giganten zahlreiche Behauptungen, Künstliche Intelligenz könne einen Nettonutzen für das Klima bringen. Eine neue Studie hat diese Behauptungen zu KI-Klimavorteilen nun untersucht und kommt zu dem Ergebnis, dass ein Großteil davon nicht belegt oder wissenschaftlich kaum untermauert ist.

Greenwashing? Das steckt hinter den KI-Behauptungen von Big Tech

Für seine Untersuchung hat der Klima- und Energieanalyst Ketan Joshi insgesamt 154 Aussagen unter die Lupe genommen, die einen Nettonutzen für das Klima durch KI versprechen. Darunter waren auch Aussagen von Tech-Giganten wie Google und Microsoft.

Der Bericht, der unter anderem von der deutschen NGO Beyond Fossil Fuels in Auftrag gegeben wurde, kommt zu einem ernüchternden Ergebnis. Demnach ist ein Großteil der behaupteten Klimavorteile Künstlicher Intelligenz ein Schwindel.

Insgesamt sind 74 Prozent der Behauptungen der Branche über KI-Klimavorteile unbewiesen. Nur 26 Prozent der Behauptungen zitierten aus veröffentlichten wissenschaftlichen Arbeiten. Bei 36 Prozent gab es überhaupt keine Quellenangabe.

„Offenbar nutzen Technologieunternehmen die Unklarheit darüber, was in energieintensiven Rechenzentren geschieht, um eine umweltschädliche Expansion zu beschönigen“, erklärt Studienautor sowie Klima- und Energieanalyst Ketan Joshi. „Dies hat sich bis in Organisationen wie die Internationale Energieagentur ausgewirkt.“

Unterschiede zwischen generativer und traditionelle KI werden verwischt

Eines der zentralen Probleme sei dabei der Unterschied zwischen generativer KI und „traditioneller“ KI, wie es im Bericht heißt. Denn generative KI verursache erhebliche Umweltkosten, traditionelle KI hingegen habe eine deutlich geringere Energie- und Umweltbelastung zur Folge.

Die Analyse habe kein einziges Beispiel gefunden, dass generative KI, die bei ChatGPT, Gemini oder Copilot zum Einsatz kommt, zu einer wesentlichen, nachweisbaren und substanziellen Emissionsreduktion führen kann. Im Gegensatz Satz steht die traditionelle KI, die unter anderem für maschinelles Lernen zur Vorhersage von Windmustern eingesetzt wird.

„Die Versprechen klimaschonender Technologien bleiben leere Worte, während KI-Rechenzentren täglich Kohle und Gas verbrauchen“, erklärt Joshi. Denn die Übertreibung des Klimapotenzials von KI lenke von den realen Kosten von energie- und wasserintensiven Rechenzentren ab.

Auch interessant:

Der Beitrag Greenwashing: Studie entlarvt KI-Klimaversprechen als irreführend erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Die Höhle der Löwen 2026: Was du zu Staffel 19 wissen musst

Der Beitrag Die Höhle der Löwen 2026: Was du zu Staffel 19 wissen musst erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Die Höhle der Löwen 2026 Staffel 19 DHDL

„Die Höhle der Löwen“ startet früher als je zuvor ins neue Jahr und damit bereits in die 19. Staffel. Die Gründershow verspricht erneut vielversprechende Geschäftsideen und harte Verhandlungen. Das sind die wichtigsten Infos im Überblick.

Seit mehr als zehn Jahren zählt „Die Höhle der Löwen“ zu den erfolgreichsten Gründershows im deutschen Fernsehen. In dem VOX-Format präsentieren Start-ups ihre Geschäftsideen vor einer prominenten Investorenrunde und hoffen auf Kapital sowie strategische Unterstützung.

Zwischen Innovation, Risiko und harten Verhandlungen sorgt DHDL regelmäßig für Aufmerksamkeit weit über die TV-Ausstrahlung hinaus. Auch von der 19. Staffel versprechen sich die Investoren Dagmar Wöhrl, Judith Williams, Ralf Dümmel, Carsten Maschmeyer, Janna Ensthaler und Frank Thelen „vielversprechende Geschäftsideen“, wie es von RTL heißt.

„Die Höhle der Löwen“ 2026: Die Highlights in Staffel 19

Die neuen Folgen der 19. Staffel liefern laut RTL „einige der emotionalsten und kontroversesten Momente“, die es je bei DHDL gegeben hat. So muss ein Start-up sich dem „größten Verriss“ in der Geschichte der Sendung stellen. Mit deutlichen Worten stehen die Investoren dem „uninvestierbarsten Start-up aller Zeiten“ gegenüber.

Doch nicht nur Unternehmen können in der Sendung mit ihrer Geschäftsidee baden gehen. Auf eine Löwin wartet in der Sendung eine Badewanne mit eiskaltem Wasser.

Auch mit knallharten Verhandlungen wartet die neue Staffel von DHDL wieder auf. Von einem Start-up fordert ein Löwe statt der gewünschten zehn Prozent Firmenanteile glatte 50 Prozent. Bei mehreren Geschäftsideen sind sogar wieder mehrere Löwen interessiert, eine Familie kann sich sogar über Angebote von allen Löwen freuen.

DHDL 2026: Prominenter Besuch in der Gründershow

Doch nicht nur die namhaften Investoren sorgen in der 19. Staffel von „Die Höhle der Löwen“ für den gewissen Promifaktor. Unter anderem wird auch der ehemalige Boxer Axel Schulz den Löwen in der Höhle ein Grillprodukt präsentieren. Zusätzlich unterstützt Reality Star Laurenz Pesch bei einem Pitch die Gründer als Vorführmodel.

Löwe Ralf Dümmel wird derweil in der neuen Staffel einen Spaziergang mit einem Alpaka unternehmen. Gleichzeitig kommt es zu einem internationalen Investorentreffen mit einem Schweizer Pendant aus der Sendung „2 Minuten, zwei Millionen“.

„Die Höhle der Löwen“ 2026: Sendetermine von Staffel 19

Die 19. Staffel von „Die Höhle der Löwen“ ist ab Montag, den 23. Februar 2026, bei VOX zu sehen. Immer montags um 20:15 Uhr gibt es jede Woche eine neue Folge der Gründershow.

Für Neugierige bietet RTL wie immer auch die Möglichkeit, die aktuelle Folge vorab zu schauen. Denn schon eine Woche vor der Ausstrahlung im Free TV können Zuschauer die Folge bei RTL+ streamen. Hier startet die 19. DHDL-Staffel deshalb bereits am 16. Februar.

  • Folge 1: Montag, 23. Februar 2026, 20.15 Uhr
  • Folge 2: Montag, 2. März 2026, 20.15 Uhr
  • Folge 3: Montag, 9. März 2026, 20.15 Uhr
  • Folge 4: Montag, 16. März 2026, 20.15 Uhr
  • Folge 5: Montag, 23. März 2026, 20.15 Uhr
  • Folge 6: Montag, 30. März 2026, 20.15 Uhr
  • Folge 7: Montag, 6. April 2026, 20.15 Uhr
  • Folge 8: Montag, 13. April 2026, 20.15 Uhr

Auch interessant:

Der Beitrag Die Höhle der Löwen 2026: Was du zu Staffel 19 wissen musst erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

PFAS: Forscher entwickeln Schnelltest für Ewigkeitschemikalien

Der Beitrag PFAS: Forscher entwickeln Schnelltest für Ewigkeitschemikalien erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Schnelltest für Ewigkeitschemikalien Umwelt Umweltschutz Gesundheit PFAS

Ein neues Analyseverfahren der Bundesanstalt für Materialforschung und -prüfung verspricht einen deutlich schnelleren Nachweis der umstrittenen PFAS-Chemikalien. Statt aufwendiger Laboranalysen könnte so künftig ein mobiler Schnelltest genügen, der die Ewigkeitschemikalien innerhalb von 15 Minuten nachweisen kann.

PFAS gelten als Ewigkeitschemikalien und finden sich inzwischen in nahezu allen Bereichen. Da sie seit Jahrzehnten wegen ihrer wasser-, fett- und schmutzabweisenden Eigenschaften in zahlreichen Alltagsgegenständen eingesetzt werden, sind sie heute auch fast überall nachweisbar.

Doch die synthetischen Stoffe sind – wie der Name Ewigkeitschemikalien schon verrät – kaum abbaubar und hinterlassen deshalb ihre Spuren im Wasser, in Böden, Lebensmitteln und sogar im menschlichen Körper. Sie stehen im Verdacht, Krebs zu verursachen, das Immunsystem zu schwächen und die Fruchtbarkeit zu beeinträchtigen.

Bislang gilt der Nachweis von PFAS als aufwendig und teuer. Denn in der Regel müssen Proben entnommen und in spezialisierten Laboren untersucht werden. Doch das könnte sich künftig ändern, denn Forscher der Bundesanstalt für Materialforschung und -prüfung (BAM) haben einen Schnelltest für Ewigkeitschemikalien entwickelt, der in nur 15 Minuten einen Nachweis liefert.

Schnelltest für Ewigkeitschemikalien könnte Analyse revolutionieren

PFAS stecken in beschichteten Pfannen, wasserfesten Outdoor-Jacken oder fettabweisenden Lebensmittelverpackungen. Aber auch in Feuerlöschschäumen sind die Ewigkeitschemikalien zu finden – ein Grund, warum sie vielerorts in Böden und im Grundwasser gefunden werden.

Doch bisher konnten PFAS nur in einem zeitaufwändigen Verfahren im Labor nachgewiesen werden. Die Analysen waren bisher teuer und erforderten hochqualifiziertes Personal. Auch die Auswertung konnte mehrere Tage in Anspruch nehmen, wodurch schnelle Entscheidungen – beispielsweise bei akuten Umweltbelastungen – deutlich erschwert wurden.

Die Forscher der Bundesanstalt für Materialforschung und -prüfung können Ewigkeitschemikalien mit ihrem neuen Schnelltest nun jedoch in weniger als 15 Minuten nachweisen. Dafür haben sie ein kompaktes Sensorsystem entwickelt, das PFAS direkt vor Ort in wässrigen Proben erkennt. Selbst geringe Mengen der Ewigkeitschemikalien können so nachgewiesen werden.

„PFAS sind ein globales Problem“, erklärt Knut Rurack, Experte für chemische und optische Sensorik an der BAM. „Mit unserer Technologie schaffen wir die Grundlage für schnelle Vor-Ort-Analysen, die Behörden und Unternehmen bei der Überwachung und Sanierung von belasteten Standorten unterstützen.“

Schnelltest weist Ewigkeitschemikalien in Mini-Labor nach

Das System kann mobil eingesetzt werden und kann laut den BAM-Forschern vereinfacht als „Mini-Labor im Taschenformat“ verstanden werden. Dabei arbeitet eine Kombination aus winzigen fluoreszierenden Partikeln mit einer mikrofluidischen Plattform.

„Unser Ziel war ein robustes, benutzerfreundliches und skalierbares System“, so Rurack. „Die Kombination aus Materialwissenschaft und Mikrofluidik eröffnet neue Wege für die Überwachung von Reinigungs- und Sanierungsprozessen im Rahmen des Umweltmanagements – nicht nur für PFAS, sondern auch für andere Schadstoffe.“

Für den PFAS-Schnelltest sei dabei keine aufwendige Laborausrüstung notwendig, was den Analyseaufwand erheblich reduziert. Die Ergebnisse der BAM-Studie sind nun in der renommierten Fachzeitschrift Nature Communications erschienen und wurden dort als „Editors‘ Highlight“ als einer der wichtigsten Arbeiten der vergangenen Monate im Bereich „Materialwissenschaften und Chemie“ ausgewählt.

Auch interessant:

Der Beitrag PFAS: Forscher entwickeln Schnelltest für Ewigkeitschemikalien erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Günstiger als Öl und Gas: Studie offenbart Wärmepumpen-Irrtum

Der Beitrag Günstiger als Öl und Gas: Studie offenbart Wärmepumpen-Irrtum erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Wärmepumpe Kostenvorteil Erneuerbare Energien Energiewende

Wärmepumpen wirken auf viele Hausbesitzer wegen ihrer hohen Anschaffungskosten noch immer abschreckend. Eine aktuelle Studie zeigt jedoch, dass sie über die gesamte Lebensdauer deutlich günstiger sind als Gas- und Ölheizungen. Kostenvorteile von bis zu 90.000 Euro sind demnach aufgrund niedrigerer Betriebskosten und staatlicher Förderungen möglich.

Die Bundesregierung hat die Senkung der Treibhausgasemissionen aus der Wärmeversorgung von Gebäuden fest in ihren Klimazielen verankert. Der Gebäudesektor zählt zu den größten Emittenten in Deutschland, weshalb die Wärmeversorgung schrittweise klimaneutral werden soll.

Eine zentrale Rolle dabei nehmen Wärmepumpen ein. Denn die sie gelten als zentrale Technologie für die Dekarbonisierung der Wärmeversorgung und sollen künftig fossile Heizsysteme ersetzen.

Trotzdem zögern viele Eigenheimbesitzer bislang beim Umstieg auf Wärmepumpen. Dabei gelten beispielsweise hohe Investitionskosten oder Unsicherheiten über die Eignung im Altbau als zentrale Hürden. Hinzu kommen Sorgen über Strompreise, die potenzielle Käufer zusätzlich verunsichern können.

Doch die energetische Sanierung der Wärmeversorgung kann auch enorme Kostenvorteile für Hausbesitzer bereithalten. Das zeigt eine neue Modellrechnung der gemeinnützigen Beratungsgesellschaft co2online.

Welchen Kostenvorteil bringt die Wärmepumpe?

Für die Modellrechnung dient ein typisches unsaniertes Einfamilienhaus mit Baujahr 1983 und 130 Quadratmetern Wohnfläche. Es wird davon ausgegangen, dass bei diesem Haus in den vergangenen 20 Jahren keine energetische Sanierung erfolgt ist.

Die Berechnung vergleicht die langfristigen Kosten für herkömmliche Gas- oder Ölheizungen mit einer modernen Wärmepumpe in einem Zeitraum von 20 Jahren. Die Daten beziehen dabei alle Kosten, inklusive Anschaffung, Installation, Betriebskosten und staatlicher Förderungen, mit ein. Dabei wird von einer vollständigen energetischen Sanierung inklusive Gebäudehülle, Heizsystem und Photovoltaik ausgegangen.

Im Modellfall kommt es zu deutlichen Unterschieden bei Gas- und Ölheizung im Vergleich zu Wärmepumpen. Demnach liegen die Heizkosten über einen Zeitraum von 20 Jahren bei einer Gasheizung bei rund 28.000 Euro. Eine Ölheizung kommt auf rund 41.000 Euro.

Die Wärmepumpe landet – je nach Ausführung – bei Heizkosten zwischen 13.000 und 17.000 Euro. Als Grundlage hierfür dienten neben dem Musterhaus die Zahlen aus dem Heizspiegel 2025.

Ist die Wärmpumpe auf lange Sicht rentabler?

In die Modellrechnung von co2online sind allerdings nicht nur laufende Kosten sowie Anschaffungskosten und Möglichkeiten zur staatlichen Förderungen eingeflossen. Auch zusätzlich Instandhaltungskosten und die durchschnittliche Wertsteigerung des Gebäudes wurden berücksichtig.

Demnach ergibt sich im Modellfall ein ökonomischer Vorteil in Höhe von rund 39.000 Euro für Luft-Wasser-Wärmepumpen und 48.000 Euro für Erdwärmepumpen. Gas- und Ölheizungen hingegen verursachen Mehrkosten in Höhe von rund 31.000 Euro beziehungsweise 43.000 Euro.

Die Modellrechnung kommt so auf einen Vorteil durch eine Komplettsanierung mit Umstellung auf Wärmepumpen in Höhe von 70.000 bis 90.000 Euro.

Da es sich bei der Berechnung um Durchschnittswerte für ein fiktives Musterhaus handelt, empfehlen die Studienautoren eine individuelle Berechnung für das eigene Gebäude. Die Modellrechnung könne als Einstieg genutzt werden, um anschließend die Berechnung mit den eigenen Gebäudedaten durchzuführen.

Auch interessant:

Der Beitrag Günstiger als Öl und Gas: Studie offenbart Wärmepumpen-Irrtum erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Neues Anoden-Design erhöht Leistung von Natrium-Ionen-Batterien

Der Beitrag Neues Anoden-Design erhöht Leistung von Natrium-Ionen-Batterien erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Natrium-Ionen-Batterien Leistung Akkus Batterien Energiewende Speicher

Forscher der Bundesanstalt für Materialforschung und ‑prüfung haben ein neuartiges Kern-Schale-Design für Natrium-Ionen-Batterien entwickelt. Dadurch lässt sich die bislang geringe Effizienz der Technologie massiv steigern und könnte einen wichtigen Schritt hin zu nachhaltigeren und kostengünstigeren Energiespeichern bedeuten.

Ob in Smartphones, Laptops oder Elektroautos – Lithium-Ionen-Akkus dominieren weltweit den Batteriemarkt. Zusätzlich steigt mit der zunehmenden Elektrifizierung von Mobilität und Energieversorgung die Nachfrage nach leistungsfähigen Energiespeichern.

Schätzungen zufolge wird die globale Nachfrage nach Lithium-Ionen-Batterien bis zum Jahr 2030 auf 4,2 Terawattstunden steigen. Zum Vergleich: 2021 lag sie noch bei 235 Gigawattstunden. Das entspräche einer Steigerung auf rund das 18-Fache innerhalb von weniger als zehn Jahren.

Ihre hohe Energiedichte sowie die lange Lebensdauer machen Lithium-Ionen-Akkus bislang konkurrenzlos. Allerdings stoßen sie bei steigender Nachfrage und knapper werdenden Rohstoffen wie Lithium und Kobalt an ökologische und wirtschaftliche Grenzen.

Batteriekonzepte wie Natrium-Ionen-Akkus gelten als Alternative zwar als vielversprechend, konnten sich jedoch aufgrund geringerer Effizienz und fehlender Marktreife bisher nicht durchsetzen. Forscher der Bundesanstalt für Materialforschung und -prüfung (BAM) ist es nun jedoch gelungen, ein neuartiges Kern-Schale-Design für Natrium-Ionen-Batterien zu entwickeln und so die Leistung massiv zu steigern.

Können Natrium-Ionen-Batterien so den Durchbruch schaffen?

Natrium ist als Rohstoff reichlich und preiswert verfügbar und bietet damit im Vergleich zu Lithium erhebliche Kostenvorteile. So könnte außerdem eine größere Versorgungssicherheit gewährleistet werden, was insbesondere für die großflächige Energiespeicherung und die Elektrifizierung des Verkehrssektors wichtig wäre.

Natrium-Ionen-Batterien bieten außerdem Vorteile in Sachen Sicherheit und Ressourcenschutz. Doch bisher hat die Technologie unter anderem aufgrund von geringer Energiedichte es noch nicht aus ihrem Nischendasein heraus geschafft.

Forscher der Bundesanstalt für Materialforschung und -prüfung könnten das allerdings nun ändern. Denn sie haben ein neues Kern-Schale-Design für Anoden entwickelt, das die Leistungsfähigkeit von Natrium-Ionen-Batterien deutlich steigert.

Damit haben die Forscher ein entscheidendes Problem dieser Technologie gelöst. Denn bisher kam es noch während der Herstellung der Akkus schon beim ersten Laden zu irreversiblen Verlusten der Speicherkapazität.

Diese entsteht durch eine chemische Reaktion zwischen der Anode und dem Elektrolyten, bei der sich Elektrolyt-Moleküle an der Anode aus hartem Kohlenstoff zersetzen. Durch diesen Vorgang können die Moleküle Leerstellen besetzen, die eigentlich für die Speicherung von Natrium-Ionen vorgesehen sind.

Beschichtung unterbindet Speicherverluste

Bisher konnte dieser Prozess erst unterbrochen werden, wenn sich an der Anode ein stabiler Schutzfilm aufgebaut hatte, der diese vor weiterer Zersetzung durch den Elektrolyten schützt. Doch bis dahin hatte bereits ein erheblicher Teil des aktiven Materials an Leistungsfähigkeit verloren, was die Effizienz und Lebensdauer der Batterie deutlich einschränkte.

Für die Lösung dieses Problems haben die BAM-Forscher ein neuartiges Kern-Schale-Design für die Anode entwickelt. „Wir haben erkannt, dass sich bei Natrium-Ionen-Batterien große Speicherkapazitäten und effiziente Filmbildung nicht durch ein einzelnes Material realisieren lassen“, erklärt Tim-Patrick Fellinger, BAM-Experte für Energiematerialien. „Denn: Je besser sich ein Material für die Speicherung eignet, desto verlustreicher ist die Filmbildung.“

Für ihre Entwicklung haben die Forscher einen porösen Kohlenstoff als Speichermaterial im Kern der Anode mit einer hauchdünnen Schicht umhüllt. Dieser wirkt dann wie ein Filter und lässt die erwünschten Natrium-Ionen durch, hält aber die Elektrolyt-Moleküle ab.

Auf diese Weise wird die Speicherkapazität der Anode bewahrt, sodass die Batterie auch nach vielen Ladezyklen konstant Leistung liefern kann. Bereits jetzt liegt die Anfangseffizienz bei 82 Prozent – ohne die neuartige Beschichtung kommen Natrium-Ionen-Batterien bisher nur auf 18 Prozent.

Die Forscher gehen davon aus, das weitere Leistungssteigerungen durchaus möglich sind. Denn bei Materialinnovationen auf der Kathodenseite sei die Wissenschaft den theoretischen Grenzen bereits nahe. „Bei Anodenmaterialien hingegen ist noch völlig ungewiss, wo diese Grenzen liegen und mit welchen innovativen Ansätzen in der Materialentwicklung sich weitere Fortschritte erzielen lassen“, so BAM-Forscher Paul Appel.

Das Anodenmaterial soll nun im Berlin Battery Lab, einer Kooperation von BAM, Helmholtz-Zentrum Berlin und Humboldt-Universität zu Berlin, weiterentwickelt werden. Die Forschungseinrichtung ist spezialisiert auf nachhaltige Batterietechnologien.

Auch interessant:

Der Beitrag Neues Anoden-Design erhöht Leistung von Natrium-Ionen-Batterien erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Tesla produziert 4680-Batterie jetzt mit Trockenelektroden

Der Beitrag Tesla produziert 4680-Batterie jetzt mit Trockenelektroden erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Tesla 4680 Batterie Trockenelektrode

Tesla ist offenbar ein wichtiger Fortschritt bei der Herstellung von Batteriezellen gelungen. Der US-Konzern hat das Trockenelektroden-Verfahren weiterentwickelt und kann seine 4680-Batterie nun mit geringeren Kosten sowie weniger Energieverbrauch herstellen.

Tesla galt lange als unangefochtener Vorreiter der Elektromobilität und als Symbol für technologischen Fortschritt. Doch das Image des Unternehmens hat in den vergangenen Jahren immer wieder gelitten. Vor allem das öffentliche Auftreten und die politischen Positionen von CEO Elon Musk haben dazu geführt, dass Tesla nicht mehr bei allen als Hoffnungsträger der Branche wahrgenommen wird.

Doch mit der jüngsten Entwicklung in der Batteriezellfertigung meldet sich Tesla als Innovationsmotor zurück. Denn der US-Konzern hat laut eigenen Angaben im aktuellen Geschäftsbericht das Trockenelektroden-Verfahren für seine Batterieproduktion weiterentwickelt und kann dieses nun auf Anode und Kathode anwenden.

Ist Tesla ein Durchbruch bei der 4680-Batterie gelungen?

Tesla selbst verkündet den technologischen Meilenstein in seinem Geschäftsbericht für das 4. Quartal: „Wir produzieren nun Trockenelektroden für 4680-Zellen, wobei sowohl Anode als auch Kathode in Austin hergestellt werden.“

Der Konzern fertige seine Batteriezellen nun vollständig im sogenannten Trockenelektrodenverfahren. Dieses gilt als besonders anspruchsvoll und schwer umzusetzen, bringt aber auch zahlreiche Vorteile mit sich. „Die Herstellung von Trockenelektroden senkt Kosten, Energieverbrauch und Fabrikkomplexität und erhöht gleichzeitig die Skalierbarkeit erheblich“, schreibt Tesla dazu bei X.

Mit dem nun eingereichten Patent deutet vieles darauf hin, dass Tesla eine der zentralen Hürden der modernen Batteriefertigung überwunden hat. Bereits seit einigen Jahren nutzt Tesla diese Technologie bereits für die Anode.

Bei der Kathode hingegen gab es bisher noch Schwierigkeiten, weshalb hier weiterhin nass beschichtet wurde. Das wiederum erforderte jedoch energieintensive Trocknungsöfen und den Einsatz von toxischen Lösungsmitteln, die Tesla durch die Weiterentwicklung nun wohl einsparen kann.

Trockenelektroden-Verfahren soll in die Massenproduktion

Tesla stellt in seinem Geschäftsbericht außerdem klar, dass es sich bei der neuen Produktionsmethode nicht um ein Pilotprojekt handelt. In seiner Batteriefabrik in Austin sei das Verfahren für die 4680-Zellen bereits in der Massenproduktion im Einsatz.

Die 4680-Zellen sollen künftig auch wieder in Teslas Model Y zum Einsatz kommen. Der US-Kozern hat die Zellen mit 46 mm Durchmesser und 80 mm Höhe hier bereits versuchsweise angewendet, aktuell werden die sie aber nur im Cybertruck verbaut.

Künftig soll sich das wieder ändern, vermutlich auch aufgrund der eher verhaltenen Verkaufszahlen des Cybertrucks. Welche Modelle des Model Y die neuartige Zelle enthalten werden, ist noch nicht bekannt.

Auch interessant:

Der Beitrag Tesla produziert 4680-Batterie jetzt mit Trockenelektroden erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Hydrogel-Beschichtung verpasst Solaranlagen Leistungs-Boost

Der Beitrag Hydrogel-Beschichtung verpasst Solaranlagen Leistungs-Boost erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Hydrogel-Beschichtung Solarpanels Solarenergie Photovoltaik Erneuerbare Energien

Diese neue Technologie könnte besonders in heißen Städten die Effizienz von Solarenergie deutlich verbessern. Denn Forscher haben eine neue Hydrogel-Beschichtung für Solarpanels entwickelt, die Module kühlen und so Leistungsverluste durch Hitze senken kann.

Solarenergie spielt eine zentrale Rolle beim Übergang zu einer nachhaltigen und klimafreundlichen Energieversorgung. Denn sie ist als Energiequelle nahezu unbegrenzt verfügbar und kann so dabei helfen, den Ausstoß von Treibhausgasen deutlich zu reduzieren.

Doch vor allem in aufgeheizten Städten oder Gebieten mit sehr hohen Umgebungstemperaturen steht die Solarenergie vor enormen Herausforderungen. Denn diese hohen Temperaturen können die Leistungsfähigkeit der Solarpanels beeinträchtigen.

Forscher der Hong Kong Polytechnic University haben für die Kühlung von Solarpanels nun eine Hydrogel-Beschichtung entwickelt. Diese kann die Zellen vor übermäßiger Hitze schützen und so den Wirkungsgrad der Module erhalten und die vorzeitige Materialalterung verhindern.

Hydrogel-Beschichtung schützt Solarpanels vor zu großer Hitze

Die Leistungsfähigkeit von Solarpanels hängt von einigen äußeren Faktoren ab. So auch von der Umgebungstemperatur, die Einfluss auf den Wirkungsgrad der Module haben kann.

Denn werden die Zellen zu stark erhitzt, kann das die Leistungsfähigkeit beeinträchtigen. Doch dann wird nicht nur weniger Strom produziert, auch die Alterung der Materialen wird so beschleunigt.

Eine dauerhaft zu hohe Umgebungstemperatur kann zu schnellerem Verschleiß, häufigeren Ausfällen und einer verkürzten Lebensdauer der Panels. Dadurch wiederum reduziert sich die langfristige Rentabilität von Solaranlagen – vor allem in heißen Klimazonen.

Das Forschungsteam der Hong Kong Polytechnic University (PolyU) hat für die Lösung dieses Problems eine „einfache und kostengünstige Hydrogel-Beschichtung“ entwickelt. Diese soll nicht nur die Wärmeableitung von Solarmodulen verbessern, sondern auch die sogenannten „Hotspots“ effektiv kühlen.

Diese Hotspots entstehen oft durch Teilverschattung von Solarmodulen. Sie führen dazu, dass einzelne Bereiche stark überhitzen und so die Stromleistung von Solaranlagen auf Dauer an Zuverlässigkeit und Stabilität verliert.

Wie effektiv kühlt die Hydrogel-Beschichtung?

Die Wissenschaftler konnten mit ihrer Forschung zeigen, dass sich die Temperaturen an sehr heißen Stellen durch die Hydrogel-Beschichtung von Solarpanles um bis zu 16 Grad Celsius senken ließ. Damit einher ging eine Leistungssteigerung von bis zu 13 Prozent.

Bei Anlagen auf Dächern sowie bei gebäudeintegrierten Photovoltaikanlagen soll die Hydrogel-Beschichtung in der Lage sein, Leistungsverluste durch Hotspots um fast die Hälfte reduzieren. „Unsere Hydrogel-Kühltechnologie löst das Problem der Hotspots in Solarmodulen effektiv, ohne dass bestehende Schaltungsdesigns verändert werden müssen“, erklärt Studienleiter Prof. Yan Jinyue Jerry, Lehrstuhlinhaber für Energie und Gebäude an der PolyU.

Das Team prognostiziert anhand von Fallstudien in Hongkong und Singapur ein potenzielles jährliches Stromerzeugungswachstum von 6,5 bis 7 Prozent. Die Hydrogel-Beschichtung könne sich damit bereits in circa drei bis vier Jahren amortisiert haben.

Auch interessant:

Der Beitrag Hydrogel-Beschichtung verpasst Solaranlagen Leistungs-Boost erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Alternative zur Klimaanlage: Festkörperkühlsysteme ohne Kältemittel

Der Beitrag Alternative zur Klimaanlage: Festkörperkühlsysteme ohne Kältemittel erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Klimaanlage ohne Kältemittel Energiewende Klimawandel

Diese Kühltechnik kommt ohne Kältemittel, Kompressor und bewegliche Teile aus und soll klassische Klimaanlagen überflüssig machen. Ein Start-up testet das Festkörper-System bereits in einem Pilotprojekt.

Der Klimawandel trägt dazu bei, dass Hitzewellen immer werden häufiger und intensiver werden. Gleichzeitig heizen sich vor allem Städte durch dichte Bebauung zunehmend auf.

Immer mehr Haushalte und Unternehmen setzen daher auf aktive Kühlung. Prognosen zufolge wird das Marktvolumen für Klimaanlagen bis zum Jahr 2030 weltweit auf rund 93 Milliarden Euro wachsen. Das entspricht einer jährlichen Wachstumsrate von mehr als 6,5 Prozent.

Das hat durch den steigenden Energiebedarf nicht nur spürbaren Folgen für die Stromnetze. Denn herkömmliche Klimaanlagen können durch ihre Abwärme Städte weiter aufheizen. Gleichzeitig besitzen viele eingesetzte Kältemittel ein hohes Treibhauspotenzial. Beides zusammen resultiert in einem selbstverstärkenden Kreislauf aus Hitze und wachsendem Kühlbedarf.

Vor diesem Hintergrund rücken neue Kühltechnologien in den Fokus, die ohne klimaschädliche Kältemittel und energieintensive Kompressoren auskommen. An einer solchen Lösung arbeitet das US-Start-up Mimic Systems, das mit seinem Festkörper-Kühlgerät den Markt für Klimaanlagen umkrempeln will.

Darum sind schädliche Kältemittel in Klimaanlagen problematisch

In Europa ist der Einsatz besonders klimaschädlicher Kältemittel bereits seit Jahren stark reguliert. Beispielsweise schreibt die neue F-Gas-Verordnung seit März 2024 den verschärften Ausstieg aus fluorierten Treibhausgasen (F-Gasen) vor.

In den USA hingegen sehen die Vorschriften deutlich lockerer aus. „So gut wie jede Klimaanlage, jeder Kühlschrank und jede Wärmepumpe, die in den USA verwendet wird, verfügt über ein Dampfkompressionssystem mit einem fluorierten Kohlenwasserstoff-basierten Kältemittel“, erklärt Jarad Mason, außerordentlicher Professor für Chemie und Chemische Biologie an der Harvard University gegenüber CNN.

Diese Kältemittel seien als Treibhausgase „um Größenordnungen stärker als Kohlendioxid“, so der Forscher. Vor allem durch Kältemittellecks und die Entsorgung tragen diese Stoffe erheblich zu den Treibhausgasemissionen bei.

„Die Kühlbranche war in der Vergangenheit sehr risikoscheu, erklärt Berardo Matalucci, Mitgründer und CEO von Mimic Systems gegenüber CNN. „Fast jede Klimaanlage basiert auf Innovationen aus dem 19. Jahrhundert.“

Besonders problematisch sind die Leckagen von Kältemitteln: Zum einen gelangen sie als starke Treibhausgase in die Atmosphäre. Zum anderen verringern sie die Effizienz der Klimaanlagen, was den Stromverbrauch zusätzlich steigen lässt.

Festkörper-Klimaanlage soll ohne Kältemittel auskommen

Matalucci und sein Team bei Mimic Systems arbeitet daher an Alternativen für diese Kompressionssysteme, also Systeme, die komplett auf Kältemittel verzichten. Mimic konzentriere sich dabei auf thermoelektrische Kühlung, eine Technologie, die Wärme mithilfe von Elektronen in Festkörpern wie Bismut, Tellur und Antimon transportiert.

„Es gibt keine flüchtigen Kältemittel, die in die Atmosphäre gelangen könnten“, so Matalucci. Außerdem gebe es keinerlei bewegliche Teile, was wiederum weniger Ersatzteile im Laufe der Zeit sowie weniger Materialabfall und geringere Kosten bedeutet.

Im August 2025 hat das US-Start-up sein erstes Pilotprojekt für eine Festkörper-Klimaanlage in Kanada bereits umgesetzt. Aktuell befindet sich das System in der Kleinserienproduktion. Daher liegen die Kosten etwa bei dem Doppelten im Vergleich zu herkömmlichen Kompressorsystemen.

Ziel sei es laut Matalucci daher, nun an einer mit herkömmlichen Klimaanlagen vergleichbare Effizienz sowie der Kostensenkung zu arbeiten. Die erste Produktionsserie soll dann spätestens Anfang 2027 starten.

Auch interessant:

Der Beitrag Alternative zur Klimaanlage: Festkörperkühlsysteme ohne Kältemittel erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Elektroauto gebraucht kaufen: Darauf solltest du achten

Der Beitrag Elektroauto gebraucht kaufen: Darauf solltest du achten erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Elektroauto gebraucht kaufen E-Auto

Elektroautos werden immer beliebter und tauchen zunehmend auch auf dem Gebrauchtwagenmarkt auf. Doch der Kauf eines gebrauchten E-Autos unterscheidet sich in wichtigen Punkten vom klassischen Verbrenner. Auf diese Aspekte solltest du unbedingt achten, wenn du dir ein E-Auto gebraucht kaufen willst.

Der Gebrauchtwagenmarkt für Elektroautos wächst spürbar und mit dem wachsenden Angebot sinken auch die Preise. Denn immer mehr E-Autos aus den ersten großen Zulassungswellen stehen nun auf dem Markt bereit, um weiterverkauft zu werden.

Ein gebrauchtes Elektroauto kann eine kostengünstige Alternative zum Neuwagen sein. Denn die Anschaffungspreise liegen oft deutlich unter denen vergleichbarer Neufahrzeuge.

Doch beim Kauf eines gebrauchten E-Autos gibt es andere Faktoren zu beachten als bei einem klassischen Verbrenner. Denn beim Elektroauto spielen beispielsweise der Batteriezustand, die Ladehistorie sowie die Software eine zentrale Rolle.

E-Auto gebraucht kaufen – das sind die Vorteile

Der Gebrauchtwagenmarkt hat sich in den vergangenen Jahren stark gewandelt. Denn hier sind inzwischen auch immer mehr Elektrofahrzeuge zu finden.

Dabei handelt es sich oft um Leasing-Rückläufer, die bisher nur wenige Jahre auf der Straße verbracht haben und nun einen neuen Besitzer suchen. Vorteil bei diesen Fahrzeugen ist die meist überschaubare Laufleistung sowie der gute Zustand.

Auch die Preisentwicklung dürfte Käufern in die Karten spielen. Denn mit dem weiter wachsenden Angebot an Gebrauchtfahrzeugen und dem schnellen technologischen Fortschritt bei neuen Modellen ist in absehbarer Zeit nicht mit steigenden Preisen zu rechnen.

Allein im Zeitraum von Januar 2023 bis Oktober 2024 hat sich der Wert von dreijährigen E-Autos stark verringert. So lag dieser laut der Deutschen Automobil Treuhand im Januar 2023 bei 61,5 Prozent des Listenneupreises. Bis Oktober 2024 war dieser bereits auf 50,8 Prozent gesunken.

Darauf solltest du bei einem gebrauchten E-Auto besonders achten

Beim Kauf eines gebrauchten Elektroautos gelten jedoch andere Maßstäbe als beim Diesel oder Benziner. Statt Motorverschleiß und Abgaswerten rücken hier vor allem der Zustand der Batterie und ihre noch vorhandene Leistungsfähigkeit in den Fokus.

Denn je mehr Ladezyklen ein E-Auto-Akku bereits durchlebt hat, desto stärker ist auch seine Alterung fortgeschritten. Doch dieser Gesundheitszustand – der sogenannte „State of Health“ – der Batterie lässt sich überprüfen.

Sollten hierzu aus Wartungen und Checks nicht genügend Informationen vorliegen, empfiehlt sich ein unabhängiger Batterietest. Diesen bietet beispielsweise der ADAC an, um die tatsächliche Restkapazität und Leistungsfähigkeit realistisch einschätzen zu können.

Allerdings sollten Kaufinteressierte beachten, dass es für gebrauchte Elektroautos derzeit keine staatliche Förderung gibt. So müssen Gebrauchtkäufer den Kaufpreis vollständig selbst finanzieren, was jedoch teilweise durch die inzwischen deutlich gesunkenen Marktpreise ausgeglichen werden kann.

Auch interessant:

Der Beitrag Elektroauto gebraucht kaufen: Darauf solltest du achten erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Arbeit: 3 menschliche Fähigkeiten, die KI nicht ersetzen kann

Der Beitrag Arbeit: 3 menschliche Fähigkeiten, die KI nicht ersetzen kann erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI menschliche Fähigkeiten

Künstliche Intelligenz verändert das Arbeiten grundlegend. Doch es gibt auch menschliche Fähigkeiten, die Maschinen nicht ersetzen können. McKinsey-Chef Bob Sternfels erklärt, welche Skills er im KI-Zeitalter als die drei zentralen Fähigkeiten sieht.

Die Nutzungszahlen von KI-Tools haben sich in den vergangenen Jahren enorm gesteigert. Im Jahr 2021 lagen die Zahl weltweit noch bei rund 154 Millionen. Bis 2025 war sie bereits auf 346 Millionen angestiegen.

Prognosen zufolge wird sich dieser Trend auch in den kommenden Jahren weiter fortsetzen. Demnach könnte die Zahl der Benutzer von KI-Tools bis zum Jahr 2031 auf rund 1,2 Milliarden Menschen weltweit ansteigen.

Auch die Arbeitswelt steht damit vor einem tiefgreifenden Wandel. Denn Routineaufgaben werden zunehmend automatisiert, was wiederum menschliche Fähigkeiten bei Arbeitnehmern deutlich stärker in den Fokus rückt.

Das bestätigt auch McKinsey-Manager Bob Sternfels im All-In Podcast während der CES 2026. Demnach sucht die Unternehmensberatung gezielt nach drei zentralen Fähigkeiten, die gerade in einer von KI geprägten Arbeitswelt den entscheidenden Unterschied machen würden.

McKinsey: KI-Agenten verschieben Aufgabenverteilung

Beratungsunternehmen wie McKinsey gelten als besonders stark von KI bedroht. Denn ein großer Teil ihres täglichen Geschäfts basiert auf Datenanalysen und Marktmodellen. Es handelt sich dabei um Aufgaben, die KI-Systeme immer schneller und kostengünstiger übernehmen können.

Das macht sich auch bei dem Beratungsriesen McKinsey bemerkbar. Laut Sternfels hat der Konzern im letzten Jahr durch den Einsatz von KI-Tools 1,5 Millionen Stunden bei der Recherche und Synthese eingespart.

Die 25.000 KI-Agenten des Unternehmens würden sich ausgezeichnet für die Erstellung von Diagrammen eignen. In den vergangenen sechs Monaten allein hätten diese 2,5 Millionen solcher Diagramme erstellt.

Diese Automatisierungsprozesse haben bei McKinsey bereits zu einer deutlichen Verschiebung in der Unternehmensstruktur geführt. Der Konzern hat erst kürzlich 25 Prozent der Stellen im nicht-kundennahen Bereich eingestampft, weil die Tätigkeiten zunehmend durch KI ersetzt werden können. Laut Sternfels ergebe sich aus dem Einsatz von KI ein Produktivitätszuwachs von zehn Prozent.

Welche Skills sind im KI-Zeitalter dennoch gesucht?

Gleichzeitig sehe der Beratungsriese eine „beispiellose Anzahl an Neueinstellungen, da sich die Arbeit verändert“. Denn während im nicht-kundennahen Bereich zahlreiche Stellen weggefallen sind, habe der Konzern sein kundennahes Personal um 25 Prozent aufstockt.

Entscheidend sei bei der Rekrutierung nicht mehr so sehr, an welcher großen Universität man seinen Studienabschluss gemacht habe. Vielmehr zählen menschliche Faktoren wie Führungsqualitäten, Urteilsvermögen und echte Kreativität.

Denn KI-Modelle seien nicht in der Lage, Ambitionen zu entwickeln. Deshalb sollten sich Arbeitnehmer darauf konzentrieren, ambitionierte Ziele definieren zu können. Es sei außerdem wichtig, Menschen von diesen überzeugen zu können.

Auch das menschliche Urteilsvermögen spiele eine wichtige Rolle. Denn bei KI-Modellen gebe es kein Richtig oder Falsch, weshalb Menschen Prioritäten effektiv setzen sollten. „Menschen müssen die richtigen Parameter festlegen, sei es basierend auf den Unternehmenswerten oder gesellschaftlichen Normen“, so Sternfels.

Außerdem seien KI-Modelle nur in der Lage, den nächst wahrscheinlichsten Schritt zu definieren. Echte menschliche Kreativität sei deshalb unerlässlich, da Menschen außerhalb bestehender Muster denken und so völlig neue Ideen entwickeln können.

Auch interessant:

Der Beitrag Arbeit: 3 menschliche Fähigkeiten, die KI nicht ersetzen kann erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Studie bestätigt: Mehr Elektroautos verbessern die Luftqualität

Der Beitrag Studie bestätigt: Mehr Elektroautos verbessern die Luftqualität erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Elektroautos Luft Luftqualität E-Autos

Elektroautos können Luftverschmutzungen messbar reduzieren. Zu dem Schluss kommt eine Studie der University of Southern California. Anhand realer Daten und Satellitenmessungen belegen Forscher deutliche Rückgänge von Stickoxiden in Regionen mit hoher E-Auto-Dichte.

Herkömmliche Autos mit Benzin- und Dieselmotoren gehören zu den größten Verursachern von Luftverschmutzung in Städten und Ballungsräumen. Denn sie stoßen Stickoxide, Feinstaub und andere Schadstoffe aus, die die Atemluft belasten und so das Risiko für Herz- und Lungenerkrankungen erhöhen.

Gleichzeitig treiben ihre CO2-Emissionen den Klimawandel voran. Denn der Straßenverkehr ist einer der größten Verursacher von Treibhausgasen und damit ein zentraler Hebel in der Debatte um saubere Luft und wirksamen Klimaschutz.

Das bestätigt nun auch eine Studie der University of Southern California (USC). Denn Forscher der Keck School of Medicine an der USC konnten erstmals den Rückgang von Luftverschmutzungen durch Elektromobilität aufzeigen.

Mehr Elektroautos verbessern Luftqualität

Für ihre Studie, die im Fachmagazin The Lancet Planetary Health veröffentlicht wurde, haben die Forscher unter anderem hochauflösende Satellitendaten des Tropospheric Monitoring Instrument (TROPOMI) ausgewertet. Denn diese können Stickstoffdioxid und andere Schadstoffe in der Atmosphäre sichtbar machen. Stickstoff beispielsweise absorbiert und reflektiert Sonnenlicht auf andere Weise und kann so gemessen werden.

Gleichzeitig haben die Forscher Kalifornien in 1.692 Wohngebiete eingeteilt. Diesen haben sie dann mit der Hilfe öffentlich zugänglicher Daten vom kalifornischen Kraftfahrzeugamt die jeweilige Anzahl der zugelassenen emissionsfreien Fahrzeuge zugeordnet. Dazu zählten vollelektrische Pkw, Plug-in-Hybride sowie Brennstoffzellenfahrzeuge, schweren Nutzfahrzeuge wie Lieferwagen und Sattelzüge waren ausgeklammert.

Im Untersuchungszeitraum zwischen 2019 und 2023 stieg die Zahl der emissionsfreien Fahrzeuge in einem typischen Stadtviertel um 272. Während diese Zahl kontinuierlich anstieg, sank gleichzeitig auch die Luftverschmutzung. Demnach habe sich die Stickstoffdioxidbelastung pro 200 zusätzlich zugelassenen Fahrzeugen um 1,1 Prozent reduziert.

„Diese unmittelbare Auswirkung auf die Luftverschmutzung ist von großer Bedeutung, da sie sich auch unmittelbar auf die Gesundheit auswirkt“, erklärt Co-Autorin Erika Garcia, Assistenzprofessorin für Bevölkerungs- und öffentliche Gesundheitswissenschaften an der Keck School of Medicine. „Wir wissen, dass verkehrsbedingte Luftverschmutzung die Atemwegs- und Herz-Kreislauf-Gesundheit sowohl kurz- als auch langfristig schädigen kann.“

Elektrifizierung hat messbare Auswirkungen auf die Luftqualität

Für ihre vorliegende Studie haben die Forscher primär medizinische Fragestellungen einbezogen. Denn sie wollten analysieren, welche Auswirkungen die Zunahme von Elektrofahrzeugen auf die Atemwegs- und Herz-Kreislauf-Gesundheit haben kann.

Dennoch reicht ihre Aussagekraft weit über diese medizinischen Fragestellungen hinaus. Denn die gemessenen Rückgänge bei Luftschadstoffen lassen sich direkt auf klimarelevante Emissionen übertragen und zeigen, wie eng Gesundheitsschutz und Klimaschutz miteinander verknüpft sind.

„Wir sind noch nicht am Ziel der Elektrifizierung angelangt, aber unsere Forschung zeigt, dass der Übergang Kaliforniens zu Elektrofahrzeugen bereits messbare Auswirkungen auf die Luftqualität hat“, erklärt Co-Autorin Dr. Sandrah Eckel, außerordentliche Professorin für Bevölkerungs- und Gesundheitswissenschaften an der Keck School of Medicine. Die Ergebnisse der Studie würden für die weitere Verbreitung von Elektrofahrzeugen sprechen, da das Potenzial zur Verbesserung der Luftqualität und der öffentlichen Gesundheit hierbei noch weitgehend ungenutzt ist.

Auch interessant:

Der Beitrag Studie bestätigt: Mehr Elektroautos verbessern die Luftqualität erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Trainerentlassung unnötig? KI macht Krisen im Fußball messbar

Der Beitrag Trainerentlassung unnötig? KI macht Krisen im Fußball messbar erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI Fußball Krisen

Forscher des Karlsruher Instituts für Technologie haben ein datenbasiertes Modell entwickelt, das Krisen im Profifußball objektiv erkennen soll. Mithilfe mathematischer Indikatoren zeigt es, wann Leistungsschwächen über das normale Auf und Ab hinausgehen.

Die Bedeutung von Fußball geht längst über den reinen Sport hinaus. Weltweit gilt die Sportart als enormer Wirtschaftsfaktor und ist gleichzeitig ein kulturelles Massenphänomen. Allein die fünf Top-Clubs Real Madrid, Manchester United, FC Barcelona, FC Liverpool und Bayern München erreichten im Jahr 2025 einen Wert von mehr als 80 Milliarden US-Dollar.

Doch der sportliche Erfolg lässt sich auch mit Milliardenbewertungen nicht garantieren. Denn bleiben die Siege aus, können selbst wirtschaftlich wertvolle Vereine schnell in Krisen geraten.

Doch genau dafür haben Forscher des Karlsruher Instituts für Technologie (KIT) nun ein Frühwarnsystem entwickelt. Denn mit ihrem neuen Krisenmodell für den Profifußball können die Forscher Leistungsabfälle von Mannschaften quantifizieren und so Krisen frühzeitig sichtbar machen.

Forscher entwickeln Frühwarnsystem für den Profifußball

In Krisensituationen gehört ein kurzfristiger Trainerwechsel im Profifußball zu den gängigsten Maßnahmen der Vereinsfunktionäre. Doch wie zielführend das genau ist, lässt sich bisher nur schwer aufzeigen.

Denn Leistungseinbrüche haben oft vielfältige Ursachen und liegen nicht zwangsläufig in der alleinigen Verantwortung des Trainers. Die Forscher des KIT setzen genau hier an und haben ein datenbasiertes Modell entwickelt, mit dem sich sportliche Krisen objektiv analysieren und voneinander abgrenzen lassen.

In ihrer Studie, die im German Journal of Exercise and Sport Research veröffentlicht wurde, zeigen sie, wie sich emotionale und mentale Prozesse im Sport mit mathematischen Modellen abbilden lassen. Mithilfe der Mathematik können hierbei Teamdynamiken greifbar gemacht werden.

„Wir wollten verstehen, wann und warum eine Mannschaft in eine Krise gerät und wie sich solche Phasen anhand objektiver Daten vorhersagen lassen“, erklärt Studienleiter Professor Darko Jekauc, Sportpsychologe am Institut für Sport und Sportwissenschaft (IFSS) des KIT. „Unsere Indizes übersetzen Erwartungen und tatsächliche Ergebnisse in mathematische Kennzahlen, die psychologische Prozesse wie Stimmungslage, Selbstvertrauen und Leistungsdynamik widerspiegeln.“

Wie funktioniert das Frühwarnsystem für den Profifußball?

Für ihre Untersuchung haben die KIT-Forscher die Spiele der Bundesliga-Saison 2023/2024 analysiert. Aus dieser Analyse wurden drei Kennzahlen identifiziert.

Dazu zählt die „Relative Position“, die Abweichungen vom erwarteten Tabellenplatz misst. Diese Kennzahl basiert unter anderem auf dem Marktwert der Mannschaft sowie auf der Vorjahresleistung.

Die zweite Kennzahl, die „Linear Rate of Change“, beschreibt langfristige Trends von Über- oder Unterperformance. Zusätzlich haben den Forscher mit der dritten Kennzahl „Exponential Rate of Change“ (ERC) kurzfristige Leistungsschwankungen erfasst, woraus sie Informationen zum psychologischen Momentum einer Mannschaft ableiten konnten.

Besonders die letzte Kennzahl zu den kurzfristige Leistungsschwankungen war für die Forschenden ein wertvoller Frühindikator. Denn in nahezu allen untersuchten Fällen sank der Wert deutlich, kurz vor der Entlassung eines Trainers.

Ein plötzlicher Einbruch des ERC spiegelt einen Verlust von Energie und kollektiver Überzeugung wider. In genau so einem Moment kippt die Dynamik und aus Verunsicherung wird eine Krise.

Die Kennzahl für den ERC basiert auf der Zahl Phi, dem sogenannten Goldenen Schnitt, der zahlreichen anderen Anwendungsbereichen gängig ist. Die Studie der KIT-Forscher zeigt nun, dass es hier auch Parallelen in psychologischen Prozessen gibt.

„Unser Ziel ist es nicht, den Fußball zu entemotionalisieren“, so Sportpsychologe Jekauc. „Aber wir möchten zeigen, dass auch Leidenschaft, Druck und Selbstvertrauen mathematische Muster hinterlassen. Wenn wir diese Muster verstehen, können wir Krisen nicht nur erkennen, sondern auch verhindern.“

Auch interessant:

Der Beitrag Trainerentlassung unnötig? KI macht Krisen im Fußball messbar erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Studie offenbart: Dynamische Stromtarife entlasten das Stromnetz

Der Beitrag Studie offenbart: Dynamische Stromtarife entlasten das Stromnetz erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

dynamische Stromtarife Stromnetz Entlastung Studie

Das Projekt „Grids & Benefits“ hat dynamische Stromtarife unter die Lupe genommen und zeigt nun, dass Stromnetze damit tatsächlich spürbar entlastet werden können. Gleichzeitig bringen diese auch finanzielle Vorteile für Verbraucher.

Mit dem wachsenden Anteil erneuerbarer Energien am Strommix wird die Stromerzeugung zunehmend wetterabhängig. Solar- und Windkraftanlagen sind naturgemäß auf Sonneneinstrahlung oder starken Wind angewiesen.

In Zeiten von Windflauten oder Dunkelheit hingegen können diese Anlagen deutlich weniger Strom produzieren. Diese Schwankungen gelten als zentrale Herausforderung für die Energiewende und erfordern neue Wege, um Erzeugung und Verbrauch im Stromsystem besser aufeinander abzustimmen.

Dynamische Stromtarife gelten als ein Teil der Lösung, denn diese passen den Strompreis flexibel an Angebot und Nachfrage im Netz an. Das kann beispielsweise abhängig von Tageszeit oder aktueller Auslastung sein.

Sie sollen außerdem als Anregung für Verbraucher dienen, den Strom dann zu nutzen, wenn er reichlich und günstig verfügbar ist. Doch wie wirksam kann der Einsatz von dynamischen Stromtarifen für die Entlastung des Stromnetzes wirklich sein?

Das Innovationsprojekt „Grids & Benefits“ hat genau das in einem Pilotprojekt unter die Lupe genommen. Dabei wurde untersucht, wie Verbraucher auf variable Preissignale reagieren – und ob sich das Laden von E-Autos messbar in Zeiten mit geringerer Netzauslastung verschieben lässt.

„Grids & Benefits“ testet den Einfluss dynamischer Strompreise

Im Rahmen des Projekts „Grids & Benefits“ wurde erstmals in der Praxis untersucht, welchen Einfluss dynamische Strompreise tatsächlich auf das Verhalten von Stromkunden und die Auslastung der Netze haben können. In einem Pilotversuch wurde dabei getestet, ob die Information über variable Preise Verbraucher dazu bewegen können, die Ladevorgänge von E-Autos gezielt zu verschieben.

Unter der Leitung der gemeinnützigen UnternehmerTUM GmbH waren Partner aus der gesamten Wertschöpfungskette an dem Projekt beteiligt. Dazu gehörten unter anderem die RWTH Aachen Universität, EWE Netz, Maingau Energie, Octopus Energy und The Mobility House Energy.

Gemeinsam wurde zunächst ein Grundkonzept für die Berechnung dynamischer Arbeitspreise erarbeitet. Dieses kann Verbrauchern variable Preissignale liefern und gleichzeitig die Netzauslastung gezielt steuern.

Das sich anschließende Pilotprojekt bestand aus zwei zentralen Elementen. So wurden beispielsweise vergünstigte Ladepreise an öffentlichen Ladepunkten als Anreiz für die Nutzung anderer Ladezeitfenster getestet.

Am zweiten Teil der Pilotphase waren 500 Kunden von The Mobility House und Octopus Energy beteiligt. Hier wurde das Laden zu Hause mit dynamischen Netzentgelten unter die Lupe genommen. Über mehrere Monate wurde hier gemessen, welche Auswirkungen die automatisiert Optimierung der Ladevorgänge hat.

Welche Auswirkungen können dynamische Strompreise haben?

Das Innovationsprojekt „Grids & Benefits“ konnze zeigen, dass gezielte Preissignale an Verbraucher die Verschiebung von Ladevorgängen erheblich beeinflussen können. Demnach seien rund 70 Prozent der Ladevorgänge im Vergleich zu Ladeplänen mit statischen Netzentgelt tatsächlich verschoben worden.

Dadurch konnten 20 Prozent der geladenen Energie in andere Zeitfenster verschoben werden. Vor allem aus den typischen Spitzenlastzeiten morgens und abends konnte somit die Netzbelastung deutlich reduziert werden.

Doch nicht nur das Netz profitiert von den geänderten Ladezeitpunkten. Denn auch für Verbraucher birgt die zeitliche Verschiebung der Ladevorgänge einen finanziellen Vorteil.

So wurden beispielsweise die künden von Maingau Energie über vergünstigte Ladezeitfenster über die „Autostrom App“ informiert. Die Testkunden wurden dabei in zwei Gruppen unterteilt: eine erhielt eine Information bei einer Preisreduzierung von zehn Cent, die zweite bei einer einer Preisreduzierung von 20 Cent je Kilowattstunde.

Bei der Kontrollgruppe mit zehn Cent Rabatt pro Kilowattstunde konnten die Projektverantwortlichen einen Anstieg von zwei Prozent der Ladevorgänge messen. Bei der Gruppe mit 20 Cent Ersparnis je Kilowattstunde verlagerten sich zehn Prozent der Ladevorgänge in die sogenannten „supergrünen Stunden“.

Auch interessant:

Der Beitrag Studie offenbart: Dynamische Stromtarife entlasten das Stromnetz erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Aus CO2: Diese Anlage produziert 4 Liter Benzin pro Tag

Der Beitrag Aus CO2: Diese Anlage produziert 4 Liter Benzin pro Tag erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Benzin aus CO2 Erneuerbare Energien Treibstoff Mobilität

Ein Start-up aus den USA will Benzin direkt aus der Luft herstellen. Mit CO2 und Strom sollen bis zu vier Liter am Tag möglich sein. Durch den Einsatz von Erneuerbaren Energien könnte die Kraftstoffproduktion so komplett klimaneutral werden.

Der Kraftstoffverbrauch hat in Deutschland in den vergangenen Jahren zwar kontinuierlich abgenommen. Dennoch wurden im Jahr 2025 rund 13,6 Millionen Tonnen Ottokraftstoffe sowie 26 Millionen Tonnen Dieselkraftstoffe verbraucht.

Trotz des rückläufigen Kraftstoffverbrauchs zeigen die Zahlen, wie groß die Herausforderung für die Erreichung der Klimaziele der Bundesregierung bleibt. Mit insgesamt fast 40 Millionen Tonnen Benzin und Diesel im Jahr 2025 ist der Verkehrssektor weiterhin stark von fossilen Energieträgern abhängig und zählt zu den größten Emittenten.

Als Schlüssel zur Verringerung der Emissionen im Verkehrssektor gelten alternative Antriebslösungen, wie beispielsweise die Elektromobilität. Doch ein Start-up aus den USA verfolgt einen anderen Ansatz und will herkömmliches Benzin direkt aus aus der Luft herstellen.

Diese Maschine wandelt CO2 in Benzin um

Die Anlage des US-Start-ups Aircela nutzt eine wässrige Lösung mit Kaliumhydroxid, um direkt aus der Umgebungsluft CO2 zu filtern und dieses zu binden. Die Umgebungsluft wird dabei über einen Ventilator in das Gerät eingesaugt.

In einem nächsten Schritt wird mit der Hilfe von Elektrolyse Wasser in Wasserstoff und Sauerstoff gespalten. Das Wasser kann dabei direkt über die Hausleitung angeschlossen werden.

Der entstehende Sauerstoff wird nicht benötigt und daher sicher freigesetzt. Den Wasserstoff wiederum nutzt die Anlage für den letzten Produktionsschritt, die Kraftstoffsynthese.

In diesem letzten Schritt kombiniert die Maschine den Wasserstoff und das CO2 zu Methanol. Anschließend wird dieses Methanol in einem zweistufigen katalytischen Prozess in Benzin umgewandelt.

Es handle sich laut Aircela um „sofort einsatzbereites Benzin“. Dieses sei „vollständig kompatibel mit bestehenden Motoren“.

Wie leistungsfähig ist die Anlage?

Aircela hat die Anlage für Privathaushalte entwickelt, weshalb sie auf einem einfachen Plug-and-play-System basiert. Nutzer benötigen für den Einsatz kein technisches Wissen.

Es handelt sich außerdem um ein modulares System, das je nach Bedarf erweitert werden kann und sich sowohl für den Einsatz in Privathaushalten als auch in größeren Anwendungen eignet.

Mit einem Modul können laut Aircela etwa vier Liter Benzin am Tag produziert werden. Dabei zieht das System rund zehn Kilogramm CO2 aus der Luft.

Allerdings benötigt die Maschine von Aircela für den Prozess der Umwandlung in Benzin auch einiges an Energie. Für die vier Liter Benzin verbraucht die Anlage rund 75 Kilowattstunden Strom. Das Start-up arbeitet daher daran, die Energieverluste der Maschine zu reduzieren.

Aktuell arbeitet Aircela mit Beta-Partnern zusammen, um das System unter realen Bedingungen in verschiedenen Umgebungen und Anwendungsfällen zu testen. Auf den Markt kommen sollen die Maschine in zunächst begrenzter Verfügbarkeit in ausgewählten US-Märkten ab Ende 2026.

Auch interessant:

Der Beitrag Aus CO2: Diese Anlage produziert 4 Liter Benzin pro Tag erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •