Lese-Ansicht

Die Emoji-Wirtschaft: Wie Emojis die digitale Teamkultur revolutionieren

Der Beitrag Die Emoji-Wirtschaft: Wie Emojis die digitale Teamkultur revolutionieren erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Business Emojis Bitrix24

Emojis sind längst mehr als bunte Bildchen – sie prägen die moderne Arbeitswelt und beeinflussen, wie Teams weltweit kommunizieren. Erfahre, welche Erkenntnisse die Bitrix24-Studie liefert und wie Unternehmen von Business Emojis profitieren können.

Digitale Kommunikation ist heute das Herzstück der Zusammenarbeit – und Emojis sind dabei nicht mehr wegzudenken. Die Bitrix24-Studie „Die Emoji-Wirtschaft“ zeigt, wie sich die Nutzung von Emojis am Arbeitsplatz entwickelt hat und welchen Einfluss sie auf Teamstimmung, Produktivität und Zusammenhalt haben. Besonders spannend: Deutschland kommuniziert zurückhaltender als viele andere Regionen, und doch steigt auch hier die Akzeptanz von Emojis im Büro stetig an.

Studien-Insights: So verändern Emojis die Teamdynamik

Im Vergleich von Ländern zeigt sich: Brasilien führt mit über 2,5 Millionen Reaktionen pro Monat, gefolgt von den USA, Großbritannien, Kanada und Lateinamerika. Deutschland liegt mit 148.920 Reaktionen deutlich dahinter – ein Spiegel für die eher formelle Kommunikationskultur im deutschsprachigen Raum. Dennoch nimmt die Nutzung auch hier kontinuierlich zu und fördert eine offenere, empathischere Zusammenarbeit.

Emojis sind nicht nur Trend, sondern ein effektives Mittel, um digitalen Austausch menschlicher zu gestalten. 72 % der Mitarbeiter fühlen sich laut Deloitte-Report „gesehen“ und „wertgeschätzt“, wenn digitale Ausdrucksformen wie Emojis, GIFs und Reaktionen zum Alltag gehören. Der Positivitätsindex der Bitrix24-Nutzer stieg von 7,2 im Jahr 2012 auf 11,8 im Jahr 2025 – ein deutlicher Beleg dafür, dass digitale Tools und nonverbale Zeichen das Wohlbefinden am Arbeitsplatz stärken.

Zur Studie: Die Emoji-Wirtschaft

Emojis im Büro: Mehr als nur nette Geste

Die Studie zeigt, dass Emojis im Arbeitsalltag Missverständnisse vermeiden, Feedback verstärken und die emotionale Intelligenz in Teams fördern. Vor allem jüngere Beschäftigte empfinden Emojis als unverzichtbar für Vertrauen und Verbindlichkeit. Aber auch Führungskräfte profitieren: Laut Harvard Business Review wirken sie zugänglicher und stärken das Teamgefüge, wenn sie Emojis gezielt einsetzen.

  • Montag: Start mit starker Reaktionsrate, Höhepunkt am Dienstag und Mittwoch
  • Freitag: Positivität steigt, Vorfreude auf das Wochenende spiegelt sich in Chats wider
  • Wochenende: Kommunikation nimmt ab, aber der Positivitätsindex bleibt hoch

Wichtig bleibt das richtige Maß: Emojis passen in Team- und Projektchats, sollten aber in formellen Mails oder sensiblen Kontexten mit Bedacht eingesetzt werden.

Digitale Kommunikation & HR: Mitarbeiterbindung mit Bitrix24

Die Ergebnisse der Bitrix24-Studie unterstreichen, wie entscheidend digitale Plattformen für modernen Teamzusammenhalt sind. Bitrix24 bietet als Plattform für Mitarbeiterbindung gezielte HR-Features, um Feedback, Auszeichnungen und Teamkultur digital zu fördern. Mit dem Online-Arbeitsplatz für Teamkommunikation lassen sich Chats, Reaktionen und Emojis einfach und sicher in die tägliche Zusammenarbeit integrieren.

Gerade für hybride oder remote Teams sind Emojis ein wichtiger Schlüssel, um Distanzen zu überbrücken und die emotionale Verbindung zu stärken. Dank Bitrix24 können Unternehmen diese Tools gezielt für eine moderne, verbindende Arbeitskultur einsetzen.

Business Emojis: Was Unternehmen jetzt wissen sollten

  • Emojis fördern Teamgeist, Kreativität und psychologische Sicherheit
  • Kulturelle Unterschiede beeinflussen die Nutzung – Offenheit zahlt sich aus
  • Digitale Tools wie Bitrix24 machen das Management von Teamstimmung und Mitarbeiterzufriedenheit messbar

Bitrix24 kostenlos testen

FAQ: Emojis im Büro – die wichtigsten Antworten

Ist die Verwendung von Emojis im Berufsleben in Ordnung?

Ja, sie verbessern Klarheit und Verbindung, solange sie in passenden Situationen eingesetzt werden.

Wann sind Emojis nicht geeignet?

In formellen Dokumenten, rechtlichen Texten oder bei der ersten Kontaktaufnahme mit Kunden und Vorgesetzten.

Welche Länder nutzen die meisten Emojis in Arbeitschats?

Brasilien, USA, UK, Kanada und Lateinamerika führen weltweit.

An welchen Wochentagen gibt es die meisten Reaktionen?

Dienstag und Mittwoch sind die Höhepunkte der Emoji-Kommunikation.

Wie helfen Emojis in Remote-Teams?

Sie machen virtuelle Kommunikation persönlicher und stärken die Verbindung im Team.

Der Beitrag Die Emoji-Wirtschaft: Wie Emojis die digitale Teamkultur revolutionieren erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Künstliche Neugier: Neues KI-Modell trainiert sich selbst

Der Beitrag Künstliche Neugier: Neues KI-Modell trainiert sich selbst erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Künstliche Neugier KI Künstliche Intelligenz trainiert sich selbst

Forscher haben ein neues System entwickelt, mit dem KI-Modelle eigenständig trainieren können, indem sie sich selbst Fragen stellen. Der Ansatz könnte den Weg zu einer künstlichen Superintelligenz ebnen. 

Aktuelle KI-Modelle lernen meist, indem sie mit Daten gefüttert werden und menschliche Intelligenz durch das Erkennen von Mustern und Wahrscheinlichkeiten nachahmen. Ein neues Forschungsprojekt der Tsinghua University könnte diesen Ansatz grundlegend verändern, indem KI lernt, sich selbst Fragen zu stellen, um zu lernen.

Das System namens Absolute Zero Reasoner (AZR) nutzt ein Sprachmodell, um eigenständig herausfordernde Programmierprobleme in Python zu generieren und diese anschließend selbst zu lösen. Dabei führt AZR den Code eigenständig aus, um unmittelbar aus Erfolgen oder dem eigenen Scheitern zu lernen.

Durch diesen technischen Kreislauf soll das Modell seine Fähigkeiten sowohl beim Stellen der Aufgaben als auch bei deren Lösung verfeinern können. Die Forscher stellten fest, dass Modelle mit sieben Milliarden und 14 Milliarden Parametern durch diese Methode ihre Leistungen massiv verbesserten.

Künstliche Neugier: KI trainiert sich selbst

Die Idee der künstlichen Neugier ist nicht neu, sondern greift Konzepte von Pionieren wie Jürgen Schmidhuber und Pierre-Yves Oudeyer auf, die schon früh das Potenzial von „Self-Play“ erforschten. Der Absolute Zero Reasoner übertrifft mit seinem Ansatz aber sogar Systeme, die mit aufwendig von Menschen kuratierten Datensätzen trainiert wurden.

Dieser Fortschritt belegt die Effizienz autonomer Lernmethoden für die künftige Entwicklung intelligenter Systeme. Die Schwierigkeit der Aufgaben steigt dabei parallel zur Leistungsfähigkeit des Modells.

Dieser Skalierungseffekt könnte laut den beteiligten Forschern den Weg zu einer künftigen Superintelligenz ebnen, die über das Wissen menschlicher Lehrer hinauswächst. In der täglichen Praxis könnte KI dann beispielsweise komplexe Büroarbeiten übernehmen oder eigenständig tiefergehende Recherchen im Internet durchführen.

Digitale Agenten der Zukunft

In der Tech-Branche gewinnt das neue Verfahren an Bedeutung, da herkömmliche Datenquellen für das Training neuer Modelle zunehmend knapper und teurer werden. Ein Projekt namens Agento von Salesforce nutzt bereits ähnliche Prinzipien, um die allgemeine Argumentationsfähigkeit seiner digitalen Agenten durch experimentelles Problemlösen zu stärken.

Auch Forscher von Meta entwickeln Systeme, die Self-Play für das Software-Engineering einsetzen und damit die Grundlage für hochbegabte Software-Agenten schaffen. Die Abkehr vom reinen Kopieren menschlicher Vorlagen stellt einen Wendepunkt in der KI-Entwicklung dar.

Anstatt lediglich vorhandenes Wissen zu reproduzieren, erschließt sich das System durch das Experimentieren mit Code neue Lösungswege.

Auch interessant:

Der Beitrag Künstliche Neugier: Neues KI-Modell trainiert sich selbst erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Für Siri: Apple kauft sich Gemini-Intelligenz von Google

Der Beitrag Für Siri: Apple kauft sich Gemini-Intelligenz von Google erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Siri Google Gemini Apple KI Künstliche Intelligenz

Apple und Google haben eine Partnerschaft bekannt gegeben, die Gemini als Grundlage der Software-Entwicklung des iPhone-Konzerns vorsieht. Ziel ist es, den Sprachassistenten Siri ins KI-Zeitalter zu katapultieren. Das dürfte Hoffnung bei vielen Apple-Fans wecken und Aktionären Freudentränen in die Augen treiben. Der Deal ist aber nicht ganz unbedenklich. Eine kommentierende Analyse.

Mit Gemini: Apple will Siri ins KI-Zeitalter bringen

  • Google-Technologien wie Gemini sollen im Rahmen einer mehrjährigen Vereinbarung künftig als Grundlage der Software-Entwicklung von Apple dienen. Vor allem der Sprachassistent Siri soll in das KI-Zeitalter gebracht werden. Berichten zufolge soll Google aber keine Exklusivrechte erhalten. Für Apple bedeutet die Integration dennoch eine Abkehr von der bisherigen Strategie, Kerntechnologien ausschließlich im eigenen Haus zu entwickeln.
  • Mit Apple Intelligence startete der iPhone-Konzern zwar eigene KI-gestützte Funktionen – etwa für die Fotosuche und Benachrichtigungen auf Apple-Geräten. Diese blieben bislang aber hinter den Erwartungen zurück. Das von vielen Apple-Fans lang ersehnte KI-Update für Siri wurde zudem bereits mehrmals verschoben und lässt seit über einem Jahr auf sich warten. Apple lässt sich den Gemini-Deal deshalb rund eine Milliarde US-Dollar pro Jahr kosten.
  • Das Thema Datenschutz spielt für Apple eine große Rolle und ist mittlerweile zu so etwas wie einem Produktversprechen geworden. Um Gemini in Siri zu integrieren soll ein Großteil der Datenverarbeitung deshalb weiterhin auf Apple-Geräten oder auf einer kontrollierte Infrastruktur erfolgen. Das Unternehmen betont, dass Google die eigenen Datenschutzstandards einhalten wird. Wie das in der Praxis aussehen soll, ist bislang aber unklar.

Google könnte OpenAI den Rang ablaufen

Google könnte OpenAI im KI-Wettstreit bald endgültig den Rang ablaufen. Mit Gemini 3 hat das Unternehmen bereits deutlich an Boden gut gemacht, da Google seinen Chatbot clever als eine Art Anti-ChatGPT positioniert hat.

Da Google mit der KI ein Modell an den Start gebracht hat, das sich in zahlreiche Dienste und Plattformen integrieren lässt, hat OpenAI bereits den Code Red ausgerufen und zum Gegenschlag ausgeholt.

Der Deal mit Apple dürfte Googles Dominanz weiter verstärken und der KI-Konkurrenz die Sorgenfalten auf die Stirn treiben. Denn die Zusammenarbeit geht weit über die ChatGPT-Integration auf dem iPhone hinaus. Google gewährt seinen Partnern oftmals zudem Zugang zu Daten wie Nutzer-Interaktionen, die nicht nur für eine reibungslose Funktion, sondern auch für Werbeanzeigen relevant sind.

Die neue Apple-Google-Achse könnte deshalb zu einer weiteren monopolistischen Vormachtstellung führen, die auch die Wettbewerbsbehörden im Auge haben dürften. Eine Abhängigkeit von Gemini sowie eine Abkehr von ChatGPT könnte auf Nutzerebene eine weitreichende Folge sein.

Stimmen

  • Apple und Google ließen in einem gemeinsamen Statement verlauten: „Apple und Google haben eine mehrjährige Zusammenarbeit vereinbart, in deren Rahmen die nächste Generation der Apple Foundation Models auf den Gemini-Modellen und der Cloud-Technologie von Google basieren wird. Diese Modelle werden dazu beitragen, zukünftige Apple Intelligence-Funktionen zu unterstützen, darunter eine personalisiertere Siri-Funktion, die noch in diesem Jahr eingeführt werden soll.“
  • Aufgrund der Brisanz des Deals, ließen die Reaktionen von anderen Tech-Bossen nicht lange auf sich warten. Elon Musk, der mittlerweile ebenfalls im KI-Wettstreit mitmischt, in einem Beitrag auf seiner Plattform X (ehemals Twitter): „Dies scheint eine unangemessene Machtkonzentration für Google zu sein, da das Unternehmen auch Android und Chrome besitzt.“
  • Für einen Reddit-Nutzer gesteht Apple mit dem Gemini-Deal seine eigene Unfähigkeit ein. Auf der Plattform spottet er: „Apple hat mit seinen Prozessoren der M-Serie einen Volltreffer gelandet, aber seine Software-Sparte ist eine verdammte Meisterklasse in Sachen Peinlichkeit.“

Wann kommt Siri mit Gemini?

Die Kooperation zwischen Apple und Google wird dazu führen, dass Gemini künftig nicht mehr ausschließlich auf Google-Smartphones in Erscheinung tritt, sondern auch in den Händen von iPhone-Nutzern landet. Der Deal dürfte den Umsatz des Suchmaschinen-Giganten im Jahr 2026 deutlich ankurbeln.

Google will zudem zahlreiche weitere KI-Funktionen präsentieren und Werbung über einen KI-Modus schalten. Doch auch Apple könnte profitieren, falls es dem Unternehmen gelingt, im KI-Wettstreit mit einem runderneuerten Siri auf Basis von Gemini aufzuholen.

Es wird letztlich vieles davon abhängen, ob es Apple schafft, Gemini mit seinem Datenschutz-Versprechen und Siri in Einklang zu bringen und in sein Ökosystem zu integrieren. Eine neue Siri-Version könnte dann bereits im Frühjahr 2026 auf den Markt kommen – etwa mit der Veröffentlichung von iOS 26.4.

Bis der neue Sprachassistent nach Deutschland kommt, wird es aufgrund regulatorischen Vorgaben aber vermutlich länger dauern, ähnlich wie bei Apple Intelligence.

Auch interessant:

Der Beitrag Für Siri: Apple kauft sich Gemini-Intelligenz von Google erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Wärmepumpen: Deutsche Firma will Propan-Problem gelöst haben

Der Beitrag Wärmepumpen: Deutsche Firma will Propan-Problem gelöst haben erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Wärmepumpe Propan

Mit deutlich reduzierter Füllmenge des natürlichen Kältemittels Propan will ein deutscher Hersteller ein zentrales Sicherheitsproblem moderner Wärmepumpen entschärfen. Möglich macht das eine neue Bauweise, die hohe Effizienz und Sicherheitsanforderungen verbindet.

Die Bundesregierung setzt in ihren Klimazielen stark auf Wärmepumpen als Schlüsseltechnologie für die Wärmewende. Bis zum Jahr 2030 sollen rund sechs Millionen Wärmepumpen in Deutschland installiert sein.

Um dieses Ziel zu erreichen, ist ab 2024 ein jährlicher Zubau von mindestens 500.000 Geräten vorgesehen. Damit sollen fossile Heizungen schrittweise ersetzt und die CO2-Emissionen im Gebäudesektor deutlich reduziert werden.

Trotz ihres Potenzials für die Energiewende können Wärmepumpen durch die eingesetzten Kältemittel auch klimaschädlich sein. Das natürliche Kältemittel Propan stellt hierzu eine Alternative dar. Allerdings erhöht seine Brennbarkeit die Sicherheitsanforderungen bei Entwicklung, Installation und Betrieb der Wärmepumpen.

Das Fraunhofer-Institut für Solare Energiesysteme ISE hat deshalb zusammen mit dem deutschen Unternehmen Ait-Group an einer Lösung für dieses Problem gearbeitet. Dabei konnte die Menge des Kältemittels Propan auf unter 150 Gramm reduziert werden, was die Brandgefahr deutlich minimiert.

Propan: So werden Wärmepumpen weniger gefährlich

Bereits im Jahr 2020 haben das Fraunhofer ISE und die bayerische Ait-Group das Projekt „Low Charge 150“ (LC150) ins Leben gerufen. Zusammen sollte ein Wärmepumpenkonzept entwickelt werden, das die Verwendung des natürlichen Kältemittels Propan in deutlich reduzierter Menge ermöglicht.

Das Forschungsteam konnte dabei mit einer Füllmenge von nur 124 Gramm Propan nach eigenen Angaben einen Effizienzrekord erreichen. Die Heizleistung konnte mit dieser Kältemittelmenge auf 12,8 Kilowatt gesteigert werden.

Pro Kilowatt ergab sich daraus eine spezifische Kältemittelfüllmenge von rund zehn Gramm. Das Ziel des Projekts waren 15 bis 30 Gramm pro Kilowatt – das Team habe die Projektziele damit deutlich übertroffen.

Mit Hilfe der Projektergebnisse konnte die Ait-Group nun eine serienreife Wärmepumpe entwickeln, die auf eine sehr geringe Kältemittel-Füllmenge angewiesen ist. „Unser Ziel war es, die im Projekt gewonnenen Erkenntnisse gezielt in die Entwicklung der nächsten Generation hocheffizienter und umweltfreundlicher Wärmepumpen einfließen zu lassen“, erklärt Edgar Timm, Director R+D der Ait-Group.

Sole-Wärmepumpe soll in Ein- und Mehrfamilienhäusern zum Einsatz kommen

Trotz des brennbaren Materials sind Wärmepumpen mit dem Kältemittel Propan grundsätzlich auch für den Einsatz in Gebäuden geeignet. Bislang erforderte der Einsatz jedoch zusätzliche technische Vorkehrungen in Form eines aktiven Lüftungskonzepts.

Bei den Modellen alpha innotec WZSV 63 und NOVELAN WSV 6.3 der Ait-Group, die auf den Forschungsergebnissen des Projekts LC150 basieren, kann auf ein solches Lüftungskonzept jedoch verzichtet werden. Denn obwohl die Sole-Wärmepumpen Propan als Kältemittel nutzen, ist ein solches Konzept laut dem Hersteller nicht nötig.

Denn für den Fall des Austritts von Kältemittel seien die Geräte so konzipiert, dass maximal nur 150 Gramm des natürlichen Kältemittels freigesetzt werden. Dadurch sei ein sicherer Betrieb in Innenräumen gewährleistet und ein zusätzliches Lüftungskonzept nicht erforderlich.

Die Wärmepumpen wurden für den platzsparenden Einsatz in Ein- und Mehrfamilienhäusern entwickelt. Durch ein herausnehmbares Kältekreis-Modul sollen auch Transport und Installation vereinfacht werden.

Auch interessant:

Der Beitrag Wärmepumpen: Deutsche Firma will Propan-Problem gelöst haben erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Das waren die meistverkauften Autos im Jahr 2025

Der Beitrag Das waren die meistverkauften Autos im Jahr 2025 erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

VW T-Roc Auto Wagen SUV Straße

Elektroautos sind auf dem Vormarsch – entsprechend tut sich auf dem deutschen Automarkt mehr, als in vielen Jahren zuvor. Wir blicken auf die Neuzulassungen des letzten Jahres und untersuchen, wie sich klassische Modelle und Newcomer platzieren konnten.

Immer wieder hört man schlechte Nachrichten aus der deutschen Automobilbranche. Allerdings konnte sich die Industrie im vergangenen Jahr auf einem moderaten Niveau stabilisieren. Insgesamt wurden 2025 rund 2,9 Millionen Neuzulassungen registriert. Das entspricht einem Zuwachs von 1,4 Prozent im Vergleich zum Vorjahr. Besonders der Endspurt im Dezember sorgte mit einem Plus von 9,7 Prozent für einen versöhnlichen Jahresausklang bei den Herstellern.

Diese Autos wurden 2025 am meisten verkauf

Der große Trend sind natürlich Elektroautos. Batterieelektrische Fahrzeuge (BEV) konnten um beeindruckende 43,2 Prozent zulegen und sich so einen Marktanteil von 19,1 Prozent sichern. Für die klassischen Benziner ging es hingegen steil bergab. Der Rückgang von 21,6 Prozent verdeutlicht, dass die Transformation trotz aller gesellschaftlicher Debatten mit großen Schritten voranschreitet. Bei Plug-in-Hybriden lag der Zuwachs sogar bei über sechzig Prozent.

Abseits der Top Ten gab es einige bemerkenswerte Aufsteiger, die man für die Zukunft auf dem Zettel haben muss. Allen voran konnte der chinesische Hersteller BYD ein großes Wachstum von über 700 Prozent verzeichnen. Das Modell BYD Seal U fand bereits fast zehntausend Käufer. Im krassen Gegensatz dazu musste der einstige Elektro-Pionier Tesla, der fast die Hälfte seines Vorjahresvolumens verlor, einen Schlag in die Magengrube hinnehmen.

Gewerbliche Halter waren für zwei Drittel der Neuwagen verantwortlich. Trotzdem kamen privat gekaufte PkW auf ein Plus von 5,1 Prozent (via Autohaus). Wir wollen aber wissen, welche Modelle sich 2025 generell am besten verkaufen konnten.

Platz 10: Audi A6

Der Audi A6 eröffnet die Top Ten mit 37.505 Neuzulassungen. Der A6 ist damit einer der wenigen Vertreter der oberen Mittelklasse, die den Sprung in unser Ranking geschafft haben.

sparsamsten Diesel, ADAC, Verbrauch, Kosten, Gesamtkosten, Grundpreis, CO2-Ausstoß, Kraftstoff, Auto, Mobilität, Fahrzeug, Automobil-Industrie
Foto: Audi

Der Beitrag Das waren die meistverkauften Autos im Jahr 2025 erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Forscher entdecken simplen Weg, um Festkörperbatterien zu verbessern

Der Beitrag Forscher entdecken simplen Weg, um Festkörperbatterien zu verbessern erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Festkörperbatterien

Weltweit suchen Forscher nach langlebigen, sicheren und günstigen Batterien. Wissenschaftler aus Südkorea haben nun gezeigt, dass eine clevere Materialgestaltung Festkörperbatterien deutlich verbessern kann – ganz ohne teure Metalle.

Eine Entdeckung südkoreanischer Forscher könnte Festkörperbatterien grundlegend verändern und auf ein neues Leistungsniveau heben. Denn den Forschern gelang es, die Leistungsfähigkeit der Batterien durch eine clevere Materialgestaltung deutlich zu verbessern – und zwar ohne teure Metalle.

Der neue Ansatz soll die Herstellung zudem effizienter machen und dadurch Kosten reduzieren. Eine Massenproduktion leistungsstarker Festkörperbatterien könnte damit in greifbare Nähe rücken.

Festkörperbatterie: Bessere Batterielaufzeit durch Framework-Mechanismus

Im Zentrum der Entwicklung steht der sogenannte „Framework-Regulation-Mechanismus“. Die Forscher nutzen ein spezielles Zusammenspiel von Sauerstoff- und Schwefel-Anionen, um die atomaren Wege innerhalb der Batterie zu regulieren.

Diese Atome weiten die Gitterstrukturen auf und machen die Straßen für die Ionen sprichwörtlich deutlich breiter. Dadurch können die Ladungsträger viel schneller und ungehinderter durch das Material fließen. Durch die strukturelle Anpassung konnten die Experten die Beweglichkeit der Lithium-Ionen um das Zwei- bis Vierfache steigern.

Ihre Messwerte zeigen eine Ionenleitfähigkeit von 1,78 Millisiemens pro Zentimeter (mS/cm) beziehungsweise 1,01 Millisiemens pro Zentimeter bei Raumtemperatur. Diese Ergebnisse belegen die Marktreife der Technologie, da sie eine zuverlässige Leistungsabgabe unter realen Alltagsbedingungen garantieren.

Maximale Sicherheit für dein nächstes Smartphone

Ein wesentlicher Vorteil der Technologie ist die erhöhte Sicherheit im Vergleich zu herkömmlichen Akkus. Da keine brennbaren flüssigen Elektrolyte verwendet werden, sinkt das Risiko für Brände oder Explosionen auf ein Minimum. Das bedeutet nicht nur mehr Leistung, sondern verspricht auch mehr Sicherheit für Elektroautos.

Professor Dong-Hwa Seo betont, dass das Designprinzip die Kosten und Leistung von Batterien durch den Einsatz günstiger Rohstoffe wie Zirkonium optimiert. Laut den Forschern ist das Potenzial für eine industrielle Anwendung sehr hoch, da der Fokus nun auf dem klugen Design statt nur auf der Materialwahl liegt.

Auch interessant:

Der Beitrag Forscher entdecken simplen Weg, um Festkörperbatterien zu verbessern erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Metaverse: Wie Mark Zuckerberg ein Milliardengrab schaufelte

Der Beitrag Metaverse: Wie Mark Zuckerberg ein Milliardengrab schaufelte erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Metaverse Meta Mark Zuckerberg

Facebook-Gründer Mark Zuckerberg hatte Ende 2021 den Traum von einer virtuellen Welt, in der es keine Grenzen gibt. Eine digitale Parallelwelt sollte es sein, in der Virtualität und Realität miteinander verschmelzen. Doch der Plan scheiterte. Denn dem Unternehmen gelang es nicht einmal, zu erklären, was das Metaverse sein soll. Eine kommentierende Analyse.

Was ist das Metaverse?

  • Facebook-Gründer Mark Zuckerberg präsentierte im Oktober 2021 seinen Metaverse-Traum, infolgedessen er das Unternehmen in Meta umbenannte. Seine Idee: Ein virtueller Raum, in dem soziale Online-Erlebnisse mit der realen Welt verschmelzen – inklusive dreidimensionaler Projektionen und Erfahrungen.
  • Vom anfänglichen Hype ist nicht mehr viel übrig. Es gibt vereinzelte virtuelle Welten wie digitale Arbeitsräume, Gaming-Umgebungen oder Social Media-Räume, aber eben nicht „das“ eine Metaverse. Meta sah sich zwar niemals als Alleinherrscher, versuchte aber, eigene virtuelle Räume mit denen anderer Unternehmen zu verknüpfen. In Zahlen gab man dafür 100 Milliarden US-Dollar aus. Der operative Verlust soll bei 80 Milliarden US-Dollar liegen.
  • Wie das Handelsblatt unter Berufung auf Insider berichtet, will Meta rund 30 Prozent der bisherigen finanziellen Mittel für das Metaverse streichen. Zum Jahresanfang 2026 sei demnach mit Entlassungen zu rechnen. Vor allem die virtuellen Welten Horizon Worlds und die Virtual Reality-Sparte Quest sollen von den Einsparungen betroffen sein.

Metaverse: Ein milliardenschwerer Albtraum

Mark Zuckerbergs Metaverse-Traum entpuppt sich bislang als milliardenschwerer Albtraum, bei dem jeder Investor schreiend die Flucht ergreifen dürfte. Der wahre Knackpunkt liegt aber nicht beim Geld, sondern im Konzept.

Denn: Meta bastelte bislang an einem virtuellen Raum, der Dinge verändern sollte, die niemand verändern wollte. Die Realität ist entsprechend ernüchternd und das große Versprechen bleibt aus. Doch der Fehlschuss hat auch Möglichkeiten eröffnet, um virtuelle Realitäten sinnvoll zu nutzen – etwa im Bildungsbereich oder der Industrie.

Ob man dafür Milliarden hätte versenken müssen, ist aber mehr als fraglich. Mark Zuckerbergs ursprünglicher Metaverse-Traum dürfte deshalb als einer der teuersten Fehlgriffe in die Tech-Geschichte eingehen. Denn: Mit 100 Milliarden US-Dollar hätte man auch sinnvoll Armut, Krankheiten und den Klimawandel bekämpfen können.

Stimmen

  • Mark Zuckerberg Ende 2021 in einem Schreiben zur Umstrukturierung von Facebook in Meta: „Die nächste Plattform wird noch immersiver sein – ein verkörpertes Internet, in dem Sie Teil der Erfahrung sind und sie nicht nur betrachten. Wir nennen dies das Metaversum, und es wird jedes Produkt betreffen, das wir entwickeln.“
  • Meta Reality Labs-Chef Andrew Bosworth machte bereits Anfang 2025 Druck auf seine Abteilung. In einer internen Memo schrieb er: „Dieses Jahr wird wahrscheinlich entscheiden, ob all unsere Arbeit als visionärer Durchbruch oder als legendäres Missgeschick in die Geschichte eingehen wird. Wir müssen Umsatz, Kundenbindung und Engagement auf breiter Front steigern. Wer das Gewicht der Geschichte nicht spürt, der hat nicht richtig aufgepasst.“
  • Bitkom-Hauptgeschäftsführer Bernhard Rohleder ordnete die Situation Mitte 2024 wie folgt ein: „Die erste Euphorie über das Metaverse ist zwar abgeklungen, es gibt aber keinerlei Grund für einen Abgesang. Im Gegenteil: Gerade im gewerblichen Bereich sind bereits viel Anwendungen im Praxiseinsatz. Das gilt unter anderem für das Industrial Metaverse mit digitalen Zwillingen in der Fertigung.“ Der Digitalverband hält nach wie vor an dieser Einschätzung fest.

Metaverse als Geschäftsmodell gescheitert

In seiner jetzigen Form ist das Metaverse als Geschäftsmodell krachend gescheitert. Denn: Einnahmen und Ausgaben stehen in keinem Verhältnis. Dennoch gibt es Bereiche, in denen sich ein Mehrwert gewinnen lässt. Beispielsweise im Gaming, bei Bildungsplattformen oder für Schulungsmaßnahmen.

Der Otto Normalverbraucher braucht aber keine Kopie der Realität, sondern ein Werkzeug, das Probleme löst. Weitaus realistischer erscheint deshalb eine Zukunft, in der leichte AR-Brillen oder Smart Glases statt klobige VR-Headsets das Gesicht zieren. Nicht, um die Realität zu ersetzen, sondern um sie zu erweitern.

Auch Mark Zuckerberg dürfte dies mittlerweile erkannt haben und weiter umstrukturieren. Budgetkürzungen, Entlassungen und eine Fokussierung auf rentable Sparten sind die traurige wie logische Konsequenz. Doch während die große Metaverse-Euphorie weiter verblassen dürfte, entstehen Nischen, in denen die Metaverse-Idee auf echte Probleme treffen und diese lösen könnte.

Auch interessant:

Der Beitrag Metaverse: Wie Mark Zuckerberg ein Milliardengrab schaufelte erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

„Super-Thermoskanne“: Neue Geothermie-Technik holt Wärme aus der Tiefe

Der Beitrag „Super-Thermoskanne“: Neue Geothermie-Technik holt Wärme aus der Tiefe erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Geothermie Wärme Erdwärme, Erneuerbare Energien

In Brandenburg wird an einer neuartigen Tiefengeothermie-Technologie gearbeitet, die Wärme aus mehreren Kilometern Tiefe nahezu verlustfrei an die Oberfläche bringen soll. Kern des Konzepts ist ein vakuumisoliertes Rohrsystem, das wie eine überdimensionierte Thermoskanne funktioniert.

Geothermie kann ganzjährig verfügbare, klimaneutrale Wärme liefern und ist unabhängig von Wetter, Tages- oder Jahreszeit. Vor allem im Vergleich zur Sonnen- oder Windenergie bringt sie damit entscheidende Vorteile für die Klimawende, da weder Wind- noch Dunkelflauten sie beeinträchtigen.

Gerade im Wärmesektor, der in Deutschland für einen großen Teil der CO2-Emissionen verantwortlich ist, bietet die Geothermie das Potenzial, fossile Energieträger wie Gas oder Öl dauerhaft zu ersetzen. Bislang wurde ihr Ausbau jedoch unter anderem durch hohe Investitionskosten, technische Risiken bei Tiefbohrungen oder Wärmeverluste auf dem Weg zur Oberfläche gebremst

Ein Projekt in der Brandenburger Schorfheide könnte zumindest das letzte Problem lösen. Denn hier erprobt das dänische Startup Green Therma zusammen mit dem Helmholtz-Zentrum für Geoforschung (GFZ Potsdam) einen neuen Ansatz. Dieser funktioniert ähnlich wie eine überdimensionierte Thermoskanne und kann Wärme aus Kilometern Tiefe nahezu verlustfrei an die Oberfläche bringen.

Diese Geothermie-Technik funktioniert wie eine „Super-Thermoskanne“

Das dänische Geothermie-Startup Green Therma will mit seinem neuartigen, vakuumisolierten Bohrlochsystem die Nutzung tiefer Erdwärme wirtschaftlicher und breiter einsetzbar machen. Herzstück der Technologie ist ein geschlossener Kreislauf, der die aus mehreren Kilometern Tiefe gewonnene Wärme nahezu verlustfrei an die Oberfläche transportieren soll.

Im Vergleich zur bisher herkömmlichen Tiefengeothermie benötigt das DualVac-System nur ein Bohrloch, nicht mehr zwei. In diesem Bohrloch arbeitet ein vakuumisoliertes Rohr. Durch dieses Rohr kann die Wärme, die in drei Kilometern Tiefe mehr als 100 Grad Celsius beträgt, nach oben befördert werden.

Zusätzlich müssen für dieses System nicht zwingend neue Bohrungen stattfinden. Denn das dänische Startup will auch alte, ungenutzte Bohrlöcher umfunktionieren und so Ressourcen schonen.

Test in Brandenburg soll Machbarkeit zeigen

Am Forschungsstandort Groß Schönebeck in Brandenburg wollen das Helmholtz-Zentrum für Geoforschung und Green Therma dieses System nun testen. In dem Projekt soll die direkte Nutzung von Erdwärme für Fernwärme untersucht werden.

Bereits im Jahr 2025 haben die Projektpartner das Brunnen-Bohrloch auf seine Eignung überprüft. Die vollständige Inbetriebnahme ist voraussichtlich für die erste Hälfte des Jahres 2026 geplant. Die Anlage wird dann nach Inbetriebnahme ein Jahr lang einem Stresstest unterzogen.

Geht dieser Test positiv zu Ende, könnte sich die Nutzung von Erdwärme deutlich ausweiten. Denn so könnte Geothermie auch in größeren Tiefen wirtschaftlich nutzbar gemacht werden. Damit hätte die Technologie das Potenzial, Erdwärme zu einer verlässlichen Säule der klimaneutralen Wärmeversorgung für Städte und Industrie werden zu lassen.

Auch interessant:

Der Beitrag „Super-Thermoskanne“: Neue Geothermie-Technik holt Wärme aus der Tiefe erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Das sind die besten Powerbanks – laut Stiftung Warentest

Der Beitrag Das sind die besten Powerbanks – laut Stiftung Warentest erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

besten Powerbanks

Mit einer Powerbank ist es möglich, Zeiten ohne ausreichende Akkuversorgung oder Zugang zu einem Ladekabel mit Strom zu überbrücken. Dafür braucht es aber auch eine zuverlässige Powerbank. Unser wöchentliches Ranking zeigt dir, was die besten Powerbanks sind – zumindest, wenn es nach Stiftung Warentest geht.

Wer kennt das nicht: man ist im Zug oder Auto unterwegs und der Smartphone-Akku neigt sich dem Ende entgegen. Eine Steckdose? Weit entfernt. In einem solchen Fall können Powerbanks eine echte Hilfe (und manchmal sogar Rettung sein). Allerdings nur, wenn die ausgesuchte Powerbank auch wirklich etwas taugt und das Smartphone zuverlässig aufladen kann.

Somit ist es wichtig, sich vor dem Kauf der richtigen Powerbank genau zu informieren und darauf zu achten, wie zuverlässig und gut diese arbeitet. Unser aktuelles Ranking zeigt die zehn besten Powerbanks, die es laut Stiftung Warentest derzeit gibt. So kannst du einfach herausfinden, welche Powerbank für deine Zwecke am besten geeignet ist und wirklich einen Mehrwert bietet.

Die besten Powerbanks

Für die besten Powerbanks muss man natürlich ein wenig mehr Geld investieren, als für einfache Modelle, die man manchmal beim Discounter finden kann. Doch dafür bekommt man auch eine entsprechend hohe Qualität und kann davon ausgehen, dass diese Powerbanks auch mehrere Ladezyklen zuverlässig und sicher aushalten und das Smartphone-Akku effektiv entlasten. Das sind die zehn besten Powerbanks:

Dieser Beitrag enthält Affiliate-Links, für die wir eine kleine Provision erhalten. Diese hat jedoch keinen Einfluss auf die inhaltliche Gestaltung unserer Beiträge.

Dieser Beitrag enthält Affiliate-Links, für die wir eine kleine Provision erhalten. Das hat jedoch keinen Einfluss auf die inhaltliche Gestaltung unserer Beiträge.

Platz 10: Iniu 45W Mini-Power-Bank P50

Die Iniu 45W Mini-Power-Bank P50 belebgt im Ranking der besten Powerbanks den zehnten Platz. Mit etwa 40 Euro ist sie recht erschwinglich und bietet dafür eine mehr als solide Leistung. 2,3 lautet das Qualitätsurteil von Stiftung Warentest und die Iniu 45W Mini-Power-Bank P50 ist vor allem bei der Stabilität (Note 2,0) vorn mit dabei.

Der Beitrag Das sind die besten Powerbanks – laut Stiftung Warentest erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Winziges Leistungsmodul könnte weltweiten Energiebedarf reduzieren

Der Beitrag Winziges Leistungsmodul könnte weltweiten Energiebedarf reduzieren erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Leistungsmodul Energiebedarf Rechenzentren

Forscher haben ein neues Leistungsmodul entwickelt, um die Effizienz von Rechenzentrum zu optimieren. Es verspricht eine bis zu fünfmal höhere Energiedichte bei geringem Widerstand.

Der globale Energiebedarf steigt kontinuierlich an. Ein Grund ist die zunehmende Verbreitung von KI-Systemen. Forscher des NREL stellten deshalb kürzlich einen Ansatz vor, um den Energiebedarf von Rechenzentren zu reduzieren: ein neues Leistungsmodul auf Siliziumcarbid-Basis.

Die Wissenschaftler erzielten Effizienz- und Speicherdichte-Werte, die es bisher in dieser Form bisher nicht gab. Das System hört auf den Namen Smart-Power-Modul mit extrem niedriger Induktivität (ULIS). Es soll eine bis zu fünfmal höhere Energiedichte als bisherige Ansätze auf Siliziumcarbid-Basis haben.

Im Ergebnis könnten Hersteller kompaktere, leichtere und energieeffizientere Systeme herstellen. Darunter fallen Datenzentren, Stromnetze, Mikroreaktoren oder Flugzeuge.

Neues Leistungsmodul könnte die Energiekrise bewältigen

Insgesamt kann das ULIS bis zu 1.200 Volt und 400 Ampere bereitstellen. Ein weiterer Vorteil ist eine außergewöhnlich geringe parasitäre Induktivität. Dabei handelt es sich um den internen Widerstand, der die Geschwindigkeit begrenzt, mit der sich Strom verändern lässt.

Durch eine Reduktion um den Faktor sieben bis neun kann so mehr Energie aus der gleichen Stromquelle extrahiert werden. Zudem soll sich ULIS besonders für sich stark verändernde Umgebungen eignen. Das Leistungsmodul soll kontinuierlich seinen eigenen Zustand überprüfen, um Fehler vorzubeugen.

Forscher denken Design neu

Der Hauptfaktor des neuen Leistungsmoduls ist ein komplett neues Design. Bei bisher gängigen Modulen sind die Bauelemente in einem Ziegelstein-ähnlichen Gehäuse untergebracht.  Im Gegensatz dazu sind die Schaltkreise von ULIS um ein flaches, achteckiges Design gewickelt. Dieses schirmt externe Störfaktoren ab und kann auf dem gleichen Raum zusätzliche Komponenten unterbringen.

Ein weiterer Vorteil liegt in dem Material des Gehäuses. Es basiert auf einem Kunststoff und hat dadurch ein geringeres Gewicht. Zudem kann das System komplett kabellos betrieben werden. Das macht es flexibler einsetzbar.

Auch interessant: 

Der Beitrag Winziges Leistungsmodul könnte weltweiten Energiebedarf reduzieren erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

EU-Behörde blamiert sich mit KI-Panne

Der Beitrag EU-Behörde blamiert sich mit KI-Panne erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

ENISA EU-Behörde KI Panne Künstliche Intelligenz

Die Agentur der Europäischen Union für Cybersicherheit (ENISA) hat in einem aktuellen Lagebericht vor den Gefahren von KI gewarnt. Das Problem: Die EU-Behörde hat beim Verfassen des Berichts offenbar selbst KI-Tools eingesetzt, wodurch sich Fehler eingeschlichen haben. Viele der angegebenen Quellen existieren etwa gar nicht. Eine kommentierende Analyse.

ENISA warnt vor KI

  • Bereits im Oktober 2025 erschien der „Gefahren-Lagebericht“ der ENISA, in dem die Behörde eindringlich vor den Gefahren Künstlicher Intelligenz warnt. Laut dem 87-seitigen Report würde KI in rund 80 Prozent aller Fälle Hackern helfen, Nutzern ihre Passwörter zu entlocken. Betrügereien nehmen durch Künstliche Intelligenz zu, so die berechtigte Warnung.
  • Wie der Spiegel (€) zuerst berichtete, haben IT-Sicherheitsforscher vom Institut für Internet-Sicherheit an der Westfälischen Hochschule festgestellt, dass ausgerechnet der ENISA-Bericht zur Gefahrenlage von KI offenbar nicht nur von Menschen verfasst, sondern von Künstlicher Intelligenz verfasst wurde. Von den insgesamt 496 Quellen in Form von Links führten 26 deshalb zu 404-Fehlermeldungen, da sie nie existiert hatten.
  • Die ENISA hat ihren Sitz in Griechenland. Sie hat die Aufgabe, „einen Beitrag zur Cyberpolitik der EU“ zu leisten. Ziel ist es, das Vertrauen in digitale Produkte, Dienste und Prozesse „durch die Konzeption von Systemen für die Cybersicherheitszertifizierung“ zu stärken. Dazu arbeitet sie mit den EU-Ländern und -Einrichtungen zusammen.

EU-Behörde blamiert sich mit KI-Panne

Der Vorgang ist weniger ein KI-Skandal als ein klassisches Qualitäts- und Kontrollversagen. Dass auch Behörden KI einsetzt, ist inzwischen üblich und zunächst einmal nicht problematisch.

Brisant wird der Fall aber dadurch, dass grundlegende journalistische und wissenschaftliche Mindeststandards wie die simple Überprüfung von Quellen offenbar nicht eingehalten wurden.

Der traurige Umkehrschluss: Die überwiegend berechtigten inhaltlichen Kernaussagen und Warnungen des Berichts werden kaum diskutiert, weil sich die ENISA mit ihrem handwerklichen Versagen selbst ein Bein gestellt hat.

Einzelne nicht nachweisbare Quellen untergraben deshalb die Glaubwürdigkeit des gesamten Berichts – obwohl dieser überwiegend zutreffend ist. Das Einräumen von Fehlern ist zwar löblich, doch ohne konkrete Offenlegung des eigenen Versagens bleibt ein realer Vertrauensverlust.

Stimmen

  • Juhan Lepassaar, Exekutivdirektor der ENISA, erklärte zur Veröffentlichung des Reports: „Die Systeme und Dienste, auf die wir uns in unserem täglichen Leben verlassen, sind miteinander verflochten, sodass eine Störung an einem Ende Auswirkungen auf die gesamte Lieferkette haben kann. Dies hängt mit einem Anstieg des Missbrauchs von Cyberabhängigkeiten durch Bedrohungsakteure zusammen, der die Auswirkungen von Cyberangriffen verstärken kann.“
  • Christian Dietrich, Professor am Institut für Internet-Sicherheit an der Westfälischen Hochschule, dazu: „Mich stört maßgeblich, dass eine öffentliche Behörde, die in meinen Augen die sehr wichtige Aufgabe hat, verlässliche, nachvollziehbare Berichte herauszugeben, das in diesem Fall nicht getan hat“. Zu den fehlerhaften Links sagte er: „Man hätte nur einmal draufklicken müssen“.
  • Die ENISA räumte bereits „Mängel“ ein, zu denen sie „Verantwortung übernehmen“ wolle. Die Behörde habe KI für „kleinere redaktionelle Überarbeitungen“ verwendet. Die Inhalte des Berichts seien ungeachtet der nicht existierenden Quellen valide. Linus Neumann vom Chaos Computer Club dazu: „Die ENISA soll zentrale Anlaufstelle in Europa sein. Wenn dann schon in den sehr oberflächlichen Bedrohungsberichten derart unsauber gearbeitet wird, wirft das ein sehr schlechtes Licht auf die Institution“.

Vertrauensverlust auf Behördenebene

Der Fall wirft grundsätzliche Fragen zur Arbeitsweise europäischer Behörden auf. Wenn ausgerechnet eine Institution, die Standards und Vertrauen in der Cybersicherheit setzen soll, bei Quellenprüfung und -sicherung versagt, steht mehr auf dem Spiel als ein einzelner Bericht.

Entscheidend wird sein, ob die ENISA ihre internen Prozesse transparent nachschärft – etwa durch klare Regeln zum Einsatz von KI, verpflichtende menschliche Überprüfungen und eine nachvollziehbare Korrektur.

Andernfalls droht ein nachhaltiger Vertrauensverlust, der die Autorität künftiger Warnungen und Empfehlungen untergräbt.

Auch interessant: 

Der Beitrag EU-Behörde blamiert sich mit KI-Panne erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Wasserverbrauch von KI: Zwischen Panikmache und realen Zahlen

Der Beitrag Wasserverbrauch von KI: Zwischen Panikmache und realen Zahlen erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI Wasserverbrauch Künstliche Intelligenz Rechenzentrum

Der enorme Wasserverbrauch von KI-Rechenzentren ist vor allem bei Kritikern ein wiederkehrendes Argument gegen den ungezügelten Ausbau digitaler Infrastrukturen. Doch wie hoch der tatsächliche Bedarf ist, zeigt sich erst bei genauerem Blick: Klima, Kühltechnik und Strommix entscheiden maßgeblich über die ökologische Bilanz.

Wasser wird in Rechenzentren vor allem zur Kühlung der Server eingesetzt, die beim Rechnen große Mengen Abwärme erzeugen. Je nach Technik kommt es direkt in Verdunstungskühlsystemen zum Einsatz oder indirekt über den Wasserverbrauch der Kraftwerke, die den benötigten Strom liefern.

Rund um den Wasserverbrauch von KI-Rechenzentren kursieren jedoch aktuell zahlreiche Berechnungen, die sich teils deutlich widersprechen. Schätzungen reichen von vergleichsweise moderaten Mengen bis hin zu alarmierenden Szenarien.

Erst kürzlich musste die Journalistin Karen Hao bei einer Berechnung aus ihrem Bestseller „Empire of AI“ zurückrudern. Sie hatte in ihrem Buch veröffentlicht, dass ein geplantes Google-Rechenzentrum nahe Santiago de Chile „mehr als das Tausendfache des Wasserverbrauchs der gesamten Bevölkerung“ benötigen könnte. Allerdings habe es hierbei einen Rechenfehler gegeben – die Zahl war viel zu hoch angesetzt.

Auch aufgrund solcher Vorfälle warnen Fachleute deshalb davor, Einzelwerte zu verabsolutieren. Denn Standortfaktoren, technische Ausstattung der Rechenzentren sowie der verwendete Strommix können großen Einfluss darauf haben, wie wasserintensiv KI tatsächlich ist.

KI: Welche Faktoren beeinflussen den Wasserverbrauch?

Der Wasserverbrauch von KI-Rechenzentren ist stark abhängig von zahlreichen Faktoren. Beispielsweise kann der Einsatz von mehr Wasser dazu führen, dass gleichzeitig auf den Betrieb elektrischer Kühlsysteme verzichten werden kann.

Wird wiederum mehr Strom zur Kühlung der Rechenzentren verbraucht, sinkt der Wasserverbrauch. Jedoch können dann gleichzeitig – je nach Strommix – auch die Treibhausgasemissionen wieder ansteigen.

„Jeder Standort ist anders“, erklärt Fengqi You, Professor für Energiesystemtechnik an der Cornell University, gegenüber Wired. „Wie viel Wasser Sie für die gleiche Menge an KI benötigen, hängt vom Klima, von der verwendeten Technologie und vom [Energie-]Mix ab.“

Problematischer Wasserverbrauch hängt vom Standort ab

Gleichzeitig komme erschwerend hinzu, dass manche Berechnungen auch den indirekten Wasserverbrauch beinhalten. So werde der gesamte Wasser-Fußabdruck aber nur geschätzt, was jedoch auch Zahlen zur Stromerzeugung mit einbezieht. Dadurch könne es sein, dass die vermuteten Zahlen aus Schätzungen viel größer sind als der tatsächliche Wasserverbrauch vor Ort.

Dennoch dürfe der Wasserverbrauch von KI-Rechenzentren nicht unterschätzt werden. „Kurzfristig ist dies kein Problem und keine landesweite Krise“, erklärt Cornell-Professor You. „Aber es kommt auf den Standort an. An Orten, an denen bereits Wasserknappheit herrscht, wird der Bau dieser KI-Rechenzentren ein großes Problem darstellen.“

Berechnungen seien aufgrund der zahlreichen Faktoren allerdings sehr komplex. Schätzungen, dass beispielsweise das Schreiben einer E-Mail mit ChatGPT eine ganze Flasche Wasser verbraucht, seien daher für eine „durchschnittliche“ Abfrage kaum anwendbar.

Auch interessant:

Der Beitrag Wasserverbrauch von KI: Zwischen Panikmache und realen Zahlen erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

China nimmt weltweit ersten CO2-Stromgenerator in Betrieb

Der Beitrag China nimmt weltweit ersten CO2-Stromgenerator in Betrieb erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Chaotan One CO2 Stromgenerator China

China hat mit dem Chaotan One den weltweit ersten CO2-Stromgenerator in Betrieb genommen, um Strom aus Wärme zu erzeugen. Er nutzt Kohlendioxid anstelle von Dampf zur Wärmeübertragung. 

Mit dem Projekt Chaotan One in der chinesischen Provinz Guizhou nutzt China Abwärme effizienter als bisher, um Strom zu erzeugen. Ein CO2-Generator nutzt dazu erstmals kommerziell superkritisches Kohlendioxid. Die Anlage schließt einen technischen Kreislauf mit Kohlendioxid als Arbeitsmedium, um Hitze in Energie zu transformieren.

Im Vergleich zu bisherigen Systemen soll die Methode die Effizienz der Stromgewinnung um rund 85 Prozent erhöhen. Mit einer Leistung von zweimal 15 Megawatt liefert das Projekt Energie aus Quellen, die bislang überwiegend ungenutzt blieben.

Chaotan One: Der erste CO2-Stromgenerator der Welt

Die Ingenieure haben das System so kompakt gebaut, dass es nur noch die Hälfte der üblichen Fläche beansprucht. Die Anlage soll für die gleiche Leistung nur noch halb so viel Platz benötigen. Dieser geringe Platzbedarf ermögliche es Unternehmen, die Technik auch in engen Industriegebieten nachzurüsten.

Da die Anlage mit weniger Bauteilen und Hilfssystemen auskommt, sinkt zudem der Aufwand für die Wartung. Bisher gab es technische Hürden, um Wärme im mittleren und hohen Temperaturbereich bei kleinen Leistungsstufen effizient zu nutzen.

Der Chaotan One soll dieses Problem lösen, indem er Energie für die Industrie nutzbar macht. Die Technologie könnte zudem durch Solaranlagen ergänzt werden.

In einem weiteren Testlauf kombinieren Fachleute das System bereits mit Flüssigsalz-Speichern, um das Stromnetz bei Bedarf zu stabilisieren. Diese Kombination aus Speicherung und hocheffizienter Stromerzeugung soll bis 2028 die volle Einsatzreife erreichen, um regenerative Energie noch flexibler in das bestehende Netz zu integrieren.

Frühe Anerkennung durch internationale Experten

Was in China nun im kommerziellen Betrieb läuft, stuften das US-Energieministerium im Jahr 2017 und das MIT im Jahr 2018 bereits als strategische Zukunftstechnologie ein. Das Projekt markiert einen weltweiten Übergang von der Laborforschung hin zur industriellen Anwendung.

Die Entwicklung fördert neue Kapazitäten in der Energiewirtschaft und stärkt die Zusammenarbeit zwischen Forschung und Praxis. Für die weltweite Industrie bedeutet dieser Fortschritt, dass Milliarden Kilowattstunden Abwärme nicht mehr ungenutzt in die Atmosphäre geblasen werden müssen.

Auch interessant:

Der Beitrag China nimmt weltweit ersten CO2-Stromgenerator in Betrieb erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Preis-Leistung: Die besten Autos – laut ADAC

Der Beitrag Preis-Leistung: Die besten Autos – laut ADAC erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

zuverlässigsten Automarken 2025

Das Geld ist momentan bei vielen Menschen knapp. Entsprechend wichtig ist es, beim Autokauf zu wissen, wie viel Gegenwert man für den Preis tatsächlich bekommt. In unserem wöchentlichen Ranking zeigen wir dir die zehn besten Autos in puncto Preis-Leistung – laut ADAC.

Worauf sollte man beim Kauf eines neuen Autos achten? Auf den Preis oder doch besser auf die Leistung? Am besten auf Beides, denn nur durch das Preis-Leistungs-Verhältnis erfahren Kunden, wie viel sie auf Dauer mit einem Fahrzeug sparen. Sind die Kosten niedrig, aber die Besuche in der Werkstatt regelmäßig, wird der Geldbeutel trotzdem belastet. Der ADAC hat daher ein komplexes Bewertungssystem entwickelt, das die technische Qualität eines Fahrzeugs mit den realen Unterhaltskosten verknüpft.

Die besten Autos in puncto Preis-Leistung

Das Ergebnis ist der ADAC Autotest Preis-Leistung 2025, der Käufern bei der Wahl des nächsten Autos helfen soll. In der Auswertung wurden insgesamt einhundert Modelle unter die Lupe genommen, die im vergangenen Jahr getestet wurden. Dabei fällt auf, dass günstige Fahrzeuge unter 10.000 Euro faktisch vom Markt verschwunden sind. Selbst unter 15.000 Euro existieren nur noch vereinzelte Modelle.

Umso wichtiger ist eine Bewertung der sogenannten Total Cost of Ownership (TCO), also der Gesamtkosten über einen Zeitraum von fünf Jahren inklusive Wertverlust, Steuern und Versicherung

Die große Überraschung des Testberichts sind die Elektroautos. Erstmals dominieren Stromer die oberen Ränge der Bestenliste. In den Vorjahren hakte es oft an den hohen Anschaffungskosten. Der positive Trend ist aber nicht nur in den sinkenden Kaufpreisen begründet, sondern auch in den geringeren Wartungskosten und dem Wegfall der Kraftfahrzeugsteuer.

Wir haben unser Ranking nach der Preis-Leistung ausgerichtet. Gibt es ein Unentschieden, kommen die anderen beiden Noten zum Tragen: Die Gesamtnote und der Preis. Erstere beinhaltet alle Eigenschaften bis auf den Preis, und die Zweite bewertet eben diesen. Welche zehn Autos laut dem ADAC in Sachen Preis-Leistung am besten sind, zeigen wir in der folgenden Galerie.

Platz 10: Dacia Spring Electric 65 Expression

Der Dacia Spring belegt den zehnten Platz und ist ein Paradebeispiel für ein zweckoptimiertes Fahrzeug. Die Gesamtnote liegt bei 3,0 und ist damit die schlechteste in der ganzen Top Ten. Die Kosten sind mit einer Note von 1,4 hingegen die besten der gesamten Liste. Daraus ergibt sich eine Preis-Leistungs-Note von 2,2.

Auto, Fahrzeug, Mobilität, Elektroautos, Flüssiggas, Benzin, ADAC, Automobilclub, Deutschland
Foto: Dacia

Der Beitrag Preis-Leistung: Die besten Autos – laut ADAC erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Forscher entwickeln intelligentes Material für menschliche KI-Geräte

Der Beitrag Forscher entwickeln intelligentes Material für menschliche KI-Geräte erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Neuromorphes Computing

Forscher haben ein intelligentes Material entwickelt, das KI-Geräte auf ein neues menschenähnliches Level heben könnte. Es soll je nach Stimulation unterschiedlich arbeiten und sich wie eine Synapse anpassen können. 

Seit Jahrzehnten versuchen Forscher weltweit, Alternativen zu Silizium für bestimmte Einsatzzwecke zu finden. Die Idee dahinter ist die Fertigung von elektronischen Bauteilen auf Basis von bestimmten Molekülen. Doch häufig scheiterten sie daran, dass sich diese Moleküle meist unberechenbar verhalten und sich nicht so einfach zusammenfügen lassen.

Das sogenannte neuromorphe Computing verfolgt ein ähnliches Ziel. Die Basis bildet Hardware, die vom Gehirn inspiriert ist. Ziel ist die Herstellung eines Materials, das sowohl Informationen speichern, Berechnungen durchführen kann und gleichzeitig anpassbar ist. Derzeit verwendete Ansätze basieren oft auf Oxidmaterialien und filamentären Schaltkreisen. Doch diese funktionieren nach wie vor nur wie sorgfältig konstruierte Systeme, die das Lernen nachahmen.

Neuromorphes Computing: Gerät passt sich auf Basis der Stimulation an

Neue Forschungsergebnisse aus Indien deuten darauf hin, dass beide Probleme mit dem gleichen Ansatz gelöst werden können. Ein Team des CeNSE stellte ein kleines molekulares Gerät her, das verschiedene Aufgaben übernehmen kann. Die Grundlage liegt darin, wie die Forscher das Gerät stimulieren.

Es kann Informationen abspeichern und kann wahlweise ein Logikgatter, ein Selektor, ein Analogprozessor oder eine elektronische Synapse sein. Chemisches Design und Computer sollen dabei Hand in Hand gehen. Die Wissenschaftler stellten dazu 17 speziell konzipierte Rutheniumkomplexe her.

Das sind chemische Verbindungen, bei denen ein zentrales Rutheniumatom von Liganden umgeben ist. Diese finden aufgrund ihrer Stabilität und Vielseitigkeit vor allem als Katalysatoren, in der Krebstherapie sowie in der Fotochemie einen Einsatz. Das Team untersuchte anschließend, wie kleine Veränderungen der Molekülform und der umgebenden Ionenumgebung das Verhalten der Elektronen beeinflussen.

Kommt bald noch effizientere und intelligentere KI-Hardware?

Durch die Anpassung der Liganden und Ionen zeigte das Gerät unterschiedliche Funktionsweisen. So beobachteten die Forscher, dass ein Wechsel von Analog zu Digital und umgekehrt problemlos möglich ist. Hinter der Forschung steckt eine Menge an theoretischem Wissen rund um Physik und Quantentheorie.

Der Ansatz soll den Weg für neuromorphe Hardware ebnen, bei der das Lernen direkt in das Material selbst kodiert werden kann. Das Team arbeitet bereits daran, die Materialien auf Siliziumchips zu platzieren. Ziel ist es, künftige KI-Hardware zu entwickeln, die sowohl energieeffizient als auch von Natur aus intelligent ist.

Auch interessant: 

Der Beitrag Forscher entwickeln intelligentes Material für menschliche KI-Geräte erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Krankenkassen mit den höchsten Beitragssätzen

Der Beitrag Krankenkassen mit den höchsten Beitragssätzen erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Arzt Ärztin Patient Versicherung Krankenkassen

Auch im neuen Jahr steigen die Beiträge für viele Krankenkassen wieder an. Einige exklusive Anbieter rufen besonders hohe Sätze auf. Zeit, einen Blick auf die teuersten Versicherer 2026 zu werfen.

Gesundheit ist unbezahlbar, heißt es oft. Doch wer den Beitragsbescheid seiner Krankenkasse für 2026 in den Händen hält, bekommt eine genaue Vorstellung vom Preis. Während die günstigsten Anbieter den Zusatzbeitrag noch deutlich unter drei Prozent halten, wird am oberen Ende der Skala die Vier-Prozent-Latte locker gerissen. Viele Versicherer haben ihre Sätze zum Jahreswechsel noch einmal angezogen.

Diese Krankenkassen langen ordentlich hin

Die Versicherungen in diesem Ranking sind eher kleiner und exklusiver. Bekannte Namen wie die Barmer oder die Techniker, bei denen viele Millionen Menschen versichert sind, sucht man hier vergeblich. Natürlich bieten solche Kassen den Kunden auch häufig etwas für ihr Geld. Ein hoher Beitragssatz muss also nicht zwangsläufig ein schlechtes Zeichen für die Qualität sein.

Häufig leisten sich teure Kassen einen besseren Service, mehr Beratungsmöglichkeiten vor Ort oder spezialisierte Bonusprogramme, die gesundheitsbewussten Mitgliedern am Ende doch wieder einen Teil des Geldes zurückbringen. Dennoch stellt sich die Frage nach der wirtschaftlichen Effizienz im digitalen Zeitalter. Wenn eine Kasse einen Zusatzbeitrag von über vier Prozent verlangt, müssen die Zusatzleistungen schon außergewöhnlich gut sein.

Wer bei einer der teuersten Kassen versichert ist, zahlt im Jahr schnell mehrere hundert Euro mehr als nötig. Wer unzufrieden ist, kann sein Sonderkündigungsrecht nutzen, sobald die Kasse den Zusatzbeitrag erhöht. Man kann dann auch vor Ablauf der üblichen Bindungsfrist den Anbieter wechseln. In der folgenden Auflistung präsentieren wir die laut Stiftung Warentest zehn Krankenkassen mit den höchsten Beiträgen im Jahr 2026.

Platz 9 (geteilt): BKK VerbundPlus

Die BKK VerbundPlus eröffnet die Top Ten mit einem Beitragssatz von 18,49 Prozent. Der Zusatzbeitrag bleibt mit 3,89 Prozent im Vergleich zum Vorjahr stabil. Damit gehört die Kasse zu den teuren Optionen am Markt, ohne dass es 2026 zu einer weiteren Erhöhung kommt.

Der Beitrag Krankenkassen mit den höchsten Beitragssätzen erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Wie ein Schwamm: Neues Baumaterial bindet CO2 statt es auszustoßen

Der Beitrag Wie ein Schwamm: Neues Baumaterial bindet CO2 statt es auszustoßen erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Baumaterial CO2 Beton-Alternative

Forscher haben ein neues Baumaterial entwickelt, das im Gegensatz zu Beton bei der Herstellung CO2 bindet, anstatt es auszustoßen. 

Forscher des Worcester Polytechnic Institute haben ein neuartiges Baumaterial entwickelt, das einen aktiven Beitrag zum Klimaschutz leisten könnte. Das sogenannte Enzymatic Structural Material (ESM) zeichnet sich dadurch aus, dass es kein Kohlendioxid ausstößt, sondern das Treibhausgas dauerhaft bindet.

Es ist vergleichbar mit einem biologischen Schwamm, der CO2 direkt aus der Umgebung aufnimmt. Eine Umwandlung in feste Mineralpartikel sorgt dafür, dass das Gas sicher im Baustoff eingeschlossen bleibt.

Neues CO2-speicherndes Baumaterial als Beton-Alternative

Professor Nima Rahbar und sein Team nutzen für diesen Prozess die sogenannte Kapillarsuspensionstechnik. Ein spezielles Enzym steuert dabei die chemische Reaktion und sorgt für die nötige Stabilität. Die Fachzeitschrift „Matter“ veröffentlichte kürzlich Forschungsergebnisse, die neue Wege für ein nachhaltiges Bauen aufzeigen.

Zum Vergleich: Die Produktion von einem Kubikmeter herkömmlichem Beton setzt etwa 330 Kilogramm CO2 frei. Im Gegensatz dazu speichert die gleiche Menge ESM aktiv mehr als sechs Kilogramm des Treibhausgases.

Die Zementindustrie ist derzeit für fast acht Prozent der weltweiten CO2-Emissionen verantwortlich. Mit dem Einsatz von ESM ließe sich der Ausstoß von Kohlendioxid theoretisch deutlich reduzieren. Das Material benötigt bei der Herstellung zudem deutlich weniger Energie als klassischer Beton.

Entlastung für die Umwelt

Das neue Baumaterial soll innerhalb weniger Stunden aushärten. Die Forscher ließen sich bei der Entwicklung direkt von biologischen Systemen inspirieren. Das Ergebnis ist ein belastbares Material, das sich für verschiedene Bauteile einsetzen lässt.

Ein großer Vorteil ist die vollständige Recycelbarkeit des Materials am Ende seiner Nutzung. Sollten Risse entstehen, kannst soll sich ESM einfach reparieren lassen. Das könnte die Menge an Bauabfällen, die jährlich auf Deponien landen, reduzieren.

Professor Rahbar betont, dass bereits die Umstellung eines Teils der weltweiten Bauprojekte Auswirkungen hätte. Das Potenzial reicht dabei von Wohnhäusern bis hin zu Lösungen für den Katastrophenschutz.

Auch interessant:

Der Beitrag Wie ein Schwamm: Neues Baumaterial bindet CO2 statt es auszustoßen erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

ChatGPT Health: Fehldiagnosen im Premium-Gewand

Der Beitrag ChatGPT Health: Fehldiagnosen im Premium-Gewand erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

ChatGPT Health OpenAI

OpenAI fügt ChatGPT einen neuen Gesundheits-Tab hinzu, über den Nutzer elektronische Krankenakten hochladen und Verbindungen zu Gesundheits- und Fitness-Apps herstellen können. Die Reaktionen auf ChatGPT Health fallen jedoch gemischt aus. Eine kommentierende Analyse.

Was ist ChatGPT Health?

  • ChatGPT Health ist ein speziell isolierter Bereich innerhalb des Chatbots. Nutzern sollen dort Konversationen zu Gesundheitsthemen führen können, ohne dass sich sensible Daten mit regulären Chatverläufen vermischen. Laut OpenAI kann Health Gesundheitsdaten auswerten und über allgemeine Ratschläge hinaus erkennen können, wann ärztliche Hilfe erforderlich ist.
  • Das System wurde den Angaben zufolge mit über 260 Ärzten entwickelt, um Antworten zu Gesundheitsfragen zu analysieren und sicherzustellen, dass ChatGPT medizinisch plausible und korrekte Antworten liefert. Die Funktion lässt sich mit Fitness- und Gesundheitsdaten aus Apps wie Apple Health, Weight Watchers oder Peloton verbinden. Die Integration von elektronischen Patientenakten ist zunächst nur in den USA möglich.
  • OpenAI zufolge konsultieren jede Woche Millionen Nutzer ChatGPT zu Gesundheitsfragen. Das Problem: Aufgrund von sogenannten Halluzinationen spucken KI-Chatbots immer wieder unsinnige bis komplett falsche Antworten aus. Bei Gesundheitsthemen kann das verheerende Folgen haben, wie erst kürzlich Google wieder unter Beweis stellte.

OpenAI wälzt Verantwortung auf Nutzer ab

OpenAI betont, dass ChatGPT Health trotz der engen Zusammenarbeit mit Ärzten keine Diagnosen stellen oder Behandlungen empfehlen darf. Das Tool soll offiziell lediglich zur Information und Vorbereitung von Arztbesuchen dienen.

Das ist vor allem rechtlich relevant, da OpenAI ChatGPT Health in den USA als Verbraucherprodukt einstufen lassen hat. Damit fällt die Funktion nicht unter die strengen Datenschutzgesetze für das Gesundheitswesen. Das entbindet OpenAI von gewissen Haftungsrisiken und verlagert die Verantwortung vor allem auf die Nutzer.

Innerhalb der EU wäre das sicher nicht möglich – und das ist auch gut so. Denn trotz Verbesserungen und ärztlichen Analysen sind Falschinformationen in Form von KI-Halluzinationen keinesfalls komplett ausgeschlossen. In puncto Datenschutz gibt es ebenfalls Bedenken.

OpenAI bietet zwar eine Zweck-Verschlüsselung an, aber eben keine Ende-zu-Ende-Verschlüsselung, wie sie bei Messenger-Diensten üblich ist. Heißt konkret: Es besteht zwar ein Schutz vor Fremdzugriffen. OpenAI kann die Daten jedoch einsehen.

Stimmen

  • Fidji Simo, CEO of Applications bei OpenAI, in einem Blogbeitrag: „ChatGPT Health ist ein weiterer Schritt, um ChatGPT zu einem persönlichen Super-Assistenten zu machen, der Sie mit Informationen und Tools dabei unterstützt, Ihre Ziele in allen Bereichen Ihres Lebens zu erreichen. Wir stehen noch ganz am Anfang dieser Reise, aber ich freue mich darauf, diese Tools mehr Menschen zugänglich zu machen.“
  • OpenAI-Chef Sam Altman erklärte bereits im Sommer gegenüber CNBC: „Das Gesundheitswesen ist der Bereich, in dem die größten Verbesserungen zu verzeichnen sind. Es macht einen großen Teil der Nutzung von ChatGPT aus. Ich denke, es ist wirklich wichtig, den Menschen bessere Informationen über ihre Gesundheitsversorgung zu geben und ihnen die Möglichkeit zu geben, bessere Entscheidungen zu treffen.“
  • Autor und Journalist Aidan Moher spottet in einem Post auf Bluesky: „Was soll schon schiefgehen, wenn ein LLM, das darauf trainiert ist, die Vorurteile der Nutzer zu bestätigen, zu unterstützen und zu fördern, auf einen Hypochonder mit Kopfschmerzen trifft?“

Ein Gesundheitsberater, der ChatGPT niemals sein kann

Da Millionen Nutzer ChatGPT trotz einhelliger Warnungen nach wie vor zu Gesundheitsfragen konsultieren, ist es zunächst einmal begrüßenswert, dass sich OpenAI dem Thema angenommen hat, um den Chatbot zu verbessern.

Doch das Unternehmen suggeriert auch einen Gesundheitsberater, der ChatGPT niemals sein kann. Die externe Aufklärung von Nutzern wird deshalb genauso entscheidend sein, wie die Frage, ob der Chatbot tatsächlich genügend Warnhinweise an den richtigen Stellen ausspuckt und wie er mit hochsensiblen Gesundheitsthemen umgeht.

Dass eine Verarbeitung von ärztlichen Patientendaten in der EU nicht möglich ist, deutet auf regulatorische Hürden hin. Denn: In Deutschland unterliegen Gesundheitsdaten glücklicherweise strengen Verarbeitungsvoraussetzungen. Vermutlich wird OpenAI solche Daten in den USA nutzen, um personalisierte Werbung zu schalten. Vollständiger Datenschutz ist nicht garantiert.

Auch interessant: 

Der Beitrag ChatGPT Health: Fehldiagnosen im Premium-Gewand erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

KI verwässert Wissenschaft – durch immer mehr Artikel

Der Beitrag KI verwässert Wissenschaft – durch immer mehr Artikel erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI Wissenschaft Artikel

Große Sprachmodelle wie ChatGPT, Gemini und Co. verändern die Wissenschaft. Forschende der Cornell University zeigen, dass der Einsatz von KI die Zahl wissenschaftlicher Publikationen deutlich erhöht. Doch die Masse an Artikeln wirft Fragen zur Qualität der Forschung auf.

Seit der Veröffentlichung von ChatGPT im Jahr 2022 hat das Thema Künstliche Intelligenz in nahezu allen Bereichen beträchtlich an Fahrt aufgenommen. Auch in der Wissenschaft spielen große Sprachmodelle inzwischen eine entscheidende Rolle.

Denn immer mehr wissenschaftliche Publikationen entstehen mit der Hilfe von ChatGPT und Co. KI-Sprachmodelle können Wissenschaftlern beim Formulieren, Strukturieren und Überarbeiten von Texten helfen. Forscher, deren Muttersprache nicht Englisch ist, wird so außerdem der Einstieg erleichtert.

Gleichzeitig besteht allerdings die Gefahr, dass schneller mehr wissenschaftliche Publikationen entstehen und dabei die Qualität leidet. Forscher der Cornell University in den USA haben genau diese Frage untersucht und ihre Ergebnisse in der wissenschaftlichen Zeitschrift Science veröffentlicht.

Welche Rolle spielt KI in der Wissenschaft?

Die Forscher der Cornell University haben für ihre Untersuchung mehr als zwei Millionen Artikel gesammelt, die zwischen Januar 2018 und Juni 2024 auf drei Online-Preprint-Websites veröffentlicht wurden. Die Seiten arXiv, bioRxiv und Social Science Research Network (SSRN) sind auf die Fachbereiche Physik, Biowissenschaften und Sozialwissenschaften spezialisiert.

Auf diesen Seiten werden wissenschaftliche Artikel veröffentlicht, für die es noch keine Peer-Review gab. Dabei handelt es sich um ein gängiges Verfahren in der Wissenschaft, bei dem Fachkollegen wissenschaftliche Arbeiten vor ihrer Veröffentlichung prüfen. So werden Qualität, Verständlichkeit und fachliche Richtigkeit sichergestellt.

Die Forscher um Assistent Professor Yian Yin haben für ihre Untersuchung einen KI-Detektor entwickelt. Dafür verglichen sie vermutlich von Menschen verfasste Artikel von vor 2023 mit KI-generierten Texten. Ziel dieses Vergleichs war es, ein KI-Modell zu entwickeln, das KI-generierte Texte unterscheiden kann.

Die Einführung von KI-Sprachmodellen zeigte in der Auswertung der Publikationen einen enormen Produktivitätsschub. Auf der Website arXiv beispielsweise wurden demnach etwa ein Drittel mehr Artikel von Wissenschaftler, die KI genutzt haben, veröffentlicht als von Wissenschaftlern ohne KI-Untersützung. Bei den Websites bioRxiv und SSRN lag der Anstieg sogar bei mehr als 50 Prozent.

„Es handelt sich um ein sehr weit verbreitetes Muster in verschiedenen Wissenschaftsbereichen – von den Physik- und Informatikwissenschaften bis hin zu den Biowissenschaften und Sozialwissenschaften“, erklärt Yian Yin. „Es gibt eine große Veränderung in unserem aktuellen Ökosystem, die eine sehr ernsthafte Betrachtung erfordert, insbesondere für diejenigen, die Entscheidungen darüber treffen, welche Wissenschaft wir unterstützen und finanzieren sollten.“

Nicht-Muttersprachler profitieren am meisten

Die Studienergebnisse zeigen auch, dass Wissenschaftler, deren Muttersprache nicht Englisch ist, am meisten von großen Sprachmodellen profitieren. Demnach haben im untersuchten Zeitraum Forscher aus asiatischen Institutionen zwischen 43 und rund 90 Prozent mehr Artikel veröffentlicht als ähnliche Wissenschaftler, die die Technologie nicht genutzt haben.

Laut Yin könnte diese Entwicklung sogar dazu führen, dass sich eine globale Verlagerung der Regionen mit der größten wissenschaftlichen Produktivität ergibt. Denn durch den Einsatz von KI-Sprachmodellen können nun auch Gebiete partizipieren, die zuvor durch die Sprachbarriere benachteiligt waren.

„Menschen, die LLMs verwenden, haben Zugang zu vielfältigerem Wissen, was zu kreativeren Ideen führen könnte“, erklärt Erstautor Keigo Kusumegi, Doktorand im Bereich Informationswissenschaft. Das bedeutet jedoch nicht, dass sich auch die Qualität der Publikationen verbessert.

Das zeigt die Annahmequote der untersuchten Artikel. Denn die Artikel, die wahrscheinlich von LLMs verfasst wurden, wurden seltener von wissenschaftlichen Zeitschriften angenommen. Das deute laut den Forschern darauf hin, dass die Gutachter trotz der überzeugenden Sprache viele dieser Arbeiten als wissenschaftlich wenig wertvoll einstuften.

Diese Diskrepanz zwischen Schreibqualität und wissenschaftlicher Qualität könne laut Yin zu erheblichen Problemen für Redakteure und Gutachter führen. Denn durch die zunehmende Masse werde es immer schwieriger, wertvolle eingereichte Arbeiten zu identifizieren. Auch sei es nicht mehr möglich, Wissenschaftler anhand ihrer reinen Produktivität zu bewerten.

Auch interessant:

Der Beitrag KI verwässert Wissenschaft – durch immer mehr Artikel erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Die langsamsten Finanzämter in Deutschland

Der Beitrag Die langsamsten Finanzämter in Deutschland erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

langsamsten Finanzämter Deutschland

Wer auf seine Steuererstattung wartet, braucht bei manchen Behörden einen besonders langen Atem. Ein aktueller Bericht zeigt auf, welche Finanzämter sich am meisten Zeit lassen.

Auch wenn man nicht direkt zu Jahresbeginn aktiv werden muss, bringt ein neues Jahr immer auch eine neue Steuererklärung mit sich. Für manche Menschen heißt es dann, nachzahlen – vielen winkt aber eine Rückerstattung. Entsprechend nervenzehrend kann das jährliche Warten auf den Steuerbescheid sein. Einige Finanzämter liefern bereits nach wenigen Wochen Ergebnisse, andere ziehen den Prozesse über Monate in die Länge.

Finanzämter und ihre regionalen Unterschiede

Bei der Höhe der Rückzahlungen gibt es ein deutliches Gefälle zwischen den Bundesländern. In Hamburger werden durchschnittlich 1.615 Euro erstattet. Ganz hinten liegt Sachsen-Anhalt mit einem Schnitt von 1.124 Euro. Der nationalen Rekord für eine Einzelerstattung im vergangenen Jahr liegt bei mehr als 213.000 Euro.

Einige Steuerzahler sind besonders emsig. Die erste Steuererklärung für das Jahr 2026 wurde bereits sieben Sekunden nach dem Jahreswechsel digital übermittelt. Wirklich schneller geht es deshalb aber nicht.

Ein Blick auf die Statistik zeigt, dass der Zeitpunkt der Abgabe eine entscheidende Rolle für das Tempo der Bearbeitung spielt. Wer seine Unterlagen bereits im März einreicht, wartet im Durchschnitt nur 43 Tage auf eine Rückmeldung. Im Gegensatz dazu benötigen Abgaben im August im Schnitt 80 Tage, bis sie bearbeitet werden.

Dass es auch schnell gehen kann, beweist das Finanzamt Schwalm-Eder in Schwalmstadt, das für die Bearbeitung im Schnitt nur 22 Tagen braucht. In diesem Ranking wollen wir aber auf die zehn Steuerbehörden blicken, die bundesweit am langsamsten arbeiten. Die Daten stammen vom Steuerreport 2026 von smartsteuer.

Platz 10: Burghausen

Den Einstieg in die Top Ten der langsamsten Finanzämter macht das Finanzamt Burghausen in Bayern. Hier müssen Steuerzahler im Durchschnitt 82 Tage auf ihren Bescheid warten. Der Median liegt bei 65 Tagen – das deutet bei den Steuerbescheiden auf einige Ausreißer hin, die besonders lange brauchen.

Der Beitrag Die langsamsten Finanzämter in Deutschland erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •