Lese-Ansicht

Natrium-Ionen-Batterie: Wasser-Trick verdoppelt Leistung

Der Beitrag Natrium-Ionen-Batterie: Wasser-Trick verdoppelt Leistung erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Natrium-Ionen-Batterien

Natrium-Ionen-Batterien dienen nicht nur als Energiespeicher, sondern verwandeln Meerwasser ganz nebenbei in Trinkwasser. Forscher haben nun herausgefunden, dass ein bekannter Batteriewerkstoff deutlich besser funktioniert, wenn sein Wassergehalt erhalten bleibt.

Forscher der University of Surrey machten kürzlich eine überraschende Entdeckung, die Natrium-Ionen-Batterien erheblich verbessern könnte. Bisher haben Wissenschaftler das in den Batterien enthaltene Wasser durch Erhitzen mühsam entfernt, da sie eine Beeinträchtigung der Leistung vermuteten. Eine neue Studie belegt jedoch, dass der Verbleib des Wassers im Material die Energiespeicherung nahezu verdoppeln kann.

Das Team nutzt ein spezielles Material namens Nanostructured Sodium Vanadate Hydrate (NVOH). Durch den Verbleib des Wassers im NVOH erreichte das System eine deutlich höhere Ladegeschwindigkeit und eine stabilere Nutzung im Alltag. In Testreihen überstand die Batterie mehr als 400 Ladezyklen ohne nennenswerte Verluste.

Sauberes Wasser durch Energiespeicherung

Das Material zählt damit zu den bisher leistungsstärksten Kathoden für Natrium-Systeme. Natrium bietet der Industrie gegenüber Lithium entscheidende Vorteile, da es überall auf der Welt im Überfluss vorkommt. Das senkt die Anschaffungskosten für Speichertechnologien und schont gleichzeitig die Umwelt.

Ein besonderer Durchbruch gelang den Forschern durch die Vielseitigkeit des Systems, das sogar in gewöhnlichem Salzwasser funktioniert. Während die Batterie Energie speichert, zieht sie aktiv das Natrium aus der Umgebungslösung. Wissenschaftler nennen diesen doppelten Nutzen eine elektrochemische Entsalzung.

Eine Elektrode aus Graphit extrahiert dabei das Chlorid aus dem Wasser. Dadurch gewann das Team frisches Trinkwasser aus ungenießbarem Meerwasser. Dieser Prozess läuft parallel zur Speicherung ab und macht die Anlage zu einem multifunktionalen Werkzeug für Küstenregionen.

Sichere Natrium-Ionen-Batterien im Alltag

In Sachen Sicherheit überzeugt die neue Technologie durch eine stabile chemische Reaktion. Bei Tests mit einem Universalindikator färbte sich das Salzwasser an der Gegenelektrode rot. Das beweist, dass das System kein Gas entwickelt, was ein wichtiges Argument für die sichere Anwendung im Alltag ist.

Die Abwesenheit von gefährlicher Gasbildung erhöht die Lebensdauer und Zuverlässigkeit der Batterie. So entsteht ein System, das für den Einsatz in sensiblen Umgebungen einsatzbereit ist. Langfristig entwerfen die Ingenieure Systeme, die Meerwasser als sicheren und unerschöpflichen Elektrolyten verwenden.

Das reduziert für die Industrie die Abhängigkeit von teuren chemischen Zusätzen. Die vereinfachte Herstellung dieser Batterien bringt die kommerzielle Nutzung in greifbare Nähe.

Auch interessant:

Der Beitrag Natrium-Ionen-Batterie: Wasser-Trick verdoppelt Leistung erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Aus Personalnot: Weniger Bürokratie durch KI?

Der Beitrag Aus Personalnot: Weniger Bürokratie durch KI? erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Bürokratie KI Künstliche Intelligenz Worms

KI-Modelle werden aufgrund ihres enormen Energiebedarfs häufig verteufelt. Doch sinnvoll eingesetzt kann Künstliche Intelligenz durchaus Vorteile haben – beispielsweise im Gesundheitssystem und sogar beim Kampf gegen den Klimawandel. Die Stadt Worms setzt derweil auf KI, um Bürokratie abzubauen. Kommunen aus anderen Bundesländern wollen dem nacheifern. Eine kommentierende Analyse.

Stadt Worms setzt auf KI gegen Bürokratie

  • Die Stadt Worms setzt seit rund einem halben Jahr KI-Assistenten ein, die Beschäftigte im Bauamt und in der Stadtentwicklung unterstützen sollen. Ziel ist es, Arbeitsabläufe zu erleichtern. Geht es etwa um die Planung, eine neue Kita zu bauen, sollen KI-Agenten den zuständigen Mitarbeitern etwa in Sekundenschnelle bürokratische, rechtliche und organisatorische Fragen beantworten.
  • Die eingesetzten KI-Assistenten wurden vom Wormser IT-Dienstleister Satware entwickelt. Mithilfe von Justus sowie sechs weiteren Agenten will die Stadt wieder Herr der Lage bei der Bewältigung neuer Gesetze und Verordnungen werden. Laut Satware kann KI unter anderem dabei helfen, Informationen in der Verwaltung zu bündeln und sie auf das Wesentliche reduzieren. Das Unternehmen und die Stadt Worms versprechen, dass sämtliche Daten geschützt und nicht weitergegeben werden.
  • Der Deutsche Beamtenbund (dbb) fordert bereits seit geraumer Zeit mehr Tempo bei der Digitalisierung und einen verstärkten Einsatz von Künstlicher Intelligenz in der Öffentlichen Verwaltung. Dem Verband zufolge ist der Öffentliche Dienst aufgrund von Personalmangel mit vielen Aufgaben überfordert. Deutschlandweit würden 600.000 Beschäftigte fehlen.

KI soll Personalmangel in öffentlicher Verwaltung kompensieren

KI kann durch die Automatisierung von Routineaufgaben und die Optimierung von Arbeitsprozessen perspektivisch dabei helfen, den Personalmangel in der öffentlichen Verwaltung zu kompensieren. Beschäftigte könnten sich dadurch „wichtigeren“ Aufgaben widmen, um andere Prozesse zu beschleunigen.

Aufgrund der zunehmenden Informationsflut wäre ein solches Szenario durchaus wünschenswert. Allein der Digitalisierung halber zu digitalisieren, wird aber nicht reichen und ist auch keine gute Idee.

Denn: Wer einen schlechten Prozess einfach automatisiert, hat am Ende nur einen schlechten Automatismus geschaffen, der womöglich mehr Arbeit erfordert als abschafft. Oder um es mit den Worten des deutschen O2-Managers Thorsten Dirks zu sagen: „Wenn Sie einen scheiß Prozess digitalisieren, haben Sie einen scheiß digitalen Prozess“.

In Worms will man das erkannt haben. Finale Entscheidungen sollen dort weiterhin Menschen treffen. KI sei ein Werkzeug, das Faktenchecks erfordert und kein Ersatz.

Stimmen

  • Justus, einer der insgesamt sieben KI-Assistenten, die in Worms zum Einsatz kommen, stellt sich selbst wie folgt vor: „Hallo, ich bin Justus! Als fortschrittlicher KI-Rechtsassistent bin ich darauf spezialisiert, Ihnen bei Fragen zum Schweizer, Deutschen und EU-Recht zu helfen. Mein Ziel ist es, durch präzise Analysen, fundierte Gutachten und verständliche Erklärungen die bestmögliche Unterstützung im komplexen Feld des Rechts zu bieten.“
  • Timo Horst, Beigeordneter der Stadt Worms, gegenüber der Tagesschau: „Man muss mit vielen Behörden kommunizieren – und gerade diesen ganzen Schriftverkehr schneller abzuwickeln, dabei hilft die KI unglaublich. Ich brauche nicht bei meinen Mitarbeitern nachzufragen, ich kann Infos direkt abrufen, kann so meine Besprechungen vorbereiten. Ich kann Justus auch in Gesprächen beispielsweise mit Kita-Trägern oder auch mit anderen Vertretern aus der Zivilgesellschaft einsetzen.“
  • Die Wissenschaftler Alexander Wuttke, Adrian Rauchfleisch und Andreas Jungherr warnen im Rahmen einer aktuellen Studie: „Die Integration von KI in Regierungsfunktionen wirft erhebliche Bedenken hinsichtlich Fairness, Transparenz und Verantwortlichkeit auf. Zwar steigern Effizienzgewinne zunächst das Vertrauen, doch gleichzeitig reduzieren sie das wahrgenommene Gefühl der Kontrolle durch Bürger. Wenn diese strukturellen Risiken in den Vordergrund treten, sinkt sowohl institutionelles Vertrauen als auch wahrgenommene Kontrolle deutlich.“

Weniger Bürokratie durch KI?

Aktuell sollen zehn Mitarbeiter in der Stadtverwaltung von Worms mit KI-Assistenten arbeiten. Sie sollen weiterhin bei der täglichen Arbeit unterstützen, perspektivisch aber keine Menschen ersetzen oder gar Jobs gefährden. Bei maroden Straßen und dem deutschen Digitalrückstand erscheint das auch alles andere als realistisch oder gar sinnvoll.

Wie groß die Entlastung durch KI ist, steht aber noch in den Sternen. Denn bislang gibt es keine abschließende Auswertung der Stadt Worms. Das Projekt stehe vielmehr noch am Anfang, soll sich aber bereits rumgesprochen haben. Kommunen aus anderen Bundesländern hätten bereits Anfragen gestellt.

Mittelfristig könnte KI in deutschen Kommunen stärker Fuß fassen, vor allem wenn sich ein positiver Effekt auf Bürokratieabbau und Effizienz bestätigt. Wichtig bleibt dabei aber das Thema Datenschutz und die Wahrung von Entscheidungsfreiheit.

Langfristig könnten KI-Systeme die öffentliche Verwaltung grundlegend verändern: Von der Bearbeitung einzelner Anträge bis hin zu strategischen Planungen in Infrastruktur, Gesundheit oder Klimaschutz. Ziel sollte es aber sein, KI als Ergänzung zu sehen, Beschäftigte zu entlasten, ihnen Freiräume zu ermöglichen und die Kontrolle zu überlassen.

Auch interessant:

Der Beitrag Aus Personalnot: Weniger Bürokratie durch KI? erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Personalisierungslücke in Deutschland: Was Kunden wollen – und was Unternehmen liefern

Der Beitrag Personalisierungslücke in Deutschland: Was Kunden wollen – und was Unternehmen liefern erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Customer Journey Personalisierungslücke Studie Bitrix24

Personalisierung ist das Fundament moderner Kundenkommunikation. Gerade in Deutschland, wo Datenschutz und Vertrauen besonders wichtig sind, erwarten Kunden eine individuelle Ansprache. Sie möchten, dass Unternehmen ihre Bedürfnisse in der Customer Journey verstehen und relevante Inhalte liefern – ohne dabei ihre Privatsphäre zu verletzen. Doch wie die neue Bitrix24-Studie belegt, erleben viele Verbraucher die Kontaktpunkte mit Marken weiterhin als unpersönlich und austauschbar. Hier entsteht die „Personalisierungslücke“ – der Unterschied zwischen dem, was Kunden wollen und dem, was sie tatsächlich bekommen.

Die Fakten: Personalisierung bleibt oft Wunschdenken

Die Bitrix24-Studie macht die Diskrepanz deutlich: Nur 24 Prozent der Befragten empfinden die Kommunikation von Marken als angenehm und relevant, 47 Prozent erleben sie als zufällig oder unpräzise. 13 Prozent bekommen überhaupt keine persönliche Ansprache, während 16 Prozent die Kommunikation als zu aufdringlich empfinden.

Das Problem liegt seltener am fehlenden Willen, sondern an fragmentierten Systemen, nicht vernetzten Datensilos und einer übervorsichtigen Interpretation der DSGVO. Die Idee der maßgeschneiderten Kommunikation bleibt oft Theorie, während Kunden längst personalisierte Customer Journeys einfordern.

Was Kunden wirklich wollen – und was sie stört

  • 42 Prozent wünschen sich hilfreiche Inhalte und Tipps, die konkrete Probleme lösen.
  • 22 Prozent legen Wert auf authentische, menschliche Kommunikation – keine Standardtexte.
  • Je 18 Prozent bevorzugen relevante Produktempfehlungen oder exklusive, individuell zugeschnittene Angebote.

Statt Massenmails und Werbeflut wollen Kunden echten Mehrwert. Gleichzeitig empfinden 48 Prozent die ständige Präsenz von Werbung als besonders störend, 25 Prozent beklagen eine Überflutung durch E-Mails und Push-Nachrichten. 14 Prozent fühlen sich unwohl, wenn sensible Daten offensichtlich genutzt werden, 12 Prozent kritisieren falsche Annahmen über ihre Interessen. Zu viel, zu beliebig oder zu aufdringlich – das Risiko, Kunden zu verlieren, steigt.

Zur Bitrix24-Studie

Warum viele Unternehmen scheitern – und wie es besser geht

  • Fehlende oder ungenaue Datenbasis
  • Isolierte Systeme ohne Integration
  • Unzureichend geschulte Teams
  • Automatisierung ohne menschliches Feingefühl

Die Bitrix24-Studie zeigt klar, dass Personalisierung nur dann gelingt, wenn alle Touchpoints – von Website bis Support – miteinander verbunden sind. Ein zentrales CRM-System wie Bitrix24 CRM bündelt Vertriebs-, Marketing- und Supportdaten in einem System. So wird jede Interaktion zum Teil einer ganzheitlichen, personalisierten Customer Journey und Unternehmen können Kundenbedürfnisse gezielt erfüllen.

Bitrix24 CRM: Personalisierung in der Praxis

Mit Bitrix24 CRM erhalten Unternehmen ein zentrales Tool, das sämtliche Kundendaten, Kommunikationskanäle und Workflows integriert. Egal, ob Lead-Management, E-Mail-Marketing, Social Media oder Support: Alle Informationen sind im richtigen Moment verfügbar und können automatisiert oder individuell genutzt werden. Das Ergebnis: Ein personalisiertes, konsistentes Kundenerlebnis, das Vertrauen schafft und die Kundenbindung stärkt.

Die Plattform setzt dabei auf intelligente Segmentierung, Automatisierung und KI, sodass Unternehmen relevante Inhalte, Angebote und Services zum passenden Zeitpunkt ausspielen können – DSGVO-konform und transparent. Die Customer Journey wird dadurch nicht nur personalisiert, sondern auch effizient gesteuert und messbar verbessert.

Fazit: Personalisierung ist Pflicht – und Bitrix24 schließt die Lücke

Deutsche Unternehmen, die Personalisierung gezielt einsetzen, verschaffen sich 2025 einen echten Vorteil. Die Kombination aus smarter Datennutzung, klarer Zielgruppen-Ansprache und zentralen Tools wie Bitrix24 CRM hilft, die Personalisierungslücke zu schließen. Das Ergebnis: Ein verbessertes Kundenerlebnis, mehr Loyalität und nachhaltiges Wachstum.

Mehr zur Bitrix24-Customer Journey

FAQ zur Personalisierungslücke in Deutschland

Wie kann die Personalisierung im Unternehmen gezielt verbessert werden?

Durch ein leistungsfähiges, integriertes CRM wie Bitrix24, gezielte Datennutzung und eine enge Zusammenarbeit zwischen Marketing, Vertrieb und Support.

Was sind die häufigsten Fehler?

Mangelnde Datenintegration und fehlende Abstimmung zwischen Abteilungen bremsen den Erfolg.

Wie empfinden Kunden Personalisierung aktuell?

47 Prozent erleben sie als zu zufällig, nur 24 Prozent als wirklich angenehm und relevant.

Welche Art von Personalisierung wünschen sich Kunden?

Hilfreiche Inhalte, ehrliche Kommunikation und exklusive, relevante Angebote.

Was stört Kunden am meisten?

Zu viel Werbung, Datenmissbrauch und falsche Annahmen über Interessen.

Welche Tools helfen bei der Personalisierung?

Moderne CRM-Systeme, Marketingautomatisierung und KI-gestützte Datenanalyse wie in Bitrix24.

Der Beitrag Personalisierungslücke in Deutschland: Was Kunden wollen – und was Unternehmen liefern erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Ungewöhnliche Batterie nutzt Schwefel als Speicher und Elektrodenspender

Der Beitrag Ungewöhnliche Batterie nutzt Schwefel als Speicher und Elektrodenspender erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Schwefel Batterie

Eine neuartige Batterie nutzt die komplexe Chemie von Schwefel, um eine besonders hohe Energiedichte zu erreichen. Statt als Speichermaterial dient Schwefel dabei als aktiver Elektronenspender in einer Kombination mit Natrium und Chlor.

Schwefel kommt in der Natur in großen Mengen vor und ist in der Beschaffung sehr kostengünstig. Ein neuer wissenschaftlicher Ansatz nutzt eine ungewöhnliche Schwefel-Chemie, um eine hohe Leistungsdichte in Batterien zu erzielen. Laut einem Bericht des Magazins Nature unterscheidet sich dieser von herkömmlichen Speichersystemen.

Das Konzept sieht vor, dass Schwefel nicht nur als Speicher für Energie dient. Das Material gibt während der chemischen Reaktion aktive Elektronen ab. Dies ist ungewöhnlich, da die Schwefel-Ketten in der Batterie direkt reagieren und so mehr Ladungsträger freisetzen als bei herkömmlichen Schwefel-Verbindungen.

Schwefel-Batterie: Wirtschaftlichkeit und Rohstoffvorteile

Die Forschung zeigt, dass durch diesen Prozess eine höhere spezifische Kapazität möglich ist. Anstatt die Elektronen nur zwischen den Polen hin und her zu schieben, liefert der Schwefel durch seine chemische Umwandlung zusätzliche Teilchen für den Stromfluss.

Das führt dazu, dass die Batterie bei gleicher Größe eine höhere Energiedichte aufweist. Heißt konkret: Geräte könnten länger mit Strom versorgt werden. Die Nutzung von Schwefel bietet Vorteile für die Produktion zukünftiger Batterien. Da der Rohstoff auf der Erde reichlich vorhanden ist, entfallen teure Lieferketten für seltene Materialien.

Das führt dazu, dass Batterien auf dieser Basis preiswerter hergestellt werden können.  Die Teilchen liefern die Kraft für die Batterie direkt aus der chemischen Reaktion. Daten von Experten wie John Timmer belegen die Leistungsfähigkeit dieses speziellen Ansatzes.

Nachhaltigkeit und chemische Prozesse

Forscher entwickeln die Technologie aktuell noch weiter, um die Stabilität der Reaktionen zu garantieren. Ein Aspekt der neuartigen Schwefel-Batterie ist die Nachhaltigkeit durch die Verwendung eines häufigen Elements. Denn Schwefel fällt oft als Nebenprodukt in der Industrie an, weshalb die Beschaffung die Umwelt weniger belastet als der Abbau seltener Erden. Die Hardware für saubere Energie steht so auf einer umweltfreundlichen Basis.

Im Kern der Technologie steht die Erkenntnis, dass Schwefel nicht nur die Ladung hält, sondern selbst oxidiert oder reduziert wird, um Elektronen zu liefern. Durch diese aktive Beteiligung an der Stromerzeugung wird das Material optimal ausgenutzt. Aktuell konzentriert sich die Forschung darauf, diese Schwefel-Reaktionen über viele Ladezyklen hinweg stabil zu halten.

Auch interessant:

Der Beitrag Ungewöhnliche Batterie nutzt Schwefel als Speicher und Elektrodenspender erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Preis-Leistung: Die schlechtesten Autos – laut ADAC

Der Beitrag Preis-Leistung: Die schlechtesten Autos – laut ADAC erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Audi Q7 Auto Autos SUV

Manchen Menschen sind die Kosten beim Autokauf relativ egal, solange die Leistung stimmt. Wenn ein Fahrzeug neben einem hohen Preis aber auch noch suboptimal bei den Eigenschaften abschneidet, landet es in unserem Ranking der Autos mit dem schlechtesten Preis-Leistungs-Verhältnis.

Ein Auto ist für die meisten Menschen nach der eigenen Immobilie die zweitgrößte Investition ihres Lebens. Umso schmerzhafter ist es, wenn man beim Händler eine hohe Summe hinblättert, nur um ein leistungsschwaches Fahrzeug zu erhalten, das schnell weitere Kosten verursacht.

Diese Autos sind dauerhaft teuer

Der ADAC Autotest 2025 deckt auf, welche Modelle in Sachen Preis-Leistung gut abschneiden und welche komplett durchfallen. Ein kleiner Spoiler vorweg: Bekannte Marken schützen nicht vor einem vermeintlichen Fehlkauf.

Das essentielle Kriterium für dieses Ranking sind die sogenannten Total Cost of Ownership (TCO). Diese beinhalten nicht nur die Kosten bei der Anschaffung eines Autos, sondern auch eventuelle Folgekosten durch Reparaturen und Verschleiß. Mit einbezogen werden die Kosten für Versicherung, Wartung und Wertverlust. Letzterer ist vor allem bei Luxuskarossen extrem hoch.

Dieser Umstand erklärt auch, warum sich in der Liste der Preis-Leistungs-Verlierer fast ausschließlich europäische Premiumhersteller tummeln. Marken wie Audi, BMW und Mercedes dominieren die unteren Plätze der Liste des ADAC, da die Preise selten die technische Mehrleistung rechtfertigen können.

Wir haben unser Ranking nach der Preis-Leistung ausgerichtet. Gibt es ein Unentschieden, kommen die anderen beiden Noten zum Tragen: Die Gesamtnote und der Preis. Erstere beinhaltet alle Eigenschaften bis auf den Preis, und die Zweite bewertet eben diesen. Welche zehn Autos laut dem ADAC in Sachen Preis-Leistung am schlechtesten sind, zeigen wir in der folgenden Galerie.

Platz 10: Volvo XC60 Plug-in Hybrid T6 Ultra

Eröffnet wird die Top Ten von einem Volvo Plug-in-Hybrid, dem XC60 T6 Ultra. Es ist eines von vielen Autos mit einer Preis-Leistungs-Bewertung von 3,3, schneidet unter diesen mit einer 2,3 in Sachen Leistung aber am schlechtesten ab. Die Kosten werden mit einer 4,4 bewertet.

Volvo XC60
Foto: Volvo

Der Beitrag Preis-Leistung: Die schlechtesten Autos – laut ADAC erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Die Emoji-Wirtschaft: Wie Emojis die digitale Teamkultur revolutionieren

Der Beitrag Die Emoji-Wirtschaft: Wie Emojis die digitale Teamkultur revolutionieren erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Business Emojis Bitrix24

Emojis sind längst mehr als bunte Bildchen – sie prägen die moderne Arbeitswelt und beeinflussen, wie Teams weltweit kommunizieren. Erfahre, welche Erkenntnisse die Bitrix24-Studie liefert und wie Unternehmen von Business Emojis profitieren können.

Digitale Kommunikation ist heute das Herzstück der Zusammenarbeit – und Emojis sind dabei nicht mehr wegzudenken. Die Bitrix24-Studie „Die Emoji-Wirtschaft“ zeigt, wie sich die Nutzung von Emojis am Arbeitsplatz entwickelt hat und welchen Einfluss sie auf Teamstimmung, Produktivität und Zusammenhalt haben. Besonders spannend: Deutschland kommuniziert zurückhaltender als viele andere Regionen, und doch steigt auch hier die Akzeptanz von Emojis im Büro stetig an.

Studien-Insights: So verändern Emojis die Teamdynamik

Im Vergleich von Ländern zeigt sich: Brasilien führt mit über 2,5 Millionen Reaktionen pro Monat, gefolgt von den USA, Großbritannien, Kanada und Lateinamerika. Deutschland liegt mit 148.920 Reaktionen deutlich dahinter – ein Spiegel für die eher formelle Kommunikationskultur im deutschsprachigen Raum. Dennoch nimmt die Nutzung auch hier kontinuierlich zu und fördert eine offenere, empathischere Zusammenarbeit.

Emojis sind nicht nur Trend, sondern ein effektives Mittel, um digitalen Austausch menschlicher zu gestalten. 72 % der Mitarbeiter fühlen sich laut Deloitte-Report „gesehen“ und „wertgeschätzt“, wenn digitale Ausdrucksformen wie Emojis, GIFs und Reaktionen zum Alltag gehören. Der Positivitätsindex der Bitrix24-Nutzer stieg von 7,2 im Jahr 2012 auf 11,8 im Jahr 2025 – ein deutlicher Beleg dafür, dass digitale Tools und nonverbale Zeichen das Wohlbefinden am Arbeitsplatz stärken.

Zur Studie: Die Emoji-Wirtschaft

Emojis im Büro: Mehr als nur nette Geste

Die Studie zeigt, dass Emojis im Arbeitsalltag Missverständnisse vermeiden, Feedback verstärken und die emotionale Intelligenz in Teams fördern. Vor allem jüngere Beschäftigte empfinden Emojis als unverzichtbar für Vertrauen und Verbindlichkeit. Aber auch Führungskräfte profitieren: Laut Harvard Business Review wirken sie zugänglicher und stärken das Teamgefüge, wenn sie Emojis gezielt einsetzen.

  • Montag: Start mit starker Reaktionsrate, Höhepunkt am Dienstag und Mittwoch
  • Freitag: Positivität steigt, Vorfreude auf das Wochenende spiegelt sich in Chats wider
  • Wochenende: Kommunikation nimmt ab, aber der Positivitätsindex bleibt hoch

Wichtig bleibt das richtige Maß: Emojis passen in Team- und Projektchats, sollten aber in formellen Mails oder sensiblen Kontexten mit Bedacht eingesetzt werden.

Digitale Kommunikation & HR: Mitarbeiterbindung mit Bitrix24

Die Ergebnisse der Bitrix24-Studie unterstreichen, wie entscheidend digitale Plattformen für modernen Teamzusammenhalt sind. Bitrix24 bietet als Plattform für Mitarbeiterbindung gezielte HR-Features, um Feedback, Auszeichnungen und Teamkultur digital zu fördern. Mit dem Online-Arbeitsplatz für Teamkommunikation lassen sich Chats, Reaktionen und Emojis einfach und sicher in die tägliche Zusammenarbeit integrieren.

Gerade für hybride oder remote Teams sind Emojis ein wichtiger Schlüssel, um Distanzen zu überbrücken und die emotionale Verbindung zu stärken. Dank Bitrix24 können Unternehmen diese Tools gezielt für eine moderne, verbindende Arbeitskultur einsetzen.

Business Emojis: Was Unternehmen jetzt wissen sollten

  • Emojis fördern Teamgeist, Kreativität und psychologische Sicherheit
  • Kulturelle Unterschiede beeinflussen die Nutzung – Offenheit zahlt sich aus
  • Digitale Tools wie Bitrix24 machen das Management von Teamstimmung und Mitarbeiterzufriedenheit messbar

Bitrix24 kostenlos testen

FAQ: Emojis im Büro – die wichtigsten Antworten

Ist die Verwendung von Emojis im Berufsleben in Ordnung?

Ja, sie verbessern Klarheit und Verbindung, solange sie in passenden Situationen eingesetzt werden.

Wann sind Emojis nicht geeignet?

In formellen Dokumenten, rechtlichen Texten oder bei der ersten Kontaktaufnahme mit Kunden und Vorgesetzten.

Welche Länder nutzen die meisten Emojis in Arbeitschats?

Brasilien, USA, UK, Kanada und Lateinamerika führen weltweit.

An welchen Wochentagen gibt es die meisten Reaktionen?

Dienstag und Mittwoch sind die Höhepunkte der Emoji-Kommunikation.

Wie helfen Emojis in Remote-Teams?

Sie machen virtuelle Kommunikation persönlicher und stärken die Verbindung im Team.

Der Beitrag Die Emoji-Wirtschaft: Wie Emojis die digitale Teamkultur revolutionieren erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Künstliche Neugier: Neues KI-Modell trainiert sich selbst

Der Beitrag Künstliche Neugier: Neues KI-Modell trainiert sich selbst erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Künstliche Neugier KI Künstliche Intelligenz trainiert sich selbst

Forscher haben ein neues System entwickelt, mit dem KI-Modelle eigenständig trainieren können, indem sie sich selbst Fragen stellen. Der Ansatz könnte den Weg zu einer künstlichen Superintelligenz ebnen. 

Aktuelle KI-Modelle lernen meist, indem sie mit Daten gefüttert werden und menschliche Intelligenz durch das Erkennen von Mustern und Wahrscheinlichkeiten nachahmen. Ein neues Forschungsprojekt der Tsinghua University könnte diesen Ansatz grundlegend verändern, indem KI lernt, sich selbst Fragen zu stellen, um zu lernen.

Das System namens Absolute Zero Reasoner (AZR) nutzt ein Sprachmodell, um eigenständig herausfordernde Programmierprobleme in Python zu generieren und diese anschließend selbst zu lösen. Dabei führt AZR den Code eigenständig aus, um unmittelbar aus Erfolgen oder dem eigenen Scheitern zu lernen.

Durch diesen technischen Kreislauf soll das Modell seine Fähigkeiten sowohl beim Stellen der Aufgaben als auch bei deren Lösung verfeinern können. Die Forscher stellten fest, dass Modelle mit sieben Milliarden und 14 Milliarden Parametern durch diese Methode ihre Leistungen massiv verbesserten.

Künstliche Neugier: KI trainiert sich selbst

Die Idee der künstlichen Neugier ist nicht neu, sondern greift Konzepte von Pionieren wie Jürgen Schmidhuber und Pierre-Yves Oudeyer auf, die schon früh das Potenzial von „Self-Play“ erforschten. Der Absolute Zero Reasoner übertrifft mit seinem Ansatz aber sogar Systeme, die mit aufwendig von Menschen kuratierten Datensätzen trainiert wurden.

Dieser Fortschritt belegt die Effizienz autonomer Lernmethoden für die künftige Entwicklung intelligenter Systeme. Die Schwierigkeit der Aufgaben steigt dabei parallel zur Leistungsfähigkeit des Modells.

Dieser Skalierungseffekt könnte laut den beteiligten Forschern den Weg zu einer künftigen Superintelligenz ebnen, die über das Wissen menschlicher Lehrer hinauswächst. In der täglichen Praxis könnte KI dann beispielsweise komplexe Büroarbeiten übernehmen oder eigenständig tiefergehende Recherchen im Internet durchführen.

Digitale Agenten der Zukunft

In der Tech-Branche gewinnt das neue Verfahren an Bedeutung, da herkömmliche Datenquellen für das Training neuer Modelle zunehmend knapper und teurer werden. Ein Projekt namens Agento von Salesforce nutzt bereits ähnliche Prinzipien, um die allgemeine Argumentationsfähigkeit seiner digitalen Agenten durch experimentelles Problemlösen zu stärken.

Auch Forscher von Meta entwickeln Systeme, die Self-Play für das Software-Engineering einsetzen und damit die Grundlage für hochbegabte Software-Agenten schaffen. Die Abkehr vom reinen Kopieren menschlicher Vorlagen stellt einen Wendepunkt in der KI-Entwicklung dar.

Anstatt lediglich vorhandenes Wissen zu reproduzieren, erschließt sich das System durch das Experimentieren mit Code neue Lösungswege.

Auch interessant:

Der Beitrag Künstliche Neugier: Neues KI-Modell trainiert sich selbst erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Für Siri: Apple kauft sich Gemini-Intelligenz von Google

Der Beitrag Für Siri: Apple kauft sich Gemini-Intelligenz von Google erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Siri Google Gemini Apple KI Künstliche Intelligenz

Apple und Google haben eine Partnerschaft bekannt gegeben, die Gemini als Grundlage der Software-Entwicklung des iPhone-Konzerns vorsieht. Ziel ist es, den Sprachassistenten Siri ins KI-Zeitalter zu katapultieren. Das dürfte Hoffnung bei vielen Apple-Fans wecken und Aktionären Freudentränen in die Augen treiben. Der Deal ist aber nicht ganz unbedenklich. Eine kommentierende Analyse.

Mit Gemini: Apple will Siri ins KI-Zeitalter bringen

  • Google-Technologien wie Gemini sollen im Rahmen einer mehrjährigen Vereinbarung künftig als Grundlage der Software-Entwicklung von Apple dienen. Vor allem der Sprachassistent Siri soll in das KI-Zeitalter gebracht werden. Berichten zufolge soll Google aber keine Exklusivrechte erhalten. Für Apple bedeutet die Integration dennoch eine Abkehr von der bisherigen Strategie, Kerntechnologien ausschließlich im eigenen Haus zu entwickeln.
  • Mit Apple Intelligence startete der iPhone-Konzern zwar eigene KI-gestützte Funktionen – etwa für die Fotosuche und Benachrichtigungen auf Apple-Geräten. Diese blieben bislang aber hinter den Erwartungen zurück. Das von vielen Apple-Fans lang ersehnte KI-Update für Siri wurde zudem bereits mehrmals verschoben und lässt seit über einem Jahr auf sich warten. Apple lässt sich den Gemini-Deal deshalb rund eine Milliarde US-Dollar pro Jahr kosten.
  • Das Thema Datenschutz spielt für Apple eine große Rolle und ist mittlerweile zu so etwas wie einem Produktversprechen geworden. Um Gemini in Siri zu integrieren soll ein Großteil der Datenverarbeitung deshalb weiterhin auf Apple-Geräten oder auf einer kontrollierte Infrastruktur erfolgen. Das Unternehmen betont, dass Google die eigenen Datenschutzstandards einhalten wird. Wie das in der Praxis aussehen soll, ist bislang aber unklar.

Google könnte OpenAI den Rang ablaufen

Google könnte OpenAI im KI-Wettstreit bald endgültig den Rang ablaufen. Mit Gemini 3 hat das Unternehmen bereits deutlich an Boden gut gemacht, da Google seinen Chatbot clever als eine Art Anti-ChatGPT positioniert hat.

Da Google mit der KI ein Modell an den Start gebracht hat, das sich in zahlreiche Dienste und Plattformen integrieren lässt, hat OpenAI bereits den Code Red ausgerufen und zum Gegenschlag ausgeholt.

Der Deal mit Apple dürfte Googles Dominanz weiter verstärken und der KI-Konkurrenz die Sorgenfalten auf die Stirn treiben. Denn die Zusammenarbeit geht weit über die ChatGPT-Integration auf dem iPhone hinaus. Google gewährt seinen Partnern oftmals zudem Zugang zu Daten wie Nutzer-Interaktionen, die nicht nur für eine reibungslose Funktion, sondern auch für Werbeanzeigen relevant sind.

Die neue Apple-Google-Achse könnte deshalb zu einer weiteren monopolistischen Vormachtstellung führen, die auch die Wettbewerbsbehörden im Auge haben dürften. Eine Abhängigkeit von Gemini sowie eine Abkehr von ChatGPT könnte auf Nutzerebene eine weitreichende Folge sein.

Stimmen

  • Apple und Google ließen in einem gemeinsamen Statement verlauten: „Apple und Google haben eine mehrjährige Zusammenarbeit vereinbart, in deren Rahmen die nächste Generation der Apple Foundation Models auf den Gemini-Modellen und der Cloud-Technologie von Google basieren wird. Diese Modelle werden dazu beitragen, zukünftige Apple Intelligence-Funktionen zu unterstützen, darunter eine personalisiertere Siri-Funktion, die noch in diesem Jahr eingeführt werden soll.“
  • Aufgrund der Brisanz des Deals, ließen die Reaktionen von anderen Tech-Bossen nicht lange auf sich warten. Elon Musk, der mittlerweile ebenfalls im KI-Wettstreit mitmischt, in einem Beitrag auf seiner Plattform X (ehemals Twitter): „Dies scheint eine unangemessene Machtkonzentration für Google zu sein, da das Unternehmen auch Android und Chrome besitzt.“
  • Für einen Reddit-Nutzer gesteht Apple mit dem Gemini-Deal seine eigene Unfähigkeit ein. Auf der Plattform spottet er: „Apple hat mit seinen Prozessoren der M-Serie einen Volltreffer gelandet, aber seine Software-Sparte ist eine verdammte Meisterklasse in Sachen Peinlichkeit.“

Wann kommt Siri mit Gemini?

Die Kooperation zwischen Apple und Google wird dazu führen, dass Gemini künftig nicht mehr ausschließlich auf Google-Smartphones in Erscheinung tritt, sondern auch in den Händen von iPhone-Nutzern landet. Der Deal dürfte den Umsatz des Suchmaschinen-Giganten im Jahr 2026 deutlich ankurbeln.

Google will zudem zahlreiche weitere KI-Funktionen präsentieren und Werbung über einen KI-Modus schalten. Doch auch Apple könnte profitieren, falls es dem Unternehmen gelingt, im KI-Wettstreit mit einem runderneuerten Siri auf Basis von Gemini aufzuholen.

Es wird letztlich vieles davon abhängen, ob es Apple schafft, Gemini mit seinem Datenschutz-Versprechen und Siri in Einklang zu bringen und in sein Ökosystem zu integrieren. Eine neue Siri-Version könnte dann bereits im Frühjahr 2026 auf den Markt kommen – etwa mit der Veröffentlichung von iOS 26.4.

Bis der neue Sprachassistent nach Deutschland kommt, wird es aufgrund regulatorischen Vorgaben aber vermutlich länger dauern, ähnlich wie bei Apple Intelligence.

Auch interessant:

Der Beitrag Für Siri: Apple kauft sich Gemini-Intelligenz von Google erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Wärmepumpen: Deutsche Firma will Propan-Problem gelöst haben

Der Beitrag Wärmepumpen: Deutsche Firma will Propan-Problem gelöst haben erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Wärmepumpe Propan

Mit deutlich reduzierter Füllmenge des natürlichen Kältemittels Propan will ein deutscher Hersteller ein zentrales Sicherheitsproblem moderner Wärmepumpen entschärfen. Möglich macht das eine neue Bauweise, die hohe Effizienz und Sicherheitsanforderungen verbindet.

Die Bundesregierung setzt in ihren Klimazielen stark auf Wärmepumpen als Schlüsseltechnologie für die Wärmewende. Bis zum Jahr 2030 sollen rund sechs Millionen Wärmepumpen in Deutschland installiert sein.

Um dieses Ziel zu erreichen, ist ab 2024 ein jährlicher Zubau von mindestens 500.000 Geräten vorgesehen. Damit sollen fossile Heizungen schrittweise ersetzt und die CO2-Emissionen im Gebäudesektor deutlich reduziert werden.

Trotz ihres Potenzials für die Energiewende können Wärmepumpen durch die eingesetzten Kältemittel auch klimaschädlich sein. Das natürliche Kältemittel Propan stellt hierzu eine Alternative dar. Allerdings erhöht seine Brennbarkeit die Sicherheitsanforderungen bei Entwicklung, Installation und Betrieb der Wärmepumpen.

Das Fraunhofer-Institut für Solare Energiesysteme ISE hat deshalb zusammen mit dem deutschen Unternehmen Ait-Group an einer Lösung für dieses Problem gearbeitet. Dabei konnte die Menge des Kältemittels Propan auf unter 150 Gramm reduziert werden, was die Brandgefahr deutlich minimiert.

Propan: So werden Wärmepumpen weniger gefährlich

Bereits im Jahr 2020 haben das Fraunhofer ISE und die bayerische Ait-Group das Projekt „Low Charge 150“ (LC150) ins Leben gerufen. Zusammen sollte ein Wärmepumpenkonzept entwickelt werden, das die Verwendung des natürlichen Kältemittels Propan in deutlich reduzierter Menge ermöglicht.

Das Forschungsteam konnte dabei mit einer Füllmenge von nur 124 Gramm Propan nach eigenen Angaben einen Effizienzrekord erreichen. Die Heizleistung konnte mit dieser Kältemittelmenge auf 12,8 Kilowatt gesteigert werden.

Pro Kilowatt ergab sich daraus eine spezifische Kältemittelfüllmenge von rund zehn Gramm. Das Ziel des Projekts waren 15 bis 30 Gramm pro Kilowatt – das Team habe die Projektziele damit deutlich übertroffen.

Mit Hilfe der Projektergebnisse konnte die Ait-Group nun eine serienreife Wärmepumpe entwickeln, die auf eine sehr geringe Kältemittel-Füllmenge angewiesen ist. „Unser Ziel war es, die im Projekt gewonnenen Erkenntnisse gezielt in die Entwicklung der nächsten Generation hocheffizienter und umweltfreundlicher Wärmepumpen einfließen zu lassen“, erklärt Edgar Timm, Director R+D der Ait-Group.

Sole-Wärmepumpe soll in Ein- und Mehrfamilienhäusern zum Einsatz kommen

Trotz des brennbaren Materials sind Wärmepumpen mit dem Kältemittel Propan grundsätzlich auch für den Einsatz in Gebäuden geeignet. Bislang erforderte der Einsatz jedoch zusätzliche technische Vorkehrungen in Form eines aktiven Lüftungskonzepts.

Bei den Modellen alpha innotec WZSV 63 und NOVELAN WSV 6.3 der Ait-Group, die auf den Forschungsergebnissen des Projekts LC150 basieren, kann auf ein solches Lüftungskonzept jedoch verzichtet werden. Denn obwohl die Sole-Wärmepumpen Propan als Kältemittel nutzen, ist ein solches Konzept laut dem Hersteller nicht nötig.

Denn für den Fall des Austritts von Kältemittel seien die Geräte so konzipiert, dass maximal nur 150 Gramm des natürlichen Kältemittels freigesetzt werden. Dadurch sei ein sicherer Betrieb in Innenräumen gewährleistet und ein zusätzliches Lüftungskonzept nicht erforderlich.

Die Wärmepumpen wurden für den platzsparenden Einsatz in Ein- und Mehrfamilienhäusern entwickelt. Durch ein herausnehmbares Kältekreis-Modul sollen auch Transport und Installation vereinfacht werden.

Auch interessant:

Der Beitrag Wärmepumpen: Deutsche Firma will Propan-Problem gelöst haben erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Das waren die meistverkauften Autos im Jahr 2025

Der Beitrag Das waren die meistverkauften Autos im Jahr 2025 erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

VW T-Roc Auto Wagen SUV Straße

Elektroautos sind auf dem Vormarsch – entsprechend tut sich auf dem deutschen Automarkt mehr, als in vielen Jahren zuvor. Wir blicken auf die Neuzulassungen des letzten Jahres und untersuchen, wie sich klassische Modelle und Newcomer platzieren konnten.

Immer wieder hört man schlechte Nachrichten aus der deutschen Automobilbranche. Allerdings konnte sich die Industrie im vergangenen Jahr auf einem moderaten Niveau stabilisieren. Insgesamt wurden 2025 rund 2,9 Millionen Neuzulassungen registriert. Das entspricht einem Zuwachs von 1,4 Prozent im Vergleich zum Vorjahr. Besonders der Endspurt im Dezember sorgte mit einem Plus von 9,7 Prozent für einen versöhnlichen Jahresausklang bei den Herstellern.

Diese Autos wurden 2025 am meisten verkauf

Der große Trend sind natürlich Elektroautos. Batterieelektrische Fahrzeuge (BEV) konnten um beeindruckende 43,2 Prozent zulegen und sich so einen Marktanteil von 19,1 Prozent sichern. Für die klassischen Benziner ging es hingegen steil bergab. Der Rückgang von 21,6 Prozent verdeutlicht, dass die Transformation trotz aller gesellschaftlicher Debatten mit großen Schritten voranschreitet. Bei Plug-in-Hybriden lag der Zuwachs sogar bei über sechzig Prozent.

Abseits der Top Ten gab es einige bemerkenswerte Aufsteiger, die man für die Zukunft auf dem Zettel haben muss. Allen voran konnte der chinesische Hersteller BYD ein großes Wachstum von über 700 Prozent verzeichnen. Das Modell BYD Seal U fand bereits fast zehntausend Käufer. Im krassen Gegensatz dazu musste der einstige Elektro-Pionier Tesla, der fast die Hälfte seines Vorjahresvolumens verlor, einen Schlag in die Magengrube hinnehmen.

Gewerbliche Halter waren für zwei Drittel der Neuwagen verantwortlich. Trotzdem kamen privat gekaufte PkW auf ein Plus von 5,1 Prozent (via Autohaus). Wir wollen aber wissen, welche Modelle sich 2025 generell am besten verkaufen konnten.

Platz 10: Audi A6

Der Audi A6 eröffnet die Top Ten mit 37.505 Neuzulassungen. Der A6 ist damit einer der wenigen Vertreter der oberen Mittelklasse, die den Sprung in unser Ranking geschafft haben.

sparsamsten Diesel, ADAC, Verbrauch, Kosten, Gesamtkosten, Grundpreis, CO2-Ausstoß, Kraftstoff, Auto, Mobilität, Fahrzeug, Automobil-Industrie
Foto: Audi

Der Beitrag Das waren die meistverkauften Autos im Jahr 2025 erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Forscher entdecken simplen Weg, um Festkörperbatterien zu verbessern

Der Beitrag Forscher entdecken simplen Weg, um Festkörperbatterien zu verbessern erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Festkörperbatterien

Weltweit suchen Forscher nach langlebigen, sicheren und günstigen Batterien. Wissenschaftler aus Südkorea haben nun gezeigt, dass eine clevere Materialgestaltung Festkörperbatterien deutlich verbessern kann – ganz ohne teure Metalle.

Eine Entdeckung südkoreanischer Forscher könnte Festkörperbatterien grundlegend verändern und auf ein neues Leistungsniveau heben. Denn den Forschern gelang es, die Leistungsfähigkeit der Batterien durch eine clevere Materialgestaltung deutlich zu verbessern – und zwar ohne teure Metalle.

Der neue Ansatz soll die Herstellung zudem effizienter machen und dadurch Kosten reduzieren. Eine Massenproduktion leistungsstarker Festkörperbatterien könnte damit in greifbare Nähe rücken.

Festkörperbatterie: Bessere Batterielaufzeit durch Framework-Mechanismus

Im Zentrum der Entwicklung steht der sogenannte „Framework-Regulation-Mechanismus“. Die Forscher nutzen ein spezielles Zusammenspiel von Sauerstoff- und Schwefel-Anionen, um die atomaren Wege innerhalb der Batterie zu regulieren.

Diese Atome weiten die Gitterstrukturen auf und machen die Straßen für die Ionen sprichwörtlich deutlich breiter. Dadurch können die Ladungsträger viel schneller und ungehinderter durch das Material fließen. Durch die strukturelle Anpassung konnten die Experten die Beweglichkeit der Lithium-Ionen um das Zwei- bis Vierfache steigern.

Ihre Messwerte zeigen eine Ionenleitfähigkeit von 1,78 Millisiemens pro Zentimeter (mS/cm) beziehungsweise 1,01 Millisiemens pro Zentimeter bei Raumtemperatur. Diese Ergebnisse belegen die Marktreife der Technologie, da sie eine zuverlässige Leistungsabgabe unter realen Alltagsbedingungen garantieren.

Maximale Sicherheit für dein nächstes Smartphone

Ein wesentlicher Vorteil der Technologie ist die erhöhte Sicherheit im Vergleich zu herkömmlichen Akkus. Da keine brennbaren flüssigen Elektrolyte verwendet werden, sinkt das Risiko für Brände oder Explosionen auf ein Minimum. Das bedeutet nicht nur mehr Leistung, sondern verspricht auch mehr Sicherheit für Elektroautos.

Professor Dong-Hwa Seo betont, dass das Designprinzip die Kosten und Leistung von Batterien durch den Einsatz günstiger Rohstoffe wie Zirkonium optimiert. Laut den Forschern ist das Potenzial für eine industrielle Anwendung sehr hoch, da der Fokus nun auf dem klugen Design statt nur auf der Materialwahl liegt.

Auch interessant:

Der Beitrag Forscher entdecken simplen Weg, um Festkörperbatterien zu verbessern erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Metaverse: Wie Mark Zuckerberg ein Milliardengrab schaufelte

Der Beitrag Metaverse: Wie Mark Zuckerberg ein Milliardengrab schaufelte erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Metaverse Meta Mark Zuckerberg

Facebook-Gründer Mark Zuckerberg hatte Ende 2021 den Traum von einer virtuellen Welt, in der es keine Grenzen gibt. Eine digitale Parallelwelt sollte es sein, in der Virtualität und Realität miteinander verschmelzen. Doch der Plan scheiterte. Denn dem Unternehmen gelang es nicht einmal, zu erklären, was das Metaverse sein soll. Eine kommentierende Analyse.

Was ist das Metaverse?

  • Facebook-Gründer Mark Zuckerberg präsentierte im Oktober 2021 seinen Metaverse-Traum, infolgedessen er das Unternehmen in Meta umbenannte. Seine Idee: Ein virtueller Raum, in dem soziale Online-Erlebnisse mit der realen Welt verschmelzen – inklusive dreidimensionaler Projektionen und Erfahrungen.
  • Vom anfänglichen Hype ist nicht mehr viel übrig. Es gibt vereinzelte virtuelle Welten wie digitale Arbeitsräume, Gaming-Umgebungen oder Social Media-Räume, aber eben nicht „das“ eine Metaverse. Meta sah sich zwar niemals als Alleinherrscher, versuchte aber, eigene virtuelle Räume mit denen anderer Unternehmen zu verknüpfen. In Zahlen gab man dafür 100 Milliarden US-Dollar aus. Der operative Verlust soll bei 80 Milliarden US-Dollar liegen.
  • Wie das Handelsblatt unter Berufung auf Insider berichtet, will Meta rund 30 Prozent der bisherigen finanziellen Mittel für das Metaverse streichen. Zum Jahresanfang 2026 sei demnach mit Entlassungen zu rechnen. Vor allem die virtuellen Welten Horizon Worlds und die Virtual Reality-Sparte Quest sollen von den Einsparungen betroffen sein.

Metaverse: Ein milliardenschwerer Albtraum

Mark Zuckerbergs Metaverse-Traum entpuppt sich bislang als milliardenschwerer Albtraum, bei dem jeder Investor schreiend die Flucht ergreifen dürfte. Der wahre Knackpunkt liegt aber nicht beim Geld, sondern im Konzept.

Denn: Meta bastelte bislang an einem virtuellen Raum, der Dinge verändern sollte, die niemand verändern wollte. Die Realität ist entsprechend ernüchternd und das große Versprechen bleibt aus. Doch der Fehlschuss hat auch Möglichkeiten eröffnet, um virtuelle Realitäten sinnvoll zu nutzen – etwa im Bildungsbereich oder der Industrie.

Ob man dafür Milliarden hätte versenken müssen, ist aber mehr als fraglich. Mark Zuckerbergs ursprünglicher Metaverse-Traum dürfte deshalb als einer der teuersten Fehlgriffe in die Tech-Geschichte eingehen. Denn: Mit 100 Milliarden US-Dollar hätte man auch sinnvoll Armut, Krankheiten und den Klimawandel bekämpfen können.

Stimmen

  • Mark Zuckerberg Ende 2021 in einem Schreiben zur Umstrukturierung von Facebook in Meta: „Die nächste Plattform wird noch immersiver sein – ein verkörpertes Internet, in dem Sie Teil der Erfahrung sind und sie nicht nur betrachten. Wir nennen dies das Metaversum, und es wird jedes Produkt betreffen, das wir entwickeln.“
  • Meta Reality Labs-Chef Andrew Bosworth machte bereits Anfang 2025 Druck auf seine Abteilung. In einer internen Memo schrieb er: „Dieses Jahr wird wahrscheinlich entscheiden, ob all unsere Arbeit als visionärer Durchbruch oder als legendäres Missgeschick in die Geschichte eingehen wird. Wir müssen Umsatz, Kundenbindung und Engagement auf breiter Front steigern. Wer das Gewicht der Geschichte nicht spürt, der hat nicht richtig aufgepasst.“
  • Bitkom-Hauptgeschäftsführer Bernhard Rohleder ordnete die Situation Mitte 2024 wie folgt ein: „Die erste Euphorie über das Metaverse ist zwar abgeklungen, es gibt aber keinerlei Grund für einen Abgesang. Im Gegenteil: Gerade im gewerblichen Bereich sind bereits viel Anwendungen im Praxiseinsatz. Das gilt unter anderem für das Industrial Metaverse mit digitalen Zwillingen in der Fertigung.“ Der Digitalverband hält nach wie vor an dieser Einschätzung fest.

Metaverse als Geschäftsmodell gescheitert

In seiner jetzigen Form ist das Metaverse als Geschäftsmodell krachend gescheitert. Denn: Einnahmen und Ausgaben stehen in keinem Verhältnis. Dennoch gibt es Bereiche, in denen sich ein Mehrwert gewinnen lässt. Beispielsweise im Gaming, bei Bildungsplattformen oder für Schulungsmaßnahmen.

Der Otto Normalverbraucher braucht aber keine Kopie der Realität, sondern ein Werkzeug, das Probleme löst. Weitaus realistischer erscheint deshalb eine Zukunft, in der leichte AR-Brillen oder Smart Glases statt klobige VR-Headsets das Gesicht zieren. Nicht, um die Realität zu ersetzen, sondern um sie zu erweitern.

Auch Mark Zuckerberg dürfte dies mittlerweile erkannt haben und weiter umstrukturieren. Budgetkürzungen, Entlassungen und eine Fokussierung auf rentable Sparten sind die traurige wie logische Konsequenz. Doch während die große Metaverse-Euphorie weiter verblassen dürfte, entstehen Nischen, in denen die Metaverse-Idee auf echte Probleme treffen und diese lösen könnte.

Auch interessant:

Der Beitrag Metaverse: Wie Mark Zuckerberg ein Milliardengrab schaufelte erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

„Super-Thermoskanne“: Neue Geothermie-Technik holt Wärme aus der Tiefe

Der Beitrag „Super-Thermoskanne“: Neue Geothermie-Technik holt Wärme aus der Tiefe erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Geothermie Wärme Erdwärme, Erneuerbare Energien

In Brandenburg wird an einer neuartigen Tiefengeothermie-Technologie gearbeitet, die Wärme aus mehreren Kilometern Tiefe nahezu verlustfrei an die Oberfläche bringen soll. Kern des Konzepts ist ein vakuumisoliertes Rohrsystem, das wie eine überdimensionierte Thermoskanne funktioniert.

Geothermie kann ganzjährig verfügbare, klimaneutrale Wärme liefern und ist unabhängig von Wetter, Tages- oder Jahreszeit. Vor allem im Vergleich zur Sonnen- oder Windenergie bringt sie damit entscheidende Vorteile für die Klimawende, da weder Wind- noch Dunkelflauten sie beeinträchtigen.

Gerade im Wärmesektor, der in Deutschland für einen großen Teil der CO2-Emissionen verantwortlich ist, bietet die Geothermie das Potenzial, fossile Energieträger wie Gas oder Öl dauerhaft zu ersetzen. Bislang wurde ihr Ausbau jedoch unter anderem durch hohe Investitionskosten, technische Risiken bei Tiefbohrungen oder Wärmeverluste auf dem Weg zur Oberfläche gebremst

Ein Projekt in der Brandenburger Schorfheide könnte zumindest das letzte Problem lösen. Denn hier erprobt das dänische Startup Green Therma zusammen mit dem Helmholtz-Zentrum für Geoforschung (GFZ Potsdam) einen neuen Ansatz. Dieser funktioniert ähnlich wie eine überdimensionierte Thermoskanne und kann Wärme aus Kilometern Tiefe nahezu verlustfrei an die Oberfläche bringen.

Diese Geothermie-Technik funktioniert wie eine „Super-Thermoskanne“

Das dänische Geothermie-Startup Green Therma will mit seinem neuartigen, vakuumisolierten Bohrlochsystem die Nutzung tiefer Erdwärme wirtschaftlicher und breiter einsetzbar machen. Herzstück der Technologie ist ein geschlossener Kreislauf, der die aus mehreren Kilometern Tiefe gewonnene Wärme nahezu verlustfrei an die Oberfläche transportieren soll.

Im Vergleich zur bisher herkömmlichen Tiefengeothermie benötigt das DualVac-System nur ein Bohrloch, nicht mehr zwei. In diesem Bohrloch arbeitet ein vakuumisoliertes Rohr. Durch dieses Rohr kann die Wärme, die in drei Kilometern Tiefe mehr als 100 Grad Celsius beträgt, nach oben befördert werden.

Zusätzlich müssen für dieses System nicht zwingend neue Bohrungen stattfinden. Denn das dänische Startup will auch alte, ungenutzte Bohrlöcher umfunktionieren und so Ressourcen schonen.

Test in Brandenburg soll Machbarkeit zeigen

Am Forschungsstandort Groß Schönebeck in Brandenburg wollen das Helmholtz-Zentrum für Geoforschung und Green Therma dieses System nun testen. In dem Projekt soll die direkte Nutzung von Erdwärme für Fernwärme untersucht werden.

Bereits im Jahr 2025 haben die Projektpartner das Brunnen-Bohrloch auf seine Eignung überprüft. Die vollständige Inbetriebnahme ist voraussichtlich für die erste Hälfte des Jahres 2026 geplant. Die Anlage wird dann nach Inbetriebnahme ein Jahr lang einem Stresstest unterzogen.

Geht dieser Test positiv zu Ende, könnte sich die Nutzung von Erdwärme deutlich ausweiten. Denn so könnte Geothermie auch in größeren Tiefen wirtschaftlich nutzbar gemacht werden. Damit hätte die Technologie das Potenzial, Erdwärme zu einer verlässlichen Säule der klimaneutralen Wärmeversorgung für Städte und Industrie werden zu lassen.

Auch interessant:

Der Beitrag „Super-Thermoskanne“: Neue Geothermie-Technik holt Wärme aus der Tiefe erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Das sind die besten Powerbanks – laut Stiftung Warentest

Der Beitrag Das sind die besten Powerbanks – laut Stiftung Warentest erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

besten Powerbanks

Mit einer Powerbank ist es möglich, Zeiten ohne ausreichende Akkuversorgung oder Zugang zu einem Ladekabel mit Strom zu überbrücken. Dafür braucht es aber auch eine zuverlässige Powerbank. Unser wöchentliches Ranking zeigt dir, was die besten Powerbanks sind – zumindest, wenn es nach Stiftung Warentest geht.

Wer kennt das nicht: man ist im Zug oder Auto unterwegs und der Smartphone-Akku neigt sich dem Ende entgegen. Eine Steckdose? Weit entfernt. In einem solchen Fall können Powerbanks eine echte Hilfe (und manchmal sogar Rettung sein). Allerdings nur, wenn die ausgesuchte Powerbank auch wirklich etwas taugt und das Smartphone zuverlässig aufladen kann.

Somit ist es wichtig, sich vor dem Kauf der richtigen Powerbank genau zu informieren und darauf zu achten, wie zuverlässig und gut diese arbeitet. Unser aktuelles Ranking zeigt die zehn besten Powerbanks, die es laut Stiftung Warentest derzeit gibt. So kannst du einfach herausfinden, welche Powerbank für deine Zwecke am besten geeignet ist und wirklich einen Mehrwert bietet.

Die besten Powerbanks

Für die besten Powerbanks muss man natürlich ein wenig mehr Geld investieren, als für einfache Modelle, die man manchmal beim Discounter finden kann. Doch dafür bekommt man auch eine entsprechend hohe Qualität und kann davon ausgehen, dass diese Powerbanks auch mehrere Ladezyklen zuverlässig und sicher aushalten und das Smartphone-Akku effektiv entlasten. Das sind die zehn besten Powerbanks:

Dieser Beitrag enthält Affiliate-Links, für die wir eine kleine Provision erhalten. Diese hat jedoch keinen Einfluss auf die inhaltliche Gestaltung unserer Beiträge.

Dieser Beitrag enthält Affiliate-Links, für die wir eine kleine Provision erhalten. Das hat jedoch keinen Einfluss auf die inhaltliche Gestaltung unserer Beiträge.

Platz 10: Iniu 45W Mini-Power-Bank P50

Die Iniu 45W Mini-Power-Bank P50 belebgt im Ranking der besten Powerbanks den zehnten Platz. Mit etwa 40 Euro ist sie recht erschwinglich und bietet dafür eine mehr als solide Leistung. 2,3 lautet das Qualitätsurteil von Stiftung Warentest und die Iniu 45W Mini-Power-Bank P50 ist vor allem bei der Stabilität (Note 2,0) vorn mit dabei.

Der Beitrag Das sind die besten Powerbanks – laut Stiftung Warentest erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Winziges Leistungsmodul könnte weltweiten Energiebedarf reduzieren

Der Beitrag Winziges Leistungsmodul könnte weltweiten Energiebedarf reduzieren erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Leistungsmodul Energiebedarf Rechenzentren

Forscher haben ein neues Leistungsmodul entwickelt, um die Effizienz von Rechenzentrum zu optimieren. Es verspricht eine bis zu fünfmal höhere Energiedichte bei geringem Widerstand.

Der globale Energiebedarf steigt kontinuierlich an. Ein Grund ist die zunehmende Verbreitung von KI-Systemen. Forscher des NREL stellten deshalb kürzlich einen Ansatz vor, um den Energiebedarf von Rechenzentren zu reduzieren: ein neues Leistungsmodul auf Siliziumcarbid-Basis.

Die Wissenschaftler erzielten Effizienz- und Speicherdichte-Werte, die es bisher in dieser Form bisher nicht gab. Das System hört auf den Namen Smart-Power-Modul mit extrem niedriger Induktivität (ULIS). Es soll eine bis zu fünfmal höhere Energiedichte als bisherige Ansätze auf Siliziumcarbid-Basis haben.

Im Ergebnis könnten Hersteller kompaktere, leichtere und energieeffizientere Systeme herstellen. Darunter fallen Datenzentren, Stromnetze, Mikroreaktoren oder Flugzeuge.

Neues Leistungsmodul könnte die Energiekrise bewältigen

Insgesamt kann das ULIS bis zu 1.200 Volt und 400 Ampere bereitstellen. Ein weiterer Vorteil ist eine außergewöhnlich geringe parasitäre Induktivität. Dabei handelt es sich um den internen Widerstand, der die Geschwindigkeit begrenzt, mit der sich Strom verändern lässt.

Durch eine Reduktion um den Faktor sieben bis neun kann so mehr Energie aus der gleichen Stromquelle extrahiert werden. Zudem soll sich ULIS besonders für sich stark verändernde Umgebungen eignen. Das Leistungsmodul soll kontinuierlich seinen eigenen Zustand überprüfen, um Fehler vorzubeugen.

Forscher denken Design neu

Der Hauptfaktor des neuen Leistungsmoduls ist ein komplett neues Design. Bei bisher gängigen Modulen sind die Bauelemente in einem Ziegelstein-ähnlichen Gehäuse untergebracht.  Im Gegensatz dazu sind die Schaltkreise von ULIS um ein flaches, achteckiges Design gewickelt. Dieses schirmt externe Störfaktoren ab und kann auf dem gleichen Raum zusätzliche Komponenten unterbringen.

Ein weiterer Vorteil liegt in dem Material des Gehäuses. Es basiert auf einem Kunststoff und hat dadurch ein geringeres Gewicht. Zudem kann das System komplett kabellos betrieben werden. Das macht es flexibler einsetzbar.

Auch interessant: 

Der Beitrag Winziges Leistungsmodul könnte weltweiten Energiebedarf reduzieren erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

EU-Behörde blamiert sich mit KI-Panne

Der Beitrag EU-Behörde blamiert sich mit KI-Panne erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

ENISA EU-Behörde KI Panne Künstliche Intelligenz

Die Agentur der Europäischen Union für Cybersicherheit (ENISA) hat in einem aktuellen Lagebericht vor den Gefahren von KI gewarnt. Das Problem: Die EU-Behörde hat beim Verfassen des Berichts offenbar selbst KI-Tools eingesetzt, wodurch sich Fehler eingeschlichen haben. Viele der angegebenen Quellen existieren etwa gar nicht. Eine kommentierende Analyse.

ENISA warnt vor KI

  • Bereits im Oktober 2025 erschien der „Gefahren-Lagebericht“ der ENISA, in dem die Behörde eindringlich vor den Gefahren Künstlicher Intelligenz warnt. Laut dem 87-seitigen Report würde KI in rund 80 Prozent aller Fälle Hackern helfen, Nutzern ihre Passwörter zu entlocken. Betrügereien nehmen durch Künstliche Intelligenz zu, so die berechtigte Warnung.
  • Wie der Spiegel (€) zuerst berichtete, haben IT-Sicherheitsforscher vom Institut für Internet-Sicherheit an der Westfälischen Hochschule festgestellt, dass ausgerechnet der ENISA-Bericht zur Gefahrenlage von KI offenbar nicht nur von Menschen verfasst, sondern von Künstlicher Intelligenz verfasst wurde. Von den insgesamt 496 Quellen in Form von Links führten 26 deshalb zu 404-Fehlermeldungen, da sie nie existiert hatten.
  • Die ENISA hat ihren Sitz in Griechenland. Sie hat die Aufgabe, „einen Beitrag zur Cyberpolitik der EU“ zu leisten. Ziel ist es, das Vertrauen in digitale Produkte, Dienste und Prozesse „durch die Konzeption von Systemen für die Cybersicherheitszertifizierung“ zu stärken. Dazu arbeitet sie mit den EU-Ländern und -Einrichtungen zusammen.

EU-Behörde blamiert sich mit KI-Panne

Der Vorgang ist weniger ein KI-Skandal als ein klassisches Qualitäts- und Kontrollversagen. Dass auch Behörden KI einsetzt, ist inzwischen üblich und zunächst einmal nicht problematisch.

Brisant wird der Fall aber dadurch, dass grundlegende journalistische und wissenschaftliche Mindeststandards wie die simple Überprüfung von Quellen offenbar nicht eingehalten wurden.

Der traurige Umkehrschluss: Die überwiegend berechtigten inhaltlichen Kernaussagen und Warnungen des Berichts werden kaum diskutiert, weil sich die ENISA mit ihrem handwerklichen Versagen selbst ein Bein gestellt hat.

Einzelne nicht nachweisbare Quellen untergraben deshalb die Glaubwürdigkeit des gesamten Berichts – obwohl dieser überwiegend zutreffend ist. Das Einräumen von Fehlern ist zwar löblich, doch ohne konkrete Offenlegung des eigenen Versagens bleibt ein realer Vertrauensverlust.

Stimmen

  • Juhan Lepassaar, Exekutivdirektor der ENISA, erklärte zur Veröffentlichung des Reports: „Die Systeme und Dienste, auf die wir uns in unserem täglichen Leben verlassen, sind miteinander verflochten, sodass eine Störung an einem Ende Auswirkungen auf die gesamte Lieferkette haben kann. Dies hängt mit einem Anstieg des Missbrauchs von Cyberabhängigkeiten durch Bedrohungsakteure zusammen, der die Auswirkungen von Cyberangriffen verstärken kann.“
  • Christian Dietrich, Professor am Institut für Internet-Sicherheit an der Westfälischen Hochschule, dazu: „Mich stört maßgeblich, dass eine öffentliche Behörde, die in meinen Augen die sehr wichtige Aufgabe hat, verlässliche, nachvollziehbare Berichte herauszugeben, das in diesem Fall nicht getan hat“. Zu den fehlerhaften Links sagte er: „Man hätte nur einmal draufklicken müssen“.
  • Die ENISA räumte bereits „Mängel“ ein, zu denen sie „Verantwortung übernehmen“ wolle. Die Behörde habe KI für „kleinere redaktionelle Überarbeitungen“ verwendet. Die Inhalte des Berichts seien ungeachtet der nicht existierenden Quellen valide. Linus Neumann vom Chaos Computer Club dazu: „Die ENISA soll zentrale Anlaufstelle in Europa sein. Wenn dann schon in den sehr oberflächlichen Bedrohungsberichten derart unsauber gearbeitet wird, wirft das ein sehr schlechtes Licht auf die Institution“.

Vertrauensverlust auf Behördenebene

Der Fall wirft grundsätzliche Fragen zur Arbeitsweise europäischer Behörden auf. Wenn ausgerechnet eine Institution, die Standards und Vertrauen in der Cybersicherheit setzen soll, bei Quellenprüfung und -sicherung versagt, steht mehr auf dem Spiel als ein einzelner Bericht.

Entscheidend wird sein, ob die ENISA ihre internen Prozesse transparent nachschärft – etwa durch klare Regeln zum Einsatz von KI, verpflichtende menschliche Überprüfungen und eine nachvollziehbare Korrektur.

Andernfalls droht ein nachhaltiger Vertrauensverlust, der die Autorität künftiger Warnungen und Empfehlungen untergräbt.

Auch interessant: 

Der Beitrag EU-Behörde blamiert sich mit KI-Panne erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Wasserverbrauch von KI: Zwischen Panikmache und realen Zahlen

Der Beitrag Wasserverbrauch von KI: Zwischen Panikmache und realen Zahlen erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI Wasserverbrauch Künstliche Intelligenz Rechenzentrum

Der enorme Wasserverbrauch von KI-Rechenzentren ist vor allem bei Kritikern ein wiederkehrendes Argument gegen den ungezügelten Ausbau digitaler Infrastrukturen. Doch wie hoch der tatsächliche Bedarf ist, zeigt sich erst bei genauerem Blick: Klima, Kühltechnik und Strommix entscheiden maßgeblich über die ökologische Bilanz.

Wasser wird in Rechenzentren vor allem zur Kühlung der Server eingesetzt, die beim Rechnen große Mengen Abwärme erzeugen. Je nach Technik kommt es direkt in Verdunstungskühlsystemen zum Einsatz oder indirekt über den Wasserverbrauch der Kraftwerke, die den benötigten Strom liefern.

Rund um den Wasserverbrauch von KI-Rechenzentren kursieren jedoch aktuell zahlreiche Berechnungen, die sich teils deutlich widersprechen. Schätzungen reichen von vergleichsweise moderaten Mengen bis hin zu alarmierenden Szenarien.

Erst kürzlich musste die Journalistin Karen Hao bei einer Berechnung aus ihrem Bestseller „Empire of AI“ zurückrudern. Sie hatte in ihrem Buch veröffentlicht, dass ein geplantes Google-Rechenzentrum nahe Santiago de Chile „mehr als das Tausendfache des Wasserverbrauchs der gesamten Bevölkerung“ benötigen könnte. Allerdings habe es hierbei einen Rechenfehler gegeben – die Zahl war viel zu hoch angesetzt.

Auch aufgrund solcher Vorfälle warnen Fachleute deshalb davor, Einzelwerte zu verabsolutieren. Denn Standortfaktoren, technische Ausstattung der Rechenzentren sowie der verwendete Strommix können großen Einfluss darauf haben, wie wasserintensiv KI tatsächlich ist.

KI: Welche Faktoren beeinflussen den Wasserverbrauch?

Der Wasserverbrauch von KI-Rechenzentren ist stark abhängig von zahlreichen Faktoren. Beispielsweise kann der Einsatz von mehr Wasser dazu führen, dass gleichzeitig auf den Betrieb elektrischer Kühlsysteme verzichten werden kann.

Wird wiederum mehr Strom zur Kühlung der Rechenzentren verbraucht, sinkt der Wasserverbrauch. Jedoch können dann gleichzeitig – je nach Strommix – auch die Treibhausgasemissionen wieder ansteigen.

„Jeder Standort ist anders“, erklärt Fengqi You, Professor für Energiesystemtechnik an der Cornell University, gegenüber Wired. „Wie viel Wasser Sie für die gleiche Menge an KI benötigen, hängt vom Klima, von der verwendeten Technologie und vom [Energie-]Mix ab.“

Problematischer Wasserverbrauch hängt vom Standort ab

Gleichzeitig komme erschwerend hinzu, dass manche Berechnungen auch den indirekten Wasserverbrauch beinhalten. So werde der gesamte Wasser-Fußabdruck aber nur geschätzt, was jedoch auch Zahlen zur Stromerzeugung mit einbezieht. Dadurch könne es sein, dass die vermuteten Zahlen aus Schätzungen viel größer sind als der tatsächliche Wasserverbrauch vor Ort.

Dennoch dürfe der Wasserverbrauch von KI-Rechenzentren nicht unterschätzt werden. „Kurzfristig ist dies kein Problem und keine landesweite Krise“, erklärt Cornell-Professor You. „Aber es kommt auf den Standort an. An Orten, an denen bereits Wasserknappheit herrscht, wird der Bau dieser KI-Rechenzentren ein großes Problem darstellen.“

Berechnungen seien aufgrund der zahlreichen Faktoren allerdings sehr komplex. Schätzungen, dass beispielsweise das Schreiben einer E-Mail mit ChatGPT eine ganze Flasche Wasser verbraucht, seien daher für eine „durchschnittliche“ Abfrage kaum anwendbar.

Auch interessant:

Der Beitrag Wasserverbrauch von KI: Zwischen Panikmache und realen Zahlen erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

China nimmt weltweit ersten CO2-Stromgenerator in Betrieb

Der Beitrag China nimmt weltweit ersten CO2-Stromgenerator in Betrieb erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Chaotan One CO2 Stromgenerator China

China hat mit dem Chaotan One den weltweit ersten CO2-Stromgenerator in Betrieb genommen, um Strom aus Wärme zu erzeugen. Er nutzt Kohlendioxid anstelle von Dampf zur Wärmeübertragung. 

Mit dem Projekt Chaotan One in der chinesischen Provinz Guizhou nutzt China Abwärme effizienter als bisher, um Strom zu erzeugen. Ein CO2-Generator nutzt dazu erstmals kommerziell superkritisches Kohlendioxid. Die Anlage schließt einen technischen Kreislauf mit Kohlendioxid als Arbeitsmedium, um Hitze in Energie zu transformieren.

Im Vergleich zu bisherigen Systemen soll die Methode die Effizienz der Stromgewinnung um rund 85 Prozent erhöhen. Mit einer Leistung von zweimal 15 Megawatt liefert das Projekt Energie aus Quellen, die bislang überwiegend ungenutzt blieben.

Chaotan One: Der erste CO2-Stromgenerator der Welt

Die Ingenieure haben das System so kompakt gebaut, dass es nur noch die Hälfte der üblichen Fläche beansprucht. Die Anlage soll für die gleiche Leistung nur noch halb so viel Platz benötigen. Dieser geringe Platzbedarf ermögliche es Unternehmen, die Technik auch in engen Industriegebieten nachzurüsten.

Da die Anlage mit weniger Bauteilen und Hilfssystemen auskommt, sinkt zudem der Aufwand für die Wartung. Bisher gab es technische Hürden, um Wärme im mittleren und hohen Temperaturbereich bei kleinen Leistungsstufen effizient zu nutzen.

Der Chaotan One soll dieses Problem lösen, indem er Energie für die Industrie nutzbar macht. Die Technologie könnte zudem durch Solaranlagen ergänzt werden.

In einem weiteren Testlauf kombinieren Fachleute das System bereits mit Flüssigsalz-Speichern, um das Stromnetz bei Bedarf zu stabilisieren. Diese Kombination aus Speicherung und hocheffizienter Stromerzeugung soll bis 2028 die volle Einsatzreife erreichen, um regenerative Energie noch flexibler in das bestehende Netz zu integrieren.

Frühe Anerkennung durch internationale Experten

Was in China nun im kommerziellen Betrieb läuft, stuften das US-Energieministerium im Jahr 2017 und das MIT im Jahr 2018 bereits als strategische Zukunftstechnologie ein. Das Projekt markiert einen weltweiten Übergang von der Laborforschung hin zur industriellen Anwendung.

Die Entwicklung fördert neue Kapazitäten in der Energiewirtschaft und stärkt die Zusammenarbeit zwischen Forschung und Praxis. Für die weltweite Industrie bedeutet dieser Fortschritt, dass Milliarden Kilowattstunden Abwärme nicht mehr ungenutzt in die Atmosphäre geblasen werden müssen.

Auch interessant:

Der Beitrag China nimmt weltweit ersten CO2-Stromgenerator in Betrieb erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Preis-Leistung: Die besten Autos – laut ADAC

Der Beitrag Preis-Leistung: Die besten Autos – laut ADAC erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

zuverlässigsten Automarken 2025

Das Geld ist momentan bei vielen Menschen knapp. Entsprechend wichtig ist es, beim Autokauf zu wissen, wie viel Gegenwert man für den Preis tatsächlich bekommt. In unserem wöchentlichen Ranking zeigen wir dir die zehn besten Autos in puncto Preis-Leistung – laut ADAC.

Worauf sollte man beim Kauf eines neuen Autos achten? Auf den Preis oder doch besser auf die Leistung? Am besten auf Beides, denn nur durch das Preis-Leistungs-Verhältnis erfahren Kunden, wie viel sie auf Dauer mit einem Fahrzeug sparen. Sind die Kosten niedrig, aber die Besuche in der Werkstatt regelmäßig, wird der Geldbeutel trotzdem belastet. Der ADAC hat daher ein komplexes Bewertungssystem entwickelt, das die technische Qualität eines Fahrzeugs mit den realen Unterhaltskosten verknüpft.

Die besten Autos in puncto Preis-Leistung

Das Ergebnis ist der ADAC Autotest Preis-Leistung 2025, der Käufern bei der Wahl des nächsten Autos helfen soll. In der Auswertung wurden insgesamt einhundert Modelle unter die Lupe genommen, die im vergangenen Jahr getestet wurden. Dabei fällt auf, dass günstige Fahrzeuge unter 10.000 Euro faktisch vom Markt verschwunden sind. Selbst unter 15.000 Euro existieren nur noch vereinzelte Modelle.

Umso wichtiger ist eine Bewertung der sogenannten Total Cost of Ownership (TCO), also der Gesamtkosten über einen Zeitraum von fünf Jahren inklusive Wertverlust, Steuern und Versicherung

Die große Überraschung des Testberichts sind die Elektroautos. Erstmals dominieren Stromer die oberen Ränge der Bestenliste. In den Vorjahren hakte es oft an den hohen Anschaffungskosten. Der positive Trend ist aber nicht nur in den sinkenden Kaufpreisen begründet, sondern auch in den geringeren Wartungskosten und dem Wegfall der Kraftfahrzeugsteuer.

Wir haben unser Ranking nach der Preis-Leistung ausgerichtet. Gibt es ein Unentschieden, kommen die anderen beiden Noten zum Tragen: Die Gesamtnote und der Preis. Erstere beinhaltet alle Eigenschaften bis auf den Preis, und die Zweite bewertet eben diesen. Welche zehn Autos laut dem ADAC in Sachen Preis-Leistung am besten sind, zeigen wir in der folgenden Galerie.

Platz 10: Dacia Spring Electric 65 Expression

Der Dacia Spring belegt den zehnten Platz und ist ein Paradebeispiel für ein zweckoptimiertes Fahrzeug. Die Gesamtnote liegt bei 3,0 und ist damit die schlechteste in der ganzen Top Ten. Die Kosten sind mit einer Note von 1,4 hingegen die besten der gesamten Liste. Daraus ergibt sich eine Preis-Leistungs-Note von 2,2.

Auto, Fahrzeug, Mobilität, Elektroautos, Flüssiggas, Benzin, ADAC, Automobilclub, Deutschland
Foto: Dacia

Der Beitrag Preis-Leistung: Die besten Autos – laut ADAC erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Forscher entwickeln intelligentes Material für menschliche KI-Geräte

Der Beitrag Forscher entwickeln intelligentes Material für menschliche KI-Geräte erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Neuromorphes Computing

Forscher haben ein intelligentes Material entwickelt, das KI-Geräte auf ein neues menschenähnliches Level heben könnte. Es soll je nach Stimulation unterschiedlich arbeiten und sich wie eine Synapse anpassen können. 

Seit Jahrzehnten versuchen Forscher weltweit, Alternativen zu Silizium für bestimmte Einsatzzwecke zu finden. Die Idee dahinter ist die Fertigung von elektronischen Bauteilen auf Basis von bestimmten Molekülen. Doch häufig scheiterten sie daran, dass sich diese Moleküle meist unberechenbar verhalten und sich nicht so einfach zusammenfügen lassen.

Das sogenannte neuromorphe Computing verfolgt ein ähnliches Ziel. Die Basis bildet Hardware, die vom Gehirn inspiriert ist. Ziel ist die Herstellung eines Materials, das sowohl Informationen speichern, Berechnungen durchführen kann und gleichzeitig anpassbar ist. Derzeit verwendete Ansätze basieren oft auf Oxidmaterialien und filamentären Schaltkreisen. Doch diese funktionieren nach wie vor nur wie sorgfältig konstruierte Systeme, die das Lernen nachahmen.

Neuromorphes Computing: Gerät passt sich auf Basis der Stimulation an

Neue Forschungsergebnisse aus Indien deuten darauf hin, dass beide Probleme mit dem gleichen Ansatz gelöst werden können. Ein Team des CeNSE stellte ein kleines molekulares Gerät her, das verschiedene Aufgaben übernehmen kann. Die Grundlage liegt darin, wie die Forscher das Gerät stimulieren.

Es kann Informationen abspeichern und kann wahlweise ein Logikgatter, ein Selektor, ein Analogprozessor oder eine elektronische Synapse sein. Chemisches Design und Computer sollen dabei Hand in Hand gehen. Die Wissenschaftler stellten dazu 17 speziell konzipierte Rutheniumkomplexe her.

Das sind chemische Verbindungen, bei denen ein zentrales Rutheniumatom von Liganden umgeben ist. Diese finden aufgrund ihrer Stabilität und Vielseitigkeit vor allem als Katalysatoren, in der Krebstherapie sowie in der Fotochemie einen Einsatz. Das Team untersuchte anschließend, wie kleine Veränderungen der Molekülform und der umgebenden Ionenumgebung das Verhalten der Elektronen beeinflussen.

Kommt bald noch effizientere und intelligentere KI-Hardware?

Durch die Anpassung der Liganden und Ionen zeigte das Gerät unterschiedliche Funktionsweisen. So beobachteten die Forscher, dass ein Wechsel von Analog zu Digital und umgekehrt problemlos möglich ist. Hinter der Forschung steckt eine Menge an theoretischem Wissen rund um Physik und Quantentheorie.

Der Ansatz soll den Weg für neuromorphe Hardware ebnen, bei der das Lernen direkt in das Material selbst kodiert werden kann. Das Team arbeitet bereits daran, die Materialien auf Siliziumchips zu platzieren. Ziel ist es, künftige KI-Hardware zu entwickeln, die sowohl energieeffizient als auch von Natur aus intelligent ist.

Auch interessant: 

Der Beitrag Forscher entwickeln intelligentes Material für menschliche KI-Geräte erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •