Lese-Ansicht

Physical AI: Was droht, wenn KI einen Körper bekommt

Der Beitrag Physical AI: Was droht, wenn KI einen Körper bekommt erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Physical AI Roboter KI Körper Künstliche Intelligenz

Künstliche Intelligenz erobert unseren Alltag in Form von Software-Lösungen. Doch digitale Assistenten sind erst der Anfang der KI-Revolution. Im nächsten Schritt soll Künstliche Intelligenz dabei helfen, unsere physische Welt erobern und einen Körper bekommen. Eine kommentierende Analyse.

Was ist Physical AI?

  • Das Gabler Wirtschaftslexikon definiert Physical AI als „die Verbindung von künstlicher Intelligenz mit physischen Systemen wie Kameras, Geräten, Anlagen, Drohnen, Robotern und selbstfahrenden Autos und Bussen. Sie ermöglicht diesen, komplexe Vorgänge in der physischen Welt wahrzunehmen, zu analysieren, zu evaluieren und auszuführen.“
  • Bislang hat sich das Training von neuen Technologien wie humanoiden Robotern oder Greifarmen in der Produktion als sehr schwierig und kostenintensiv gestaltet, da es wenige Daten gibt und ein hoher Aufwand notwendig war. An dieser Stelle setzen Multimodal Large Language Models (MLLMs) an.
  • Sie trainieren humanoide Roboter mit Milliarden realen Datensätzen, ohne dass die teure Technologie gefährdet ist. Ein anschauliches Beispiel ist Nvidia Cosmos. Das autonome Auto bekommt durch Physical AI die Gefahren des Verkehrsalltags durch unzählige Videoaufzeichnungen beigebracht – ohne eine reale Fahrt auf der Straße, bei der ein Unfall einen Prototypen-Schaden in Millionenhöhe verursachen könnte.

Humanoide Roboter noch viel zu teuer

Der Figure 03, Teslas Optimus und die Roboter von Boston Dynamics haben eines gemeinsam: Sie liefern teilweise beeindruckende Vorführungen, sind allerdings für den Einsatz in den eigenen vier Wänden zu teuer. Ein gutes Beispiel dafür ist auch der Pflegeroboter Moya, der knapp 180.000 US-Dollar kosten soll.

Physical AI könnte zum Gamechanger für humanoide Roboter werden. Durch das unkomplizierte Training und die Vermenschlichung der Maschinen durch den Umgang mit physikalischen Gesetzen und unberechenbaren menschlichen Umgebungen werden unsere Roboter-Assistenten immer besser. Das wiederum ermöglicht die Skalierung in der Industrie. Dort können die Roboter in einem geschützten Umfeld lernen und noch besser werden.

Sobald humanoide Roboter dann in Fabriken funktionieren, können Roboter-Produzenten wie Elon Musks Tesla die Herstellungs- und Entwicklungskosten deutlich senken. Das wiederum ermöglicht perspektivisch den Einzug in unser Privatleben.

Stimmen

  • Markus Hacker, Director Enterprise DACH bei Nvidia, skizziert in einem Gastbeitrag die Weiterentwicklung der Robotik: „Roboter werden intelligente Einheiten, die nicht nur wahrnehmen, begründen und planen, sondern auch eigenständig handeln und aus ihren Erfahrungen lernen können. Ihr Einsatzbereich wird sich von Operationssälen und Rechenzentren über Fabriken bis hin zu Verkehrsleitsystemen und ganzen Städten erstrecken. Statische, manuell gesteuerte Systeme weichen zunehmend interaktiven, intelligenten Lösungen.“
  • Physical AI hat nicht nur Auswirkungen auf unser Bruttoinlandsprodukt, sondern auch auf unsere Arbeitswelt. Darauf weisen Theresa Wolf und Andrea Willige vom World Economic Forum in einem Papier hin: „Maschinenbediener zu Robotertechnikern, Logistik-Teams koordinieren künftig mobile Roboter, Instandhaltungsteams verlagern ihren Schwerpunkt auf vorausschauende Wartung (Predictive Maintenance), und Fertigungsingenieure werden sich auf das Training und die Optimierung von KI- und Robotiksystemen konzentrieren.“
  • Etwaigen Untergangsszenarien für die Menschheit widerspricht Professor Wolfgang Wahlster, wissenschaftlicher Direktor am Deutschen Forschungszentrum für Künstliche Intelligenz, in einem Interview: „Maschinelles Lernen unterscheidet sich prinzipiell vom menschlichen Lernen. Es geht in der KI keinesfalls darum, menschliches Verhalten mit all seinen Stärken, aber auch den vielen Schwächen perfekt nachzubilden, sondern wir wollen dem Menschen mit KI assistieren, wo dies sinnvoll ist. Beim Lernen von Regelmäßigkeiten in sehr großen Datenmengen sind maschinelle Lernverfahren dem Menschen heute bereits überlegen.“

Physical AI: Luftschloss oder Alltagshelfer?

Physical AI ist zum jetzigen Zeitpunkt mit dem Metaverse vergleichbar. Eine Technologie, die großes Potenzial bietet, ihrer Zeit jedoch voraus ist und deshalb zum Teil auf Luftschlössern in Fantasiewelten aufbaut. Realistische Schätzungen gehen davon aus, dass die ersten humanoiden Roboter gegen Ende der 2020er Jahre in Fabriken Einzug halten werden.

In unserem Haushalt könnten sie ab Mitte der 2030er Jahre helfen. Wir sprechen also trotz der steilen Lernkurve von Physical AI von einem Zeitraum von mindestens einem Jahrzehnt – ein Zeitraum, der sich kaum verlässlich vorhersagen lässt.

Fest steht jedoch, dass der Erfolg von Physical AI dazu beitragen könnte, Menschen körperlich zu entlasten. Wenn wir weniger manuelle Tätigkeiten übernehmen, können wir uns auf wichtigere Aufgaben konzentrieren.

Dazu gehört beispielsweise die Pflege von Angehörigen oder die Zeit mit der Familie. Vielleicht sorgt der technologische Fortschritt also tatsächlich einmal für eine ökonomische Entlastung der Menschheit und eine sozial-zwischenmenschliche Revolution.

Auch interessant:

Der Beitrag Physical AI: Was droht, wenn KI einen Körper bekommt erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Honor zeigt Smartphone mit Roboter-Arm und tanzenden Roboter

Logo, Honor, Honor Logo Der chinesische Smartphone-Hersteller Honor hat auf dem Mobile World Congress (MWC) in Barcelona unter anderem ein ungewöhnliches "Robot Phone" vorgestellt. Dieses verfügt über einen Roboter-Arm, an dem die Hauptkamera montiert ist. (Weiter lesen)
  •  

KI-Firma will größte Problem autonomer Autos gelöst haben

Der Beitrag KI-Firma will größte Problem autonomer Autos gelöst haben erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

KI autonomes Fahren DeepScenario

In der Serie „Start‑up‑Check!“ nehmen wir regelmäßig die Geschäftsmodelle von Start‑ups unter die Lupe. Was steckt hinter dem Unternehmen? Was macht das Start‑up so besonders und was gibt es zu kritisieren? Heute: DeepScenario.

Start‑ups: Das klingt nach Erfindergeist, Zukunftstechnologien, neuen Märkten. Doch in der Realität erweisen sich viele der Neugründungen leider oft als eine Mischung aus einer E‑Commerce‑Idee, planlosen Gründern und wackeligen Zukunftsaussichten.

Dabei gibt es sie durchaus: die Vordenker, die an den großen Problemen tüfteln und Geschäftsmodelle revolutionieren. Sie zu finden und vorzustellen, ist die Aufgabe des Formats „Start‑up‑Check“. Heute: DeepScenario, Automotive-Tech-Start-up.

Was steckt hinter DeepScenario?

  • Branche: Automotive Tech
  • Gründer: Holger Banzhaf (Geschäftsführer), Jacques Kaiser, Nijanthan Berinpanathan
  • Gründungsjahr: 2021
  • Geschäftsmodell: B2B-Softwareplattform für die Erstellung realistischer 3D-Verkehrsszenarien für das Testen von Fahrsystemen
  • Ziel: Mithilfe von realitätsnahen Testszenarien die Entwicklung autonomer Fahrzeuge und Fahrerassistenzsysteme zu beschleunigen

Autonome Fahrzeuge müssen auch dann richtig reagieren, wenn etwas Unerwartetes passiert: Ein Kind läuft zwischen parkenden Autos auf die Straße, ein Radfahrer taucht im toten Winkel auf, ein Fahrzeug bremst abrupt. Genau solche sicherheitskritischen Situationen – sogenannte Edge Cases – sind in realen Testfahrten kaum reproduzierbar und in künstlichen Simulationen oft nur unzureichend abgebildet.

Hier setzt DeepScenario an.

Holger Banzhaf, Jacques Kaiser und Nijanthan Berinpanathan gründeten ihr Start-up 2021. Die Gründer setzen auf Computer Vision, Robotik und KI, die an deutschen Forschungseinrichtungen und von deutschen Industriepartnern entwickelt wurden.

Die AI Scenario Engine von DeepScenario analysiert Verkehrsvideos – etwa von Dashcams, Verkehrskameras oder Drohnen – automatisiert und überführt sie in simulationsfähige, dreidimensionale Verkehrsszenarien. So lassen sich auch seltene Edge Cases systematisch in Testumgebungen integrieren.

Geschäftsmodell und Praxisbeweis

DeepScenario vertreibt die AI Scenario Engine als B2B-Softwareplattform an Automobilhersteller und Zulieferer. Die Bereitstellung erfolgt als Cloud- oder On-Premise-Lösung. Abgerechnet wird über Lizenz- beziehungsweise Subskriptionsmodelle, ergänzt um nutzungsabhängige Komponenten, etwa auf Basis der generierten Szenarien oder der eingesetzten Rechenleistung.

Zu den Anwendern zählten im vergangenen Jahr unter anderem Bosch und Mercedes-Benz. Sie nutzten die Technologie, um autonome Fahrfunktionen unter realitätsnahen Bedingungen zu validieren und Testabdeckungen systematisch zu erweitern.

Der industrielle Mehrwert liegt dabei weniger in der reinen Szenariogenerierung als in der Skalierbarkeit: Reale Verkehrsdaten aus Testfahrzeugen, Infrastrukturkameras oder Förderprojekten werden automatisiert in simulationsfähige 3D-Modelle überführt und stehen unmittelbar für virtuelle Testläufe zur Verfügung. Feldtests lassen sich dadurch gezielt ergänzen, ohne jedes Szenario physisch reproduzieren zu müssen.

Kernfunktionen der AI Scenario Engine

Monokulare Computer Vision: Das System erkennt und verfolgt Fahrzeuge, Fußgänger und weitere Verkehrsteilnehmer in Videodaten einzelner Kameras. Aus zweidimensionalen Bildsequenzen werden Bewegungsbahnen und Objektbeziehungen rekonstruiert.

  • Szenario-Mining: Verkehrsabläufe – etwa Brems-, Abbiege- oder Überholmanöver – werden aus Videodaten extrahiert und in einem räumlich-zeitlichen Modell abgebildet. Dadurch entstehen statistisch repräsentative Testszenarien auf Basis realer Verkehrsbeobachtungen.
  • Generative Verkehrsmodelle: Ein lernbasiertes Modell bildet regionale Fahrmuster ab und erzeugt daraus neue, simulationsfähige Verkehrssituationen. Ziel ist es, reale Datenverteilungen systematisch zu erweitern, ohne sich ausschließlich auf synthetische Annahmen zu stützen.

„Was die AI Scenario Engine von anderen Lösungen unterscheidet, ist unser Prozess des Szenario-Minings“, erklärt Holger Banzhaf, CEO und Mitgründer von DeepScenario in einem Interview mit Munich Startup.

Dabei nutzen wir unsere bahnbrechenden Bildverarbeitungsalgorithmen, um Zugang zu repräsentativen Verteilungen der realen Welt zu erhalten und das in allen drei räumlichen Dimensionen und der Zeitdimension.

Einordnung und Mehrwert

Der praktische Nutzen liegt vor allem in der Skalierung realitätsnaher Tests:
Virtuelle Szenarien können in großer Zahl generiert und systematisch variiert werden. Dadurch lassen sich Entwicklungszyklen verkürzen und der Aufwand für physische Testfahrten reduzieren.

Ob sich daraus signifikante Kostenvorteile oder Sicherheitsgewinne ergeben, hängt von der Integrationstiefe in bestehende Testarchitekturen sowie von regulatorischen Anerkennungsprozessen ab.

Im Wettbewerbsumfeld positioniert sich DeepScenario gegenüber Anbietern wie Cognata und Parallel Domain mit dem Anspruch, reale Videodaten unmittelbar in simulationsfähige 3D-Szenarien zu überführen. Der Kern des Ansatzes adressiert damit einen strukturellen Zielkonflikt der Branche: Wie lassen sich Tests zugleich skalieren und realitätsnah gestalten?

Skalierung: Markt, Kapital und Anwendungsbereiche

Im Oktober 2022 schloss DeepScenario eine Finanzierungsrunde mit dem High-Tech Gründerfonds (HTGF) und MobilityFund sowie mehreren Business Angels ab. Die genaue Summe wurde nicht öffentlich beziffert. Das Kapital dient dem Ausbau der Plattform, der Internationalisierung sowie der weiteren Integration in industrielle Testumgebungen.

Strategisch liegt der Schwerpunkt weiterhin auf der Automobilindustrie – einem Markt, in dem Validierungskapazitäten mit zunehmender Automatisierung zum Engpassfaktor werden. Parallel prüft das Unternehmen Anwendungsfelder in Smart-City-Infrastrukturen und im Verkehrsmanagement, wo die Analyse realer Verkehrsdaten ebenfalls eine Rolle spielt.

Mit steigender Komplexität autonomer Fahrfunktionen wächst der regulatorische und wirtschaftliche Druck, Testabdeckung zu erhöhen und gleichzeitig Entwicklungszyklen zu verkürzen. Für Anbieter wie DeepScenario entscheidet sich die Skalierung daher nicht nur an technologischer Leistungsfähigkeit, sondern an Integrationsfähigkeit, Standardisierung und industrieller Anschlussfähigkeit.

DeepScenario: Zwischen Innovationsanspruch und industrieller Bewährungsprobe

DeepScenario adressiert einen strukturellen Engpass in der Entwicklung autonomer Systeme: die Skalierung realitätsnaher Testszenarien unter wirtschaftlichen und regulatorischen Rahmenbedingungen. Der Ansatz, reale Verkehrsdaten systematisch in simulationsfähige 3D-Modelle zu überführen, setzt genau an dem Zielkonflikt zwischen Testabdeckung und Aufwand an.

Mit Investoren wie HTGF und MobilityFund sowie ersten industriellen Anwendern positioniert sich das Start-up als spezialisierter Anbieter im Bereich datengetriebener Szenariogenerierung.

Entscheidend wird sein, in welchem Maß sich die Technologie in bestehende Testarchitekturen integrieren lässt und regulatorische Anforderungen erfüllt. Gelingt das, kann die AI Scenario Engine zu einem relevanten Baustein in der Validierung autonomer Fahrfunktionen werden.

Auch interessant:

Der Beitrag KI-Firma will größte Problem autonomer Autos gelöst haben erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

AI Workmate: Lenovo zeigt KI-Roboter-Assistent für den Schreibtisch

Ki, Hardware, Lenovo, Konzept, Robotik, MWC 2026, AI Workmate Concept, Konzeptstudie, AI Work Companion Lenovo zeigt auf dem MWC 2026 einen KI-Roboter für den Schreibtisch. Der AI Workmate soll mit Projektor und Intel-Chip den Alltag erleichtern. Es ist allerdings fraglich, o die Hardware eine echte Hilfe oder nur typische Konzept-Spielerei ist. (Weiter lesen)
  •  

Neuer Front-Roboter: Russland setzt auf improvisierte Raketenwerfer

Russland, Krieg, Waffe, Raketen, Cultivator Russlands Militär setzt an der ukrainischen Front auf den neuen Kampfroboter Cultivator. Das unbemannte Kettenfahrzeug nutzt eigentlich für Hubschrauber gedachte Raketenwerfer, um massive Feuerkraft ohne Risiko für die eigene Besatzung zu entfalten. (Weiter lesen)
  •  

DJI Romo-Schwachstelle: Saugroboter erlaubt Blick in fremde Häuser

Staubsaugerroboter, DJI, Reinigungsroboter, Staubsauger-Roboter, DJI Romo S, Romo, DJI Romo Eigentlich wollte ein Entwickler seinen DJI-Saugroboter nur per Gamepad steuern. Doch plötzlich hatte er Zugriff auf Tausende fremde Kameras und Wohnungsgrundrisse. Eine massive Sicherheitslücke offenbart gravierende Mängel. (Weiter lesen)
  •  

Vom Autobauer zum Robotik-Konzern: Tesla droht der absolute Absturz

Der Beitrag Vom Autobauer zum Robotik-Konzern: Tesla droht der absolute Absturz erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Tesla Absturz Robotik

Tesla stellt die Produktion seiner Premium-Elektroautos Model S und Model X ein, um Kapazitäten für die Massenproduktion des Optimus-Roboters und des Roboter-Taxis Cybercab freizumachen. Die strategische Neuausrichtung markiert einen Pivot vom Autohersteller zum KI- und Robotik-Konzern – und zwar mit erheblichen Risiken. Eine kommentierende Analyse.

Tesla ist kein Autobauer mehr

  • Tesla will sein Model S und Model X im Laufe des Jahres aus dem Programm nehmen und die Produktion einstellen. Das teilte CEO Elon Musk am Rande einer Bilanzkonferenz mit. Der Schritt kommt einer strategischen Neuausrichtung des Unternehmens gleich. Die einstigen Vorzeigemodelle wurden in den vergangenen Jahren deutlich von den Modellen 3 und Y überflügelt. Das Model S und Model X machten 2025 gerade einmal drei Prozent vom Umsatz aus.
  • Tesla will in den frei werdenden Produktionslinien durch das Aus für das Model S und Model X künftig seinen humanoiden Roboter Optimus und das autonome Cybercab-Taxi herstellen. Laut Elon Musk soll die Produktion des Cybercab noch in diesem Jahr starten. Seine Hoffnung: Das Fahrzeug könne alle anderen Tesla-Modelle zahlenmäßig langfristig übertrumpfen. Die Massenproduktion des Tesla Optimus dürfte frühestens 2027 starten.
  • Tesla musste 2025 erstmals in seiner Unternehmensgeschichte einen Rückgang bei seinen Verkaufszahlen hinnehmen. Nach einem Höchststand von 1,8 Millionen ausgelieferten Fahrzeugen im Jahr 2023 sanken die Auslieferungen 2025 im Vergleich zu 2024 um 8,5 Prozent auf 1,636 Millionen. Der Umsatz ging um drei Prozent auf rund 94,8 Milliarden US-Dollar zurück. Beim Gewinn verzeichnete das Unternehmen sogar einen Rückgang um 46 Prozent – auf 3,8 Milliarden US-Dollar.

Neue Strategie mit altern Mustern

Mit dem Model S und X verabschiedet Tesla nicht nur zwei Fahrzeuge, sondern ein Stück Firmengeschichte. Einst sollten sie zusammen mit den Modellen 3 und Y das Akronym S-3-X-Y formen (Ford hält die Rechte an der Bezeichnung Model E). Doch mittlerweile ist Tesla als Autobauer längst nicht mehr sexy.

Aufgrund der geringen Absatzzahlen beider Fahrzeuge ist der Schritt rein wirtschaftlich zwar folgerichtig. Doch viele Probleme von Tesla sind hausgemacht. Seit dem Model Y im Jahr 2020 hat das Unternehmen etwa kein massenmarkttaugliches Modell mehr präsentiert. Das versprochene E-Auto für 25.000 US-Dollar? Beerdigt! Der Cybertruck? Ein Prestigeobjekt, das keine Nachfrage hat.

Die Konkurrenz hat derweil aufgeholt und produziert überwiegend günstigere und bessere Elektroautos als Tesla. Elon Musks rechtspopulistischen Eskapaden haben Tesla zudem einen Bärendienst erwiesen. Erschwerend hinzu kam Donald Trump, der für einen Wegfall der US-Kaufprämie, weichere CO2-Regeln und sinkende Erlöse aus Emissionszertifikaten verantwortlich ist.

Elon Musk setzt deshalb auf einen radikalen Strategiewechsel: weg vom Autobauer und hin zum Robotik-Konzern. Diese neue Strategie mag auf den ersten Blick vielleicht bahnbrechend erscheinen, entspricht vom Prinzip her aber der alten. Denn sie beruht vor allem auf großen Versprechen.

Tesla hat zwar früh das Potenzial von autonomen Taxis und humanoiden Robotern erkannt, hinkt der Konkurrenz aus China in der Robotik sowie dem US-Konkurrenten Waymo bei fahrerlosen Autos mittlerweile aber auch massiv hinterher.

Stimmen

  • Tesla-Chef Elon Musk im Rahmen der Quartalskonferenz: „Es ist an der Zeit, die Programme für das Model S und das Model X mit einer ehrenvollen Entlassung zu beenden. Denn wir bewegen uns auf eine Zukunft zu, die auf Autonomie basiert. Wir werden paranoid sein und dafür sorgen, dass wir weiterhin Batterien, Roboter und KI-Chips bauen können, egal was passiert.“
  • Analysten von Canaccord Genuity in einer Mitteilung nach Veröffentlichung der Tesla-Quartalszahlen: „Vergessen Sie das Tesla, das Sie kannten. Das Tesla von gestern gibt es nicht mehr. Wir glauben, dass Elon Musk einen entscheidenden Wendepunkt erreicht hat – eine totale Hingabe an eine Vision, die keinen Raum für Rückzug lässt.“
  • Guy Hoffman, Assistenzprofessor für Maschinenbau und Luft- und Raumfahrttechnik an der Cornell University, ist skeptisch: „Teslas Wandel ist entweder mutig oder riskant, je nachdem, wie optimistisch man gegenüber unbewährten Technologien ist. Auch wenn zukünftige Durchbrüche immer schwer vorherzusagen sind, sollten wir bedenken, dass humanoide Roboter – trotz ihres derzeitigen Hypes – nach wie vor in einem sehr experimentellen Stadium sind. Ich würde behaupten, dass die Popularität von Humanoiden eher auf dem Reiz der Science-Fiction als auf technischen Gründen beruht.“

Tesla hinkt der Konkurrenz hinterher

Tesla setzt immer mehr auf Roboter und Robo-Taxis. Elon Musk hat für 2026 Investitionen in Höhe von rund 20 Milliarden US-Dollar in diesen Bereich angekündigt. Zusätzliche zwei Milliarden kommen von Musks KI-Startup xAI.

Branchenexperten sprechen bereits von einem „Point of no Return“ – oftmals euphorisch. Doch der Realitätscheck ist ernüchternd. Robotaxi-Konkurrent Waymo betreibt bereits 2.500 autonome Fahrzeuge in mehreren US-Städten. Tesla steht mit 500 Cybercabs, die teilweise auf einen Sicherheitsfahrer angewiesen sind, noch am Anfang.

Elon Musks Versprechen offenbaren dabei das eigentliche Problem. Denn: Zwischen Millionen geplanten und maximal 2.500 erlaubten Tesla-Robotaxis (bei Waymo theoretisch unbegrenzt) klafft eine gewaltige Lücke aufgrund technischer Probleme.

Auch beim humanoiden Roboter Optimus ist Tesla kein Pionier. Denn rund um Boston Dynamics, Unitree und Xpeng schläft die Konkurrenz nicht. Vor allem nicht in China, wo Kostenvorteile entscheidend sein dürften. Optimus ist bislang zudem mehr ein Forschungsprojekt als ein produktiver Helfer.

Das Bewertungsparadoxon bei Tesla: Das Unternehmen ist an der Börse mehr wert als die zehn größten Autohersteller der Welt zusammen und das Kurs-Gewinn-Verhältnis liegt immer noch bei einem Wert von über 250. Solange das Autogeschäft wuchs, trug diese Vision.

Gelingt sie bei Autonomie und Robotik, wäre der Pivot genial. Misslingt er, bleibt ein Meme-Mythos und ein CEO, der lieber neue Versprechen macht, als alte einzulösen. Der Tesla-Kurs ist dennoch nicht von Umsatz und Gewinn getrieben, sondern von Hype und einer loyalen Fanbase.

Auch interessant:

Der Beitrag Vom Autobauer zum Robotik-Konzern: Tesla droht der absolute Absturz erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Die wahren Stars der Olympischen Spiele sind die Highspeed-Drohnen

Feuer, Olympische Spiele, Olympia, Olympische Sommerspiele, Olympische Winterspiele, Olympic Games, Fackel, Olympisches feuer Die Olympischen Winterspiele 2026 in Mailand-Cortina setzen auf FPV-Drohnen für eine nie dagewesene Intensität. Statt Teleobjektiven jagen die Fluggeräte den Athleten bei bis zu 140 km/h hinterher und liefern völlig neue Perspektiven. (Weiter lesen)
  •  

Helfer für Haus und Garten: Die Smart-Home-Trends für 2026 sind da

Smart Home, Haushalt, reinigung, Staubsauger, Smarthome, Saugroboter, Staubsaugerroboter, Wischroboter, Ecovacs, Saugwischroboter, Reinigungsstation, Absaugstation, Garten, Mähroboter, Rasenmäher, Deebot, Fensterputzroboter, Rasenmähroboter Der nervige Frühjahrsputz fällt aus: Ecovacs bringt ein massives Line-up für 2026 an den Start. Neben innovativen Saugrobotern und einem smarten Fensterputzer gibt es auch neue Mähroboter. Zum Launch winken dicke Rabatte. (Weiter lesen)
  •  

Moya: Weiblicher Pflegeroboter – mit Körpertemperatur und Silikonhaut

Der Beitrag Moya: Weiblicher Pflegeroboter – mit Körpertemperatur und Silikonhaut erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

weiblicher Pflegeroboter DroidUp Silikonhaut

Das chinesische Unternehmen DroidUp hat einen humanoiden Roboter entwickelt, der für eine menschenähnliche Interaktion im Pflegebereich konzipiert wurde. Moya soll mit realistischen Bewegungen, einer Silikonhaut und einer künstlichen Körpertemperatur die Grenzen zwischen Mensch und Maschine weiter verschwimmen lassen. Eine kommentierende Analyse.

Pflegeroboter Moya im Detail

  • Moya wurde von dem chinesischen Unternehmen DroidUp in Shanghai entwickelt. Der humanoide Roboter ist 165 Zentimeter groß und wiegt rund 31 Kilogramm. Im Gegensatz zu anderen Pflegerobotern soll Moya keine Lasten heben, sondern Gespräche mit Pflegebedürftigen führen.
  • Laut DroidUp ahmt Moya menschliche Wärme nach, indem eine Silikonhaut konstant auf 32 bis 36 Grad Celsius temperiert wird. Unter der Haut befinden sich Polsterschichten, die Gewebe imitieren sollen. Der humanoide Roboter hat weibliche Züge wie ein Brustkorb-Imitat und sogar eine Rippenstruktur.
  • Der Pflegeroboter verfügt über verschiedene Anpassungsmöglichkeiten. Pflegeeinrichtungen können etwa Teile austauschen, um ihm wahlweise ein männliches oder weibliches Erscheinungsbild zu verleihen. DroidUp zufolge sind die Bewegungen von Moya zu 92 Prozent menschenähnlich. Eine Kamera ermöglicht es dem Roboter, seine Umgebung zu scannen. Die Markteinführung ist für Ende 2026 geplant. Der voraussichtliche Preis: 173.000 US-Dollar.

Wenn Innovation an der Realität scheitert

Die Versprechen von DroidUp sind so warm und doch so dünn wie Moyas Silikonhaut. Unter der Oberfläche offenbart sich allerdings ein klassisches Tech-Dilemma. Denn mit einem Einstiegspreis von umgerechnet rund 145.000 Euro ist der Humanoide kein Pflegehelfer, sondern ein Luxusobjekt.

Heißt konkret: Selbst wenn Moya einen tatsächlichen Nutzen in der Praxis nachweisen könnte, wäre der humanoide Roboter für Pflegeeinrichtungen, in denen er tatsächlich gebraucht werden könnte, kaum erschwinglich. Kurzum: Die technische Innovation scheitert an ökonomischer Realität.

Doch auch die Technologie selbst lässt Skepsis aufkommen. Denn: Die angepriesenen 92-prozentigen menschenähnlichen Bewegungen entpuppen sich beim genaueren Hinsehen als klassisches Marketing-Geschwurbel. Videos offenbaren etwa eine steife und vorsichtige Motorik, die weit von einer natürlichen Körpersprache entfernt ist.

Doch Embodied AI bedarf eines fein abgestimmten Zusammenspiels zwischen Mechanik, Sensorik und Software. Genau hier wirkt Moya noch unfertig. Hinzu kommt, dass DroidUp Bionik als Lösung für ein soziales Problem verkauft. Doch Technologie kann menschliche Zuwendung nicht ersetzen, sondern allenfalls ergänzen. Denn: Pflege braucht Vertrauen, nicht nur Temperatur.

Stimmen

  • DroidUp-Gründer Li Qingdu in einem Interview: „Die meisten Roboter, die heute auf dem Markt sind, haben eine harte Hülle und fühlen sich kalt und mechanisch an. Ein Roboter, der wirklich dem Menschen dient, sollte warm sein und eine Temperatur haben, die fast wie die eines Lebewesens ist, mit dem Menschen eine Verbindung aufbauen können.“
  • Krankenpfleger, Erziehungswissenschaftler und Autor Björn Kiehne gegenüber der AOK: „Patienten reagieren gut auf die Ansprache durch Pflegeroboter. In der Entwicklung von menschenähnlichen Pflegerobotern sehe ich eine große Chance. Was ist der Unterschied zwischen der Resonanz, die ein Tier oder die Natur in uns auslöst, und der, die durch eine Maschine erzeugt wird? Wir sind schon immer im Gespräch mit der unbelebten und nicht menschlichen Welt.“
  • In einem Pflegeforum auf Reddit ist der allgemeine Tenor unter Pflegekräften relativ eindeutig. Eine Nutzerin dazu: „Alles, was ich will, ist eine Unterstützung zum Heben, mir tut der Rücken weh. Von mir aus gebt mir einen Roboter mit Gesicht und KI-Funktion. Ich will einfach nur nicht mehr Patienten, die doppelt so viel wie ich wiegen, alleine vom Rollstuhl ins Bett setzen.“

Grundsätzliche Akzeptanz für Pflegeroboter

Falls Moya Ende 2026 auf den Markt kommen sollte, wird sie vermutlich dort landen, wo Budgets größer sind als der tatsächliche Pflegebedarf. Zielgruppe dürften vor allem Privatkliniken und Forschungszentren sein. Im Pflegealltag wird der Roboter allenfalls eine untergeordnete Rolle spielen.

Denn wer die Pflege entlasten will, muss Kosten und Skalierung mitdenken – und nicht nur einen Showroom füllen. DroidUp setzt derweil auf eine Strategie, die auf Akzeptanz durch Menschlichkeit abzielt. Erste Reaktionen zeigen aber, dass die anfängliche Faszination schnell in Unbehagen überkippen kann.

Der fast menschliche Körper von Moya polarisiert nämlich stärker als kalte Maschinenarme. Die Frage ist jedoch nicht, was technisch möglich ist, sondern was im Alltag wirklich gebraucht wird. Moya könnte dennoch ein Vorbote für erschwingliche Sozial-Roboter sein.

Eine aktuelle Studie aus Japan offenbart zumindest eine grundsätzliche Akzeptanz unter Pflegekräften und Pflegebedürftigen – vorausgesetzt die Roboter sind sicher. Ob es dafür einen warmen Händedruck aus Silikon bedarf, ist aber äußerst fraglich.

Auch interessant:

Der Beitrag Moya: Weiblicher Pflegeroboter – mit Körpertemperatur und Silikonhaut erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

  •  

Xpeng-Roboter kollabiert bei Präsentation wie aus heiterem Himmel

Robotik, Automatisierung, Bühne, Xpeng, humanoider Roboter, Produktpräsentation, Androide, Iron, Xpeng Iron Xpengs Roboter Iron verfügt über modernste KI-Chips und eine komplexe Gelenkstruktur für menschliche Bewegungen. Die prak­ti­sche Vorführung endete jedoch abrupt, als die Maschine das Gleich­ge­wicht verlor und stürzte. Die Balance bleibt die größte Hürde. (Weiter lesen)
  •  
  •