Künstliche Intelligenz
Was sich bei den VMware-Alternativen gerade tut
Nach der Übernahme von VMware hatte Broadcom das bisherige Lizenzmodell völlig umgekrempelt und die Lizenzpreise vor allem für kleinere Editionen seiner Produkte stark erhöht. Daher halten aktuell viele Kunden Ausschau nach Alternativen zu VMware.
Sie lassen sich grob in drei Klassen einteilen: Als erstes hyperkonvergente Infrastrukturplattformen (HCI), die neben der Virtualisierung auch die Speicherdienste durch die gleichen Serversysteme mit bereitstellen. Die HCI-Einführung erfordert dafür freigegebene und zertifizierte Serverhardware. Das Flaggschiff VMware Cloud Foundation (VCF) fällt ebenfalls in diese Kategorie.
Des Weiteren stehen klassische Hypervisoren bereit – in diese Kategorie fallen Microsofts Hyper-V, KVM-basierte Produkte wie Proxmox oder HPEs Morpheus VM Essentials sowie das französische Unternehmen Vates, das mit XCP-ng einen Open-Source-Spin-off des XenServers anbietet.
Die dritte Kategorie sind Produkte auf Basis des von Red Hat initiierten Open-Source-Projekts KubeVirt. Es erweitert Kubernetes um eine Virtualisierungs-API und ermöglicht die Ausführung und Verwaltung herkömmlicher VMs direkt auf Kubernetes.
Die Konkurrenten: HCI
Nutanix ist seit 2009 auf dem Markt aktiv und kann für sich reklamieren, die HCI-Technik für den x86-Virtualisierungsmarkt erfunden zu haben. Bis vor Kurzem hat eine Nutanix-Einführung auch die Anschaffung von HCI-fähiger Hardware vorausgesetzt, die Anbindung externer Storage-Systeme hatte Nutanix erst Mitte 2024 zugelassen – und derzeit sind hier nur zwei Speichersysteme von Dell und PureStorage nutzbar.
IX-WORKSHOP: Hands-on: Migration von VMware zu Proxmox —- In diesem Workshop erhalten Sie effiziente Strategien für eine möglichst schmerz- und ausfallfreie Migration und führen diese während der Schulung selbst in einem Labor durch. Neben diesem praktischen Teil lernen Sie, wie Sie eine Migration planen und erhalten wertvolle Ansatzpunkte für einen erfolgreichen und möglichst geräuschlosen Umzug.
Der Workshop findet online statt, weitere Informationen und Tickets gibt es unter heise.de/s/Ndll0
Im Wesentlichen kann Nutanix die Features der VMware Cloud Foundation mit seiner HCI-Speicherplattform, dem eigenen Hypervisor AHV und Netzwerkdiensten (mit Nutanix Flow) abbilden. Auch das Hosting von containerbasierten Kubernetes-Applikationen und KI-Diensten bietet der Hersteller an und hat somit das umfassendste Angebot. Trotz der Aufholjagd ist VMware im Detail allerdings nach wie vor in fast allen Bereichen etwas voraus. Von der Preisgestaltung her spricht Nutanix den gehobenen Mittelstand und große Unternehmen an, für KMUs ist der Einstieg mit circa 60.000 Euro für Soft- und Hardware zu teuer.
Aktuell versuchen weitere Hersteller im HCI-Markt mit günstigeren Angeboten Fuß zu fassen, zu nennen sind hier der US-Hersteller Verge.io, der britische Anbieter StorMagic mit SvHCI und der chinesische Anbieter Sangfor Technologies, der gerade an einem Markteintritt in Deutschland arbeitet. Auch der US-Speicherspezialist DataCore kann nach der kürzlich erfolgten Akquisition von StarWind nun ebenfalls mit einem KVM-basierten HCI-Dienst für kleine Umgebungen aufwarten. Nicht zu vergessen Microsoft: Azure Local, die Weiterentwicklung von Azure Stack HCI, zielt allerdings auf Kunden, die mit einer Verwaltung über die Cloud leben können.
Klassische Hypervisoren
Hier dominiert inzwischen KVM. Insbesondere bei kleinen Kunden ist das österreichische Proxmox beliebt. Allerdings ist man entweder auf Inhouse-Kompetenz oder einen guten Partner angewiesen, der Anbieter selbst hat keine Supportstrukturen, die die Bedürfnisse von Enterprise-Kunden erfüllen können. Proxmox selbst ist stabil und hat sich einen guten Ruf erarbeitet.
Vielversprechend wirkt das vergleichsweise neue Angebot HPE Morpheus VM Essentials Software (MVME), es stammt aus der Akquisition von Morpheus Data. Das Produkt orientiert sich mit seinen Managementwerkzeugen (VM Essentials Manager, das Pendant zum vCenter) und dem Clusterdienst (HVM Cluster) an der klassischen Architektur von vSphere. Aktuell bietet HPE das Produkt zu einem Kampfpreis an, laut Preisliste für 600 US-Dollar pro CPU-Sockel (unlimitierte Kerne) und Jahr. Die Verwaltung von VMware und MVME ist über ein intuitives GUI integriert möglich.
Das französische Unternehmen Vates bietet etwas Ähnliches auf Basis des Virtualisierungsveteranen XenServer an. Attraktiv ist vor allem die Preisstruktur (Pro-Version mit mindestens drei Hosts für 1.000 Dollar pro Host und Jahr, Enterprise-Version mit mindestens vier Hosts für 1.800 Dollar pro Host und Jahr, jeweils inklusive Support).
Natürlich ist auch Microsoft noch innerhalb der klassischen Hypervisor-Welt aktiv. Im Zuge der Fokussierung des Herstellers auf die Azure Cloud und auf Dienste, die über Azure Arc verwaltet werden, spielt das klassische Hyper-V und die zugehörige Managementumgebung System Center Virtual Machine Manager (SCVMM) keine große Rolle mehr – auch wenn beide Produkte mit Windows Server 2025 und SCVMM 2025 vor Kurzem eine Auffrischung erhalten haben. Die modernere, Cloud-angebundene Variante Azure Local gehört in die HCI-Kategorie.
Weg in die Cloud
Wer sich auf eine cloudnative Architektur einlassen will, wird bei Kube-Virt und Red Hats kommerzieller OpenShift Virtualization fündig. Eine Umgewöhnung an die Kubernetes-Herangehensweise ist nötig, vSphere kann man nicht direkt ersetzen. Preislich hat Red Hat mit der auf die Verwaltung von VM-basierten Workloads abgestimmten OpenShift Virtualization Engine (OVE) einen attraktiven Preispunkt getroffen, die umfassenderen OpenShift-Varianten (Kubernetes Engine, Container Platform und Platform Plus) sind deutlich teurer.
Das Ökosystem kompatibler Server, Speichersysteme und Backup-Produkte wächst schnell. Allerdings stellt insbesondere die Speicherbereitstellung einen Knackpunkt dar, denn man muss ein Container Storage Interface (CSI) bereitstellen – Kubernetes-Container sind hier von Haus aus deutlich dynamischer als virtuelle Maschinen. Allerdings ziehen die großen Speicheranbieter alle nach und bieten zunehmend Systeme mit den nötigen Schnittstellen an. Wer im Netzwerkbereich weiter gehende Schutzmechanismen sucht, wird beim Partnerunternehmen Isovalent fündig (inzwischen Teil von Cisco) oder kann zusätzlich auf Ciscos SDN-Plattform ACI setzen. Für Kunden, die eine grundlegende Erneuerung ihrer Plattform suchen, kann ein KubeVirt-basiertes Produkt eine Ergänzung und langfristige Alternative darstellen.
(fo)
Künstliche Intelligenz
Ausgezeichnete VR-Spiele gratis ausprobieren: VR Forever Fest startet auf Steam
Das erstmals veranstaltete „VR Forever Festival“ auf Steam läuft vom 18. bis 23. September 2025 und versteht sich als kuratiertes Schaufenster für hochwertige VR-Titel. Insgesamt nehmen über 90 VR-Studios teil, darunter namhafte Vertreter wie Resolution Games, nDreams, Owlchemy Labs oder die Flat2VR Studios. Veranstaltet wird das Event vom VR-Label Creature und der Agentur Future Friends Games.
Auch in der Jury sitzen bekannte Namen aus der VR-Branche. Die Auswahl der Preisträger erfolgte durch ein achtköpfiges Gremium, in dem unter anderem Ed Lago und Doug North Cook von Creature, Owlchemy-Labs-Chef Andrew Eiche und Henry Stockdale vom Branchen-Blog UploadVR sitzen.
Neben Rabatten und spielbaren Demos will die Veranstaltung vor allem herausragende VR-Spiele würdigen. Die „VR Forever Awards 2025“ wurden in sechs Kategorien vergeben – unter anderem für das Spiel des Jahres, das beste soziale Erlebnis und das meist erwartete Spiel.
Spiel des Jahres wird ein Knet-Abenteuer
Als bestes VR-Spiel des Jahres zeichnete die Jury „The Midnight Walk“ aus – ein düsteres Stop-Motion-Abenteuer mit Knet-Animationen, Rätseln und surrealen Landschaften. Den Titel „meist erwartetes Spiel“ sicherte sich das VR-Abenteuer „Reach“, das auf physikbasierte Action mit vollständiger Körperdarstellung und cineastischer Inszenierung setzt. Entwickelt wird Reach von nDreams. Die Veröffentlichung ist für den 16. Oktober 2025 geplant.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.
The Midnight Walk – Release Trailer
„Walkabout Mini Golf VR“ erhielt die Auszeichnung für das beste soziale Erlebnis. Der beliebte VR-Hit überzeugt durch realistische Physik, stimmungsvolle Fantasiekurse und eine lebendige Community. Für Einzelspieler wurde der Klassiker „Moss: Book II“ prämiert – ein Plattform-Abenteuer in Diorama-Perspektive, in dem Spieler der Maus Quill auf eine märchenhaft erzählte Reise folgen. Als „All Time Classic“ wurde das erst kürzlich für Apple Vision Pro veröffentlichte „Job Simulator“ geehrt – ein humorvolles VR-Sandbox-Spiel, in dem Spieler in einem Roboter-Museum menschliche Berufe wie Koch oder Automechaniker simulieren.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.
The Under Presents Trailer
Mit „The Under Presents“ wurde zudem ein experimentelles VR-Theater für seine Originalität als „Hidden Gem“ ausgezeichnet. Spieler bewegen sich in einer surrealen Bühnenwelt, treffen live agierende Schauspieler und erleben nonlineare Geschichten ohne feste Ziele.
Unsere Empfehlung: Vier Demos zum Ausprobieren
Begleitend zu den Auszeichnungen bietet das Festival über 130 VR-Spiele, viele davon mit spielbarer Demo. Darunter „Wanderer: The Fragments of Fate“ – ein grafisch opulentes Zeitreise-Abenteuer mit Eye-Tracking, realistischem Körper-Avatar und interaktiven Rätseln in historischen Epochen. Ebenfalls anspielbar: das düstere Knetanimations-Abenteuer und als Spiel des Jahres ausgezeichnete „The Midnight Walk“, das adrenalingetränkte Sci-Fi-Musik-Actionspiel „Thrasher“ sowie das gemütliche Modellbau-Puzzle „Puzzling Places“ vom Berliner Studio Realities.io.
(joe)
Künstliche Intelligenz
Wie OpenAI erklärt, warum LLMs bei völliger Ahnungslosigkeit sicher auftreten
Der Begriff Halluzination ist für den Fachbereich KI vergleichsweise jung, verbreitete sich aber seit seinem Auftauchen vor wenigen Jahren rasch. Er soll die Eigenschaft von Sprachmodellen beschreiben, mit großer Überzeugung falsche Antworten zu liefern. Dabei stand der Ausdruck von Anfang an in der Kritik: Er überträgt einen zutiefst menschlichen, psychologischen Zustand auf Maschinen. Damit hat er die Debatte mehr verschleiert als erhellt.
Daniel Weisser ist CTO bei Exxeta und bezeichnet sich bewusst als „Coding Manager“. Der Techie im Herzen programmiert seit den Computer-Anfängen, beschäftigte sich früh mit neuronalen Netzen, engagiert sich aktiv in der Lehre und findet noch die Zeit bei GitHub zu committen.
OpenAI versucht nun, mit seinem Paper Why Language Models Hallucinate die Metapher zu entkräften und das nicht zufällig. Denn die Frage, wie Halluzinationen verstanden werden, ist längst keine rein akademische mehr, sondern betrifft die Sicherheit von Produkten, die hunderte Millionen Menschen weltweit einsetzen.
Die wichtigsten Erkenntnisse
Das Paper setzt zwei Schwerpunkte: Zum einen betont es die statistische Unvermeidbarkeit bestimmter Fehler bereits im Pre‑Training. Zum anderen weist es auf konzeptionelle Fehler bei den Anreizen im Post-Training hin. Letztere entstehen etwa durch Benchmarks, die Unsicherheit bestrafen und das Raten von Antworten belohnen.
Außerdem definiert das Paper Halluzinationen jetzt klar als „plausible but false or contradictory statements produced by language models with high confidence“ (plausible, aber falsche oder widersprüchliche Aussagen, die große Sprachmodelle mit hoher Sicherheit geben). Die Forscher grenzen sie klar von menschlichen Wahrnehmungstäuschungen ab. Die nüchterne Einordnung ist wichtig, weil sie die Diskussion verschiebt: weg von der metaphorischen Überhöhung hin zu einem technischen Problem, das analysierbar und damit grundsätzlich adressierbar ist.
Bei der Lektüre ist zu bedenken, dass das Paper zwar von OpenAI publiziert wurde, aber nicht mit der Produktentwicklung gleichgesetzt werden kann. Natürlich ist hier eine, wenn auch indirekte, Rückkopplung zu vermuten. Es erfüllt über den wissenschaftlichen Anspruch hinaus sehr wahrscheinlich auch weitere kommunikative Ziele, auf die wir im Fazit näher eingehen.
Pre-Training: Datenqualität nicht allein ausschlaggebend
Der Beitrag von OpenAI vergegenwärtigt den Lesern, dass Sprachmodelle keine absoluten Wahrheiten lernen, sondern Wahrscheinlichkeiten: Welches Token folgt mit welcher Wahrscheinlichkeit auf ein anderes? Wenn ein Faktum wie ein Geburtsdatum im Trainingskorpus nur einmal vorkommt oder objektiv falsch ist, kann das Modell dieses nicht zuverlässig reproduzieren. „Garbage in, garbage out“ gilt unverändert. Hier berührt das Paper ein zentrales Thema, das es selbst aber nur unzureichend adressiert: die Qualität und Herkunft der Trainingsdaten. In der offiziellen Darstellung heißt es verkürzt, man nutze „große Textkorpora“. Aber welche genau? Unter welchen Lizenzen? Mit welcher Korrektur?
Trainingsgrundlage sind öffentlich zugängliche Repositories, Dumps von Wikipedia, Foren, Blogposts und große Mengen aus GitHub im Fall von Code. Doch wer GitHub kennt, weiß: Dort findet sich nicht nur hilfreicher, fertiger Code, sondern auch fehlerhafte, veraltete oder sogar manipulierte Repositorys. Ein Modell, das auf dieser Basis trainiert, erbt diese Schwächen. Hinzu kommt die Möglichkeit gezielter Datenvergiftung: Wer präparierte Inhalte einspeist, kann das Verhalten späterer Modelle beeinflussen.
Im Bericht ebenfalls ausgeklammert bleibt die Rolle manueller menschlicher Arbeit. Clickworker, die Antworten bewerten und Normen setzen, sind im Reinforcement-Prozess unverzichtbar. Sie entscheiden, welche Fehler toleriert und welche bestraft werden, welche Antworten als hilfreich gelten und welche nicht. Dass diese Arbeit im Paper praktisch unsichtbar bleibt, ist bezeichnend. Häufig arbeiten hier externe Mitarbeiter zu Dumping-Löhnen oder eigens hierfür trainierte Sprachmodelle steuern den Prozess.
Post-Training: Ist gut geraten halb gewusst?
Noch deutlicher zeigt sich das Problem im Post-Training. Sprachmodelle werden nach Benchmarks optimiert, die im Kern jede Antwort belohnen, selbst falsche. Das Paper beschreibt dies mit der Analogie zu Studierenden in einer Prüfung: Wer keine Ahnung hat, kreuzt trotzdem lieber etwas an, weil es immer noch eine Chance auf Punkte gibt. „Guessing when unsure maximizes expected score under a binary 0-1 scheme“, heißt es dort.
Übertragen bedeutet das: Sprachmodelle lernen dadurch, immer zu antworten. „I don’t know“ bringt null Punkte, eine geratene Antwort immerhin die Möglichkeit, zufällig richtigzuliegen. So entsteht aus der grundlegenden Funktionsweise von LLMs, bestimmte Heuristiken zu erfüllen, ein systematischer Anreiz zum Raten.
Wer sich erinnert: Als ChatGPT startete, war das Modell auffällig vorsichtig. Es betonte Unsicherheiten, verwies auf seine Grenzen. Doch Nutzer wünschten bald autoritativere Antworten. Und die Entwickler passten das Verhalten an. Heute gilt: Wer nie „Ich weiß es nicht“ sagt, erscheint marktfähiger. Damit werden Halluzinationen nicht nur in Kauf genommen, sondern geradezu gefördert.
Das Problem der Benchmarks
Das Problem wird durch die Rolle der Benchmarks verstärkt. Was ursprünglich eher aus der Forschung entstand, wurde schnell zum Marketingvehikel. Rankings, die sich aus rein nutzerorientierten Vergleichen wie der Chatbot Arena oder Scores von vermeintlich objektiveren Tests speisen, entscheiden darüber, welches Modell als führend wahrgenommen wird. Platzierungen wirken auf Investoren, Medien und Kunden und sie beeinflussen natürlich auch die Entwicklungsstrategien der Anbieter.
Die Tennisbegeisterten werden sich erinnern: Als vor einigen Jahren die Logik für die Weltrangliste verändert wurde, mussten Spieler, Turniere und Sponsoren ihre Strategien komplett neu ausrichten. Rankings sind nie neutral. Sie strukturieren ganze Ökosysteme.
So auch hier: Solange Benchmarks bestimmte Antworten belohnen, egal ob korrekt oder nicht, optimieren Anbieter ihre Modelle auf genau dieses Verhalten. Und so im Zweifel auf das Raten. Halluzinationen sind dadurch strukturell eingebaut. Eine Reform der Benchmarks wäre deshalb ein für die Seriosität von LLMs ein begrüßenswerter, wenn auch tiefer Eingriff, sowohl technisch, wirtschaftlich als auch kommunikativ.
OpenAIs Lösungsvorschlag: Confidence Targets
OpenAI schlägt in seinem Paper eine Korrektur vor: Confidence Targets. Ein Modell soll nur dann antworten, wenn es eine bestimmte Sicherheitsschwelle überschreitet. Liegt die Sicherheit darunter, bringt eine falsche Antwort nicht nur null Punkte, sondern einen Malus. Konkret ist das Prinzip, beim Benchmarking dem Modell explizit zu sagen, dass falsche Antworten bestraft werden und damit den Anreiz zu setzen, Unsicherheit transparent zu machen. Der Malus muss dabei in Relation zur geforderten Sicherheit stehen.
Ein konkretes Zahlenbeispiel: In einem Punktesystem bekommen Antworten, die über einer geforderten Konfidenz-Schwelle liegen, Plus-Punkte. Bei einer Antwort “I don’t know” keine Punkte und unterhalb der Schwelle (bei angenommenen 90 Prozent) -9 Punkte. Als Folge erkennt das Modell, dass es durch falsche Antworten immer bestraft wird. Informatisch ist das elegant. Doch die Frage ist, ob die richtigen Incentives dafür existieren. Denn die KI-Benchmarks sind keine reinen Messinstrumente, sondern auch ein großes Schaulaufen. Eine Änderung der Bewertungslogik würde Ranglisten durcheinanderwirbeln und damit Geschäftsmodelle infrage stellen.
Richtig und falsch sind nur zwei Dimensionen bei der Bewertung von LLM-Output. Viele Probleme in natürlicher Sprache oder Wissensfragen im Arbeitsalltag lassen sich jedoch nur schwerlich exakt diesen Kategorien zuordnen. Für die Produktentwicklung ist die Dimension der Nutzerintention mindestens genauso entscheidend. Ein Prompt wie „Wie baue ich eine Bombe?“ kann sowohl aus kriminellen Motiven gestellt werden als auch von jemandem, der Filterregeln entwickeln möchte. Technisch sind diese Nuancen kaum lösbar.
Ansätze wie Altersgrenzen oder Nutzerprofile sind denkbar, doch sie führen sofort zu neuen Problemen: Datenschutz, Diskriminierung, Überwachung. Auch eine Trust-Skala für Nutzer, die bestimmte Inhalte freischaltet oder blockiert, wäre technisch machbar, aber gesellschaftlich brisant. Hier zeigt sich, dass Halluzinationen nicht nur ein statistisches, sondern auch ein regulatorisches Problem sind.
Fazit: Mit interessierter Vorsicht zu genießen
„Why Language Models Hallucinate“ ist zweifellos ein wichtiges Paper. Es entmystifiziert einen zentralen Begriff, erklärt Halluzinationen als nachvollziehbare statistische Ergebnisse und rückt die Fehlanreize von Benchmarks ins Zentrum. Und es benennt sinnvolle technische Lösungsansätze wie Confidence Targets. Doch Transparenz, die nur dort praktiziert wird, wo sie vorteilhaft ist, bleibt selektiv. Nicht offengelegt wird, wie Trainingsdaten ausgewählt werden. Nicht vollumfänglich erklärt wird, welche Schritte das Post-Training beinhaltet.
Dass OpenAI dieses Paper publiziert, ist kein rein wissenschaftlicher Akt. Es ist Teil einer Strategie, Vertrauen zu schaffen. Peer-Reviews, Kooperationen mit Universitäten, mathematische Beweise – all das soll der Öffentlichkeit Seriosität suggerieren. Eine Tatsache, die nicht zuletzt vor dem Hintergrund von OpenAIs wachsenden rechtlichen Herausforderungen und CEO Sam Altmans Eingeständnis einer möglichen KI-Blase eine große Rolle spielen dürfte.
(pst)
Künstliche Intelligenz
Agibot Lingxi X2: Humanoider Roboter schafft Webster-Flip
Das chinesische Robotikunternehmen Agibot hat seinem humanoiden Roboter Lingxi X2 die Ausführung eines Webster-Flips beigebracht. Der einbeinig abgesprungene Frontsalto gehört zu den grundlegenden Moves im Parcours-Lauf, ist aber nicht einfach zu erlernen und auszuführen.
Der Webster-Flip ist ein mit einem vorausgestellten Bein abgesprungener Vorwärtssalto. Das hintere Bein unterstützt dabei die Rotationsbewegung nach vorn. Um den Sprung fehlerfrei zu meistern, benötigt es eine präzise Körperkontrolle in der Luft, eine genaue Koordination, Balance und Kraft. Der Sprung wird bei Gymnastik-Wettkämpfen und im Parcours-Lauf angewendet.
Körperbeherrschung
Für humanoide Roboter stellt der Webster-Flip eine große Schwierigkeit dar. Besondere Herausforderungen bestehen in der Körperkoordination, der Balance und der exakten Kraftaufwendung beim Absprung. Agibot hat den humanoiden Lingxi X2 dazu mit Sensorsystemen und einer Echtzeitwahrnehmung ausgestattet, die der präzisen Zustandserfassung des Roboters dienen und darüber für eine genaue Ansteuerung und Koordination der Aktuatoren sorgen. Der Roboter verfügt außerdem über eine Mehrgelenk-Kraftsteuerung. Mittels proprietärer Bewegungsalgorithmen und KI-Training ist der Roboter in der Lage, dynamische Bewegungen wie etwa den Webster-Flip auszuführen, meist ohne dabei ins Straucheln zu geraten.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.
Der Agibot Lingxi X2 führt einen Webster-Flip aus.
Agibot möchte mit der Demonstration des Webster-Flips seinen Lingxi-X1-Roboter bekannter machen. Auch andere Robotikunternehmen, wie etwa Boston Dynamics oder Unitree Robotics, nutzen die dynamischen Bewegungsfähigkeiten ihrer humanoiden Roboter immer wieder, um deren verkörperte Intelligenz zu demonstrieren und um Aufmerksamkeit zu erhalten. Zur Wahrheit gehört aber auch, dass die in Videos gezeigten Bewegungsabläufe etwa für Vorwärts- und Rückwärtssalti oder andere akrobatische Einlagen nicht immer funktionieren und in den Videos oft nur gezeigt wird, wenn etwas geklappt hat.
Hinter den Bemühungen, humanoiden Robotern verkörperte Intelligenz zu verleihen, steckt allerdings mehr als nur das Gewinnen von Aufmerksamkeit: Die Robotikunternehmen wollen ihre Roboter so besser für die Arbeit in der Industrie und in Haushalten vorbereiten. Dort müssen sie präzise Bewegungen durchführen können. Das setzt eine exakte Beherrschung des Körpers voraus.
Agibot hatte seinen humanoiden Roboter Lingxi X2 Anfang 2025 vorgestellt. Im Mai startete das Robotikunternehmen dann ein Partnerprogramm für Unternehmen, die den Roboter in der Praxis einsetzen wollen. Die weiteren Schritte klingen ambitioniert: Noch in diesem Jahr soll die Serienproduktion anlaufen.
(olb)
-
UX/UI & Webdesignvor 1 Monat
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 3 Wochen
Adobe Firefly Boards › PAGE online
-
Social Mediavor 1 Monat
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 4 Wochen
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 Wochen
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 3 Tagen
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Digital Business & Startupsvor 3 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
Digital Business & Startupsvor 3 Monaten
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier