Connect with us

Künstliche Intelligenz

Nutanix: KI-Plattform, Bare-Metal-Kubernetes und Neocloud-Dienste


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Neben den strategischen Partnerschaften mit NetApp und Cisco hat Nutanix auf seiner .NEXT-Konferenz in Chicago eine Reihe von Produkten angekündigt, die auf KI-Infrastruktur, Kubernetes-Erweiterungen und neue Angebote für spezialisierte Cloud-Anbieter zielen. Ein Großteil der neuen Funktionen ist allerdings erst für die zweite Jahreshälfte 2026 avisiert.

Weiterlesen nach der Anzeige

Mit der Agentic-AI-Plattform adressiert Nutanix den nächsten Entwicklungsschritt von KI-Systemen: Anwendungen, die nicht nur Modelle ausführen, sondern eigenständig Entscheidungen treffen und Prozesse steuern. Technisch kombiniert der Anbieter dafür Infrastruktur, Plattformdienste und Managementfunktionen in einem Stack, in dem virtuelle Maschinen, Container und GPU-beschleunigte KI-Workloads parallel betrieben werden können.

Die vollständige Plattform ist erst für die zweite Jahreshälfte 2026 angekündigt und bleibt damit vorerst eine Roadmap-Position. Bereits verfügbar sind jedoch einzelne Bausteine: Nutanix Unified Storage 5.3 bringt Smart Tiering in Public Clouds und mandantenfähige Objektskalierung für große Datenmengen.

Neu ist außerdem die Unterstützung für RDMA (Remote Direct Memory Access) in Unified Storage, was die Latenz bei datenintensiven KI-Workflows deutlich senken soll. Data Lens 2.0 kann erstmals vollständig in lokalen und abgeschotteten (Air-Gapped) Umgebungen betrieben werden – relevant für Kunden in regulierten Branchen, die Ransomware-Erkennung und Daten-Governance ohne Cloud-Anbindung benötigen.

Der neue Nutanix Cloud Manager 2.0 (NCM) liefert eine Multi-Site- und Multi-Domain-Verwaltung über eine zentrale Kontrollebene. Integriert sind Kostenkontrolle, AIOps-Funktionen und Self-Service-Provisionierung. Nutanix betont, dass die Kostenanalyse dabei vollständig on-premises läuft – ein Differenzierungsmerkmal gegenüber Cloud-basierten FinOps-Tools, das insbesondere für sicherheitskritische Umgebungen relevant sein dürfte. Parallel baut Nutanix die Unterstützung für Sovereign-Cloud-Szenarien aus, etwa mit NC2 auf AWS GovCloud (ab sofort verfügbar) und der für später im Jahr geplanten NC2-Unterstützung für die bereits verfügbare AWS European Sovereign Cloud.

Mit NKP Metal erweitert Nutanix seine Kubernetes-Plattform um die direkte Nutzung physischer Server. Das Ziel: Container und virtuelle Maschinen sollen unter einem einheitlichen Betriebsmodell laufen, ohne zusätzliche Virtualisierungsschicht. Nutanix bezeichnet diese Architektur als „Dual Native“ – Organisationen können Kubernetes-Workloads wahlweise auf VMs oder direkt auf Bare Metal betreiben, bei einheitlichem Management und Sicherheitsmodell.

Weiterlesen nach der Anzeige

Der Ansatz zielt vor allem auf Szenarien mit hohen Performanceanforderungen: KI-Training mit dichten GPU-Konfigurationen, Inferenz-Workloads und Edge-Deployments. Bei diesen Anwendungsfällen erzeugt eine zusätzliche Hypervisor-Schicht messbaren Overhead – sowohl bei der GPU-Durchreichung (Passthrough) als auch bei der Netzwerklatenz. Bare Metal eliminiert diese Schicht, bringt aber typischerweise höhere Komplexität bei Provisionierung, Firmware-Updates und Lifecycle-Management mit sich.

Nutanix versucht diese Lücke zu schließen, indem es Automatisierung, Lifecycle-Management und Datendienste aus der eigenen Plattform auf die physische Infrastruktur überträgt. NKP Metal befindet sich aktuell im Early Access bei ausgewählten Partnern; die allgemeine Verfügbarkeit ist für die zweite Jahreshälfte 2026 geplant.

Stärker als bisher adressiert Nutanix spezialisierte Cloud-Anbieter, die sich auf KI-Infrastruktur konzentrieren. Diese sogenannten Neoclouds – Anbieter, die primär GPU-basierte Ressourcen für KI-Training und Inferenz bereitstellen – entwickeln sich zunehmend zu Plattformbetreibern, die über reine Rechenkapazität hinaus auch Kubernetes-as-a-Service und verwaltete KI-Dienste anbieten wollen.

Dafür benötigen sie vor allem Mandantenfähigkeit, Abrechnungsmodelle und Isolation zwischen Kundenumgebungen. Nutanix liefert hierfür ein Multitenancy-Framework mit granularer Steuerung von Ressourcen, Sicherheitsrichtlinien und Netzwerkregeln pro Mandant. Ergänzt wird dies durch nutzungsbasierte Abrechnung – etwa nach GPU-Verbrauch, Token-Nutzung bei LLM-Inferenz oder API-Aufrufen. Gerade die Token-basierte Kostenkontrolle adressiert ein konkretes Problem: Unternehmen, die LLM-Workloads betreiben, werden häufig von unerwartet hohen Inferenzkosten überrascht.

Ebenfalls an Service Provider gerichtet ist das neue Service Provider Central: ein mandantenfähiges IaaS-Produkt auf Basis der Nutanix Cloud Platform, das über Nutanix Central eine zentrale Verwaltung mehrerer Mandanten mit automatisierten Workflows ermöglicht. Jeder Mandant erhält eine eigene Private-Cloud-Umgebung mit Zugriff auf Nutanix Prism und kann Compute, Storage, Netzwerk sowie Identity eigenständig verwalten. Nutanix will damit auch explizit ehemalige VMware Cloud Service Provider ansprechen, die nach Broadcoms Umstrukturierung neue Plattformoptionen suchen. Verfügbar wird das Angebot in der zweiten Jahreshälfte 2026.

Neben den strategischen Allianzen mit NetApp und Cisco weitet Nutanix seine Hardware-Unterstützung mit einer neuen Foundation Central Appliance aus. Diese vereinfacht die Erstinstallation von Nutanix Cloud Infrastructure und AHV auf Servern von Cisco, Dell, Fujitsu, HPE und Lenovo sowie der eigenen NX-Plattform. Dell PowerStore wird als externe Storage-Option allgemein verfügbar, ergänzt durch erweiterte Dell-Private-Cloud-Automatisierung.

Auf Google Cloud kommen in der zweiten Jahreshälfte Hyperdisk- und C3-Bare-Metal-Instanzen für Nutanix Cloud Clusters (NC2) hinzu – damit lässt sich Storage auch in der Public Cloud unabhängig von Compute skalieren, was dem Disaggregierungs-Ansatz aus der NetApp-Partnerschaft entspricht.

Im Datenbankbereich integriert Nutanix MongoDB enger. Die Kombination aus Nutanix Database Service und MongoDB Ops Manager soll Deployment, Betrieb und Wiederherstellung automatisieren. So lassen sich etwa verteilte Datenbankcluster schneller bereitstellen und Point-in-Time-Recovery für einzelne Cluster durchführen.

Die .NEXT 2026 zeigt, wie Nutanix sich von einem HCI-Anbieter zu einer universellen Cloud-Plattform für VMs, Container und KI-Workloads wandeln will. Doch ein Großteil der Ankündigungen ist Zukunftsmusik: Die Agentic-AI-Plattform, NKP Metal, das Neocloud-Angebot, Service Provider Central und die RDMA-Unterstützung sind erst für die zweite Jahreshälfte 2026 avisiert. Sofort verfügbar sind dagegen Unified Storage 5.3, Data Lens 2.0 und der Cloud Manager 2.0 – solide Plattform-Updates, aber keine Umwälzung.

Die strategische Frage ist, ob Nutanix die Roadmap rechtzeitig liefern kann, bevor sich der Post-VMware-Markt konsolidiert. Bare-Metal-Kubernetes und agentische KI-Infrastruktur sind Felder, auf denen auch Red Hat, VMware by Broadcom selbst und die Hyperscaler aktiv sind. Der praktische Nutzen wird sich erst zeigen, wenn die angekündigten Komponenten tatsächlich im Alltag eingesetzt werden können.


(axk)



Source link

Künstliche Intelligenz

Das kann OpenClaw in der PRAXIS | c’t 3003


Was passiert, wenn ein KI-Agent permanent auf dem eigenen Rechner läuft und per Messenger gesteuert wird? OpenClaw zeigt es: Lampen schalten, Musik generieren, Kinderbuch-Stifte bespielen, vieles funktioniert erstaunlich gut und ohne Konfiguration. Der KI-Agent lernt zudem selbstständig dazu. Klingt perfekt, ist es aber nicht: Das System kann auch Schaden anrichten. Und seit Anthropic die Flatrate gestrichen hat, ist Claude Opus als bestes Modell kaum noch erschwinglich.

Weiterlesen nach der Anzeige

(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)

Guck mal hier, ich schicke einfach eine Sprachnachricht an meinen OpenClaw-Assistenten. Ich hab hier so ein elektronisches Namensschild, da steht irgendwie hinten www.lednametags.de hinten drauf. Ich hab keine Lust, die Software selbst zu installieren. Ich möchte das einfach an den Rechner hängen, auf dem du läufst, und dann soll da I LOVE c’t 3003 draufstehen. Ja, paar Sekunden später steht da I LOVE c’t 3003 drauf. Und ich hab nichts vorbereitet, ich hab nix selbst installiert, ich hab einfach nur eine Telegram-Sprachi geschickt. Und das Krasse ist, das Ding hat mir sogar eigene Animationen auf das Teil programmiert, was zum Beispiel mit der Windows-Software für dieses LED-Namensschild so ohne Weiteres gar nicht möglich wäre. Ich habe noch mehr Beispiele, ich habe aber auch noch ein paar Horrorgeschichten, warum OpenClaw auch ganz schön problematisch sein kann. Vor allem glaube ich, dass ich euch OpenClaw bzw. ähnliche Systeme jetzt besser erklären kann als vorher, weil ich nämlich auch ein bisschen gebraucht habe, um zu checken, was daran jetzt eigentlich so anders oder besonders ist. Und ich bin zu 100% davon überzeugt, dass solche Systeme in Zukunft alltäglich werden. Bleibt dran!

Liebe Hackerinnen, liebe Internetsurfer, herzlich willkommen hier bei…

Ja, manchmal mache ich hier Videos und denke so: „Passt schon, ne?“ Und dann merke ich aber: „Hm, ich glaube, das hat man gar nicht so gut verstanden.“ Und das habe ich besonders doll gemerkt, als die Streamer Staiy und Drakon auf unser OpenClaw-Video reagiert haben. Das ist jetzt auch kein Vorwurf an die beiden oder so, ist alles gut, aber ich habe offenbar viel zu viel KI-Wissen vorausgesetzt und nicht deutlich genug für normal technisch interessierte Menschen erklärt, was an OpenClaw jetzt eigentlich so krass ist.

Und deshalb versuche ich das jetzt ein zweites Mal. Also finde ich wichtig, weil solche OpenClaw-artigen Systeme wirklich extrem relevant zu werden scheinen. Guck mal hier, in China legen zum Beispiel etliche Kommunen nicht nur so Förderprogramme auf für Firmen, die kommerzielle OpenClaw-Lösungen entwickeln. Es gibt auch wirklich so Aktionen, wo Leute sich kostenlos OpenClaw auf ihre Rechner von Profis installieren lassen können, inklusive so Plüsch-Hummer-Nippes, weil der Hummer, das ist das Wappentier von OpenClaw. Gleichzeitig rät die chinesische zentrale Sicherheitsbehörde für Cyberangelegenheiten aber explizit davon ab, OpenClaw bei Regierungsstellen, Staatsbetrieben und Banken auf Arbeitsrechnern zu installieren.

Und ich finde, das zeigt sehr anschaulich, dass OpenClaw einerseits faszinierend und nützlich ist, aber gleichzeitig auch super gefährlich.

Weiterlesen nach der Anzeige

Aber jetzt endlich konkret, was das ist, OpenClaw? Ja, das ist eine Software, die der österreichische Entwickler Peter Steinberger als Experiment für sich selbst entwickelt hat. In einem Interview mit mir hat er sogar gesagt, dass er es als eine Art Kunstprojekt sieht. Anders als ChatGPT kann OpenClaw Dinge auf einem Computer machen. ChatGPT kann ich natürlich auch Dateien schicken zum Analysieren und ChatGPT kann auch Sachen generieren, zum Beispiel PDFs, aber ChatGPT hat keinen direkten Zugriff auf meinen Rechner. Das wohnt ausschließlich im Browser oder halt in der ChatGPT-Handyapp. OpenClaw wohnt dagegen auf meinem Rechner. Ich selbst muss als Nutzer OpenClaw auf einem Rechner installieren. Ich kann also nicht einfach eine Website aufrufen, sondern ich muss Zugang zu einem Computer haben. Das kann ein lokaler Rechner sein, der hier bei mir auf dem Schreibtisch steht, Homeserver, alter Laptop, Raspberry Pi geht auch, oder halt ein angemieteter Server im Netz. Ich habe OpenClaw hier bei mir auf einem Framework Desktop mit Fedora Linux installiert, auf dem sonst nichts läuft und der permanent eingeschaltet ist. Das ist so der normale Modus Operandi für OpenClaw.

So, und weil das Ding halt lokal auf einem Rechner läuft, denken viele Leute, dass OpenClaw auch zwingend was mit lokalen KI-Modellen zu tun hat und dass man also einen Rechner braucht, auf dem lokale KI-Modelle gut laufen. Und nein, das stimmt nicht. OpenClaw funktioniert mit Abstand am besten, wenn man es mit den leistungsfähigsten KI-Modellen verwendet, und das sind zurzeit leider die großen Cloud-Modelle. Man kann es mit lokalen Modellen verwenden, habe ich auch intensiv ausprobiert, sage ich später noch was zu, aber meiner Meinung nach funktioniert OpenClaw zurzeit am besten mit Anthropic Claude Opus. Das bedeutet also, dass man OpenClaw auch problemlos auf einem Rechner nutzen kann, der keine lokalen Modelle laufen lassen kann. OpenClaw selbst ist sehr ressourcenschonend, das läuft auf einer Kartoffel, das muss ja nur Prompts an Anthropic schicken in meinem Fall und die Ergebnisse entgegennehmen.

Kurzer Einschub, also die coolen Sachen, die mein OpenClaw kann und die in diesem Video vorkommen, für die ist, sag ich mal, zu mindestens 80% das LLM verantwortlich, in meinem Fall Claude Opus. Aber Claude Opus ist inzwischen nahezu unbezahlbar, weil es nicht mehr per Abo geht. Dazu später mehr.

So, und jetzt denken vielleicht einige von euch, haben auch viele kommentiert, ja, okay, das läuft auf dem Rechner und kann da Dinge machen. Was ist daran jetzt aber anders als zum Beispiel Claude Code oder Codex oder OpenCode? Da kann ich ja auch einfach sagen, guck dir mal alle Bilder in dem und dem Verzeichnis auf meiner SSD an und kopiere alle Katzenfotos in das und das Verzeichnis. Ja, das stimmt, aber Claude Code und Co. machen halt nur Sachen, wenn ich die explizit starte und dann prompte. OpenClaw kann ich einfach sagen, schick mir jede Stunde ein Gedicht, das mich daran erinnert, genug Matcha Latte zu trinken, weil OpenClaw halt immer läuft.

So, und jetzt noch ein weiterer Unterschied zu Claude Code und Co. OpenClaw läuft da, wo ich mit meinem Bot kommunizieren will. Also in meinem Fall ist das Telegram. Nicht, weil ich Telegram so super finde, finde ich nicht, aber weil ich OpenClaw halt so in Telegram integrieren kann, dass es ein eigener Account ist. Würde ich WhatsApp oder Signal benutzen, würde der OpenClaw-Bot quasi ich sein. Das heißt, wenn der eine Nachricht schreibt, sieht das für andere so aus, als würde sie von mir kommen. Und das Ding könnte auch alles lesen, was reinkommt. Für mich ist das aber keine Option, deshalb benutze ich Telegram, da sieht er nur, was explizit an ihn geht.

So, und alleine, dass ich mit dem Bot über Messenger kommuniziere, macht für mich schon einen riesigen Unterschied aus, weil ich zum Beispiel einfach von unterwegs mit dem Bot sprechen kann. Ohne Telegram müsste ich mir überlegen, wie ich von außen an meinen Rechner komme, also, was weiß ich, VPN einrichten oder sogar Ports öffnen, muss ich hier alles nicht. OpenClaw ist einfach eine „Person“ in meinem Messenger. Das hat offenbar auch Anthropic gecheckt, also die Leute, die Claude Code machen, und die bieten jetzt auch offiziell Messenger-Unterstützung an.

Und trotzdem ist das immer noch nicht das Gleiche, weil OpenClaw proaktiv Sachen machen kann und Claude Code nur reaktiv. Prompt rein, Antwort raus. Oder auch Prompt rein und dann kommt da die Software raus. OpenClaw hat obendrein auch noch sehr durchdachte Memory-Modelle, damit er sich auch Sachen merken kann, wenn das Kontextfenster gelöscht wird, also quasi das Kurzzeitgedächtnis des KI-Modells. Claude Code versucht das auch, aber immer nur im Rahmen des gerade aktiven Projekts bzw. des aktuellen Projektordners. OpenClaw ist auch selbstmodifizierend. Man kann also einfach auf Telegram sagen, wenn du mir in Zukunft Sprachis schickst, dann bitte auf Schwäbisch mit dem und dem Text-to-Speech-Modell. Und dann wird das gespeichert.

So, jetzt aber endlich nochmal ein paar Beispiele, was das Ding kann und wofür ich das benutze. Ich hatte ja am Anfang schon das Beispiel mit diesem LED-Namensschild hier gezeigt. Ja, ich habe halt nichts konfiguriert, das ging halt einfach. Also einfach sagen, per Text oder Sprachi, ja, und der Bot ist dann wirklich in der Lage, Bilder dafür zu generieren. Und ich habe dann mal gefragt, wie das eigentlich funktioniert, und dann sagt der Bot, mache ich „per Hand“, also ich zitiere, Pixel für Pixel in Python. Das fand ich einigermaßen erstaunlich, vor allem, weil es ja die „offizielle“ Software nur für Windows gibt. Für macOS gibt es eine kostenpflichtige inoffizielle Software, ja und für Linux nur so ein Python-Script. Das ist für Menschen oft nicht so richtig leicht zu bedienen, aber für OpenClaw und solche agentischen Systeme ist so ein Script deutlich leichter als grafische Benutzeroberflächen. Das ist nämlich das Ding, was man echt verstehen muss. Alles, was sich auf der Kommandozeile machen lässt, in Skripten oder Python oder über ein MCP oder über eine API, über MCP hatten wir mal ein eigenes Video, das machen OpenClaw und Claude Code problemlos. Alles, was allerdings mit grafischen Benutzeroberflächen zu tun hat und leider auch Websites im Browser, das geht schon auch irgendwie, aber viel, viel, viel schlechter. Ja, und das Namensschild ist ein perfektes Beispiel, das kann man komplett über Python programmieren und das geht problemlos in Sekunden.

Ich habe dann auch nochmal was vermeintlich Schwierigeres auf OpenClaw geworfen. Ich habe hier nämlich noch so einen alten Tiptoi-Stift, da kann man sich so Kinderbücher mit vorlesen lassen. Man musste allerdings manuell erst die Audiodateien des entsprechenden Kinderbuchs drauftun und die Software dafür, die gibt es nur für Windows und macOS. Ich also wieder eine Sprachi hier an OpenClaw geschickt. Ich möchte die Inhalte von diesem Bild, also von diesem Tiptoi-Buch, auf meinen Tiptoi-Stift draufladen. Bitte regel das alles. Ich möchte einfach nur den Tiptoi-Stift an den Rechner anschließen, auf dem du läufst. Und dann sollen bitte die Inhalte für dieses Buch da drauf gespielt werden. Danke.

Ja, und das hat auch einfach funktioniert. Ich war dann recht ungläubig, weil ich ja schon wusste, dass es eigentlich keine Linux-Software dafür gab. Und ich habe OpenClaw dann gefragt, wie er das gemacht hat. Ja, und dann hat er halt einfach irgendwelche GME-Dateien, whatever, heruntergeladen und die auf den Stift kopiert. Offenbar ist das das Gleiche, was die Windows- und Mac-Software auch macht. Aber woher wusste OpenClaw das? Das steht ja vermutlich nicht in den Claude-Trainingsdaten. Ja, das hat er mir dann alles erklärt. Er hat halt irgendwo irgendwelche Tiptoi-Projekte auf GitHub gefunden und so herausgefunden, wie die Tiptoi-Website aufgebaut ist, wo die Dateien liegen und so weiter. Das hätte ich vielleicht auch selbst irgendwann irgendwie hinbekommen. Aber ich kann definitiv nicht so schnell Informationen erfassen wie ein Sprachmodell und hätte dafür definitiv länger gebraucht.

Ja, und OpenClaw kann natürlich nicht nur Sachen bedienen, die per USB an seinem Host-Rechner dranhängen, sondern auch Sachen im Netzwerk tun. Ich habe drei Sachen ausprobiert, die mir bei mir zu Hause eingefallen sind. Schalte meine Philips-Hue-Lampe in dem und dem Raum an, schmeiß mir mal ein selbstgeneriertes Lied auf mein Google-Home-Assistant-Gerät in der Küche und spiel was auf meinem Sonos-Soundsystem ab. Und alles drei hat er einfach gemacht, ohne dass ich irgendetwas konfigurieren musste.

Ganz kurz, das ist der 3003-Diss-Track, den er lokal auf meinem Rechner generiert hat. Und ich muss leider zugeben, dass ich das öfter als Prank mache, dass ich irgendwelche Quatschlieder generiere und die dann auf diverse Boxen hier in der Wohnung schmeiß, um meine Familie zu ärgern. Ja, das geht alles.

Auf jeden Fall hat er alle diese drei Sachen, also Lampe, Sonos und Google Assistant, alles drei einfach gemacht, ohne dass ich irgendwas konfigurieren musste. Also die Informationen, die ich hier gerade erwähnt habe, einfach wie die Geräte heißen, waren die Informationen, die ich OpenClaw auch gegeben habe. Bei der Hue-Lampe musste ich einmal zum Bestätigen auf die Hue-Bridge drücken, aber das ist ja das ganz normale Sicherheitsfeature, das macht man einmal und dann kann OpenClaw schalten und walten, wie es will. Und manchmal brauchen Sachen auch ein, zwei Versuche, da muss man vielleicht noch eine Frage beantworten oder sagen, versuch’s nochmal. Aber wenn OpenClaw Dinge einmal hinbekommen hat, schreibt er sich die gewöhnlich auch in seine TOOLS.md, das ist quasi sein Notizbuch, wo steht, welche Tools er wie benutzen kann.

Und, weil ich OpenClaw, habe ich ja gerade schon gesagt, auf einem recht leistungsfähigen Rechner laufen habe, kann der darauf halt Lieder, Bilder, Videos generieren und die Tools dafür, also zum Beispiel Ace-Step für Musik, die hat er alle selbst installiert und das ist eine AMD-Maschine und ich habe ehrlich gesagt mit lokalen KI-Tools oft Probleme mit Nicht-Nvidia-Hardware, aber OpenClaw macht das alles ohne Probleme. Also, was heißt ohne Probleme? Manchmal klappt es, wie gesagt, nicht beim ersten Versuch, aber irgendwann passt das dann schon. Manchmal dauert es auch zehn Minuten, aber ist ja egal, ich muss ja nichts machen dabei. Und wie gesagt, einmal installiert, schreibt er sich das auf und dann läuft das.

Aber ich check das schon, das sind alles Dinge, die für so Computerheinis wie mich beeindruckend sind. Aber das ist natürlich auch nichts, was man jeden Tag verwendet, das sind eher so Party-Zaubertricks. Also, dass ich so meine Familie damit ärgere, dass ich auf den Boxen hier in der Wohnung irgendwelche generierten Lieder abspiele. Man kann ja so Pranks mitmachen, ne?

Deshalb. Was ich aber jeden Tag verwendet habe, und das ist mir fast ein bisschen peinlich, das ist OpenClaw als Chatgruppen-Teilnehmer. Ja, ich weiß, das ist psychologisch problematisch, ein LLM zu vermenschlichen, vor allem, weil ich meinen Bot auch so eingestellt habe, dass er wirklich schreibt wie ein Mensch, also viel Kleinbuchstaben, Komma- und Tippfehler etc. Aber es ist wirklich interessant, eine KI im Chat drin zu haben, statt auf so einer ChatGPT-artigen Chatbot-Oberfläche. Und ich weiß auch nicht, ob ich und meine Freunde irgendwie seltsam sind, aber uns hat das sehr konsistent Spaß gemacht, so ein quasi allwissendes Ding im Chat zu haben, das strittige Fragen klären kann und uns irgendwas erklären kann.

Was ich besonders erstaunlich fand, das Ding hat manchmal echten Menschenhumor. Zum Beispiel haben wir einmal über einen Artikel gesprochen, in dem es darum geht, dass Incel-Sprache in den Mainstream wandert, also sowas wie Looksmaxxing, also generell irgendwas-maxxing. Da wurde dann auch die Netflix-Doku „Inside the Manosphere“ erwähnt und jemand sagte dann so, natürlich nicht ernst gemeint, kann man die irgendwo runterladen? Und der Bot: Kann ich dir nicht bei helfen, sorry, bin da Compliancemaxxing. Und ich meine, Compliancemaxxing ist schlau, ist ein gutes Wortspiel, bezieht sich auch wirklich auf Dinge und das ist nur ein Beispiel dafür. Also das Ding wirkt tatsächlich auf eine Art intelligent.

Vor allem fand ich auch interessant, dass der Bot manchmal bessere Antworten gegeben hat als Opus 4.6 auf claude.com, also das gleiche Sprachmodell, nur halt nicht im OpenClaw-Korsett oder Harness, wie man in der KI-Welt dazu sagt. Offenbar lag das daran, dass Opus auf meinem Rechner quasi lokal suchen konnte, über die Brave-API geht das übrigens, während Opus auf claude.com offenbar geblockt war auf dieser spezifischen Website, die da besucht werden sollte.

Also nochmal OpenClaw zusammengefasst, das kann Dinge auf meinem Rechner machen, das läuft permanent als Service oder als Daemon, kann also auch proaktiv irgendwas tun, zum Beispiel zweimal am Tag eine sehr spezifische News-Zusammenstellung in eine Telegram-Chatgruppe oder in Discord oder halt sonst woanders reinposten und es ist LLM-agnostisch. Das heißt, ich kann das mit jedem LLM, was sogenannte Tool Calls beherrscht, nutzen. Und zwar auch lokalen. Also Tool Calls ist Aufruf von Tools. Das können eigentlich alle neueren LLMs.

In der Praxis habe ich mehrere lokale LLMs ausprobiert. Auch auf wirklich leistungsfähigen Maschinen, wie zum Beispiel einem Mac Studio mit 512 GB Unified RAM. Das lief leider nie ansatzweise so gut wie Cloud-Modelle. Das Problem ist nicht nur die „Intelligenz“ der lokalen Modelle, sondern vor allem, dass OpenClaw bei jeder Anfrage riesige Prompts da reinballert. Also das sind hier bei mir bei einem einfachen „Hallo“ 171.000 Tokens, sagt OpenClaw selbst. Ja, also der knallt da halt nicht nur das System-Prompt rein, sondern auch die sogenannten Workspace-Dateien. Das ist die AGENTS.md, das ist die SOUL.md, also seine Seele, die USER.md, also mit welchen Usern er interagiert, und die TOOLS.md, das sind eben die Tools, die aufkamen, und die IDENTITY.md und so weiter. Und das ist in jedem Prompt drin. Das wird von den Cloud-Modellen so gemacht, dass die Sachen, die ein zweites Mal kommen, über den sogenannten KV-Cache verarbeitet werden. Das heißt, man muss diese Tokens dann nicht bezahlen, die gelten dann nicht. Aber ja, bei den lokalen Modellen tut sich ja extrem viel. Zum Beispiel ist Qwen 3.5, was noch nicht so lange raus ist. Das wirkt auf mich erstmal sehr vielversprechend. Das ist auch schnell und da muss ich auf jeden Fall nochmal ein bisschen länger mit experimentieren, aber es ist auf jeden Fall noch kein Opus 4.6, aber vielleicht kommt das noch.

So, und jetzt nochmal das Thema, das man bei OpenClaw natürlich erwähnen muss. Das Ding macht Sachen und kann deshalb auch Sachen kaputt machen. Also ich persönlich würde OpenClaw niemals, niemals Zugriff auf meine Mails geben, auch nicht auf irgendwelche persönlichen Daten, unter gar keinen Umständen auf irgendwas, was mit Geld zu tun hat, und ich würde OpenClaw auch nicht auf einem Rechner installieren, der offene Ports hat, also aus dem großen Internet erreichbar ist. Ich habe OpenClaw auf einem Rechner, der nur bei mir hier im internen Netz hängt, auf dem ich in keine wichtigen Accounts eingeloggt bin, beziehungsweise ich auch nicht OpenClaw irgendwelche Passwörter gebe, wo auch keine wichtigen Daten drauf sind. Generell finde ich gut, wenn man mit solchen Systemen experimentiert, man sollte aber versuchen zu verstehen, was die machen und was die Risiken sind.

OpenClaw kann autonom Software installieren und natürlich kann er sich da Trojaner einfangen und generell kann er sich eine Prompt Injection einfangen. Gerade wenn man kleine lokale Modelle verwendet, die großen State-of-the-Art-Cloud-Modelle sind da natürlich darauf optimiert, dass sie nicht so sensibel auf Prompt Injections reagieren, aber die sind auch nicht zu 100% sicher.

Und was passiert, wenn man OpenClaw Zugriff auf wichtige Daten, wie die eigenen Mails gibt? Das zeigt das inzwischen in der Szene berühmte sogenannte Yue-Incident. Da hat nämlich eine Meta-KI-Forscherin, also jemand, die sich auskennt eigentlich, Hunderte Mails von OpenClaw gelöscht bekommen, ohne dass sie das wollte. Sie hatte aber sogar explizit gesagt, analysiere nur mein Postfach, lösche keine Mails. Es ist dann trotzdem passiert.

Und ich habe solche Sachen auch beobachtet, also undramatischer, weil ich OpenClaw ja keinen Zugriff auf wichtige Sachen gegeben habe, aber OpenClaw hat auf jeden Fall manchmal einfach halluziniert, also mit dem Brustton der Überzeugung Quatsch erzählt, keine Ahnung, Restaurants empfohlen, die es gar nicht gibt, aber es ist auch vorgekommen, dass OpenClaw eine mehrere Wochen problemlos lauffähige Ace-Step-Installation einfach komplett zerschossen hat. Es hat es dann selbst wieder repariert bekommen, aber ja, war erst mal kaputt. Und ich habe auch sehr oft gehabt, dass OpenClaw sich bei einem Update selbst zerkonfiguriert hat, also dass man sowas gesagt hat wie, mach ein Update oder stell das mal so oder so ein und dann sagt OpenClaw, okay, und dann war es weg. Dann konnte ich es nicht mehr über Telegram bedienen. Ich musste mich dann über SSH auf den OpenClaw-Rechner draufgehen und da gibt es dann den OpenClaw-Doctor-Befehl, der OpenClaw wieder repariert. Das klappte auch immer, aber ihr merkt schon, das ist auf jeden Fall faszinierende Software, aber kein Rundum-Sorglos-Paket, auf gar keinen Fall. Ohne zu verstehen, was OpenClaw ist und was es macht und vor allem, was es kaputt machen kann, sollte man OpenClaw auf keinen Fall benutzen. Wenn ihr euch das zutraut, dann probiert das auf einer Maschine aus, wo es kein Problem wäre, wenn alles drauf gelöscht wird. So sollte man das sehen.

Es ist für mich wirklich sonnenklar, dass solche permanent laufenden, selbstlernenden Agentensysteme keine kurzzeitige Modeerscheinung sind, sondern das ist was, was Menschen und Unternehmen in Zukunft immer mehr nutzen werden. Darauf könnt ihr mich gerne festnageln, davon bin ich wirklich überzeugt. Da steckt so viel Potenzial drin. Es ist aber nicht so, dass OpenClaw irgendwie fertig ist oder so. Im Gegenteil, es ist noch buggy, es ist noch gefährlich. Wenn man nicht weiß, was man tut, es ist, wie Peter Steinberger das ja auch beschrieben hat, experimentelle Software, im wahrsten Sinne des Wortes. Man kann damit experimentieren und dadurch besser verstehen, was agentische Systeme Stand heute so leisten können, wie man die vielleicht für sich selbst nutzen kann. Aber das Ding ist nichts für Leute, die irgendwas Fertiges haben wollen. Vor allem ist es, wenn man das meiner Meinung nach beste Modell haben will, extrem teuer.

So, und das ist hier jetzt nochmal eine wichtige Aktualisierung. Anthropic hat nämlich vor wenigen Tagen entschieden, dass man Claude Opus und auch Sonnet nicht mehr mit einem Abo, also einer Flatrate, verwenden kann. Also kann man schon, aber nicht mehr mit externen Tools wie leider OpenClaw. Nicht mal mit dem extrem teuren Claude-Max-Abo für 107,10 Euro im Monat, das ich für meine Zeit mit OpenClaw abgeschlossen hatte. Also für die Zeit, bevor diese neue Regel galt. Will man Claude-LLMs verwenden, muss man jetzt über API abrechnen. Und das ist was, was ich euch unter keinen Umständen empfehlen würde, weil die über 100 Euro, die ich vorher im Monat bezahlt habe, die ballert ihr da locker, wenn ihr ein bisschen was damit macht, am Tag durch. Am Tag, okay? Wenn ihr einfach nur Hallo dahin schreibt, dann kann es sein, dass das Ding weit über 100.000 Token an die Server schickt. Und ja, OpenClaw ist eine Token-Schleuder, das muss man so sagen. Das ist aber halt schade, weil Opus meiner Meinung nach das einzige LLM ist, mit dem OpenClaw halt wirklich nützlich ist.

Es gibt eine Alternative, ob das nun daran liegt, dass OpenClaw-Erfinder Peter Steinberger jetzt bei OpenAI arbeitet. Auf jeden Fall kann man jetzt OpenClaw mit einem einfachen ChatGPT-Plus-Abo, also es kostet ein bisschen mehr als 20 Euro im Monat, über Flatrate benutzen, mit dem aktuellen LLM Codex 5.4. Und das muss man so klar sagen, das ist leider deutlich, deutlich, deutlich schlechter als Claude Opus. Ich habe das ja gezwungenermaßen, nachdem Anthropic halt mein Abo gecancelt hat sozusagen oder die Flatrate, habe ich das umgeschaltet auf Codex 5.4. Und ja, was soll ich sagen, also die Sprache ist irgendwie kaputt. Das Ding sagt Sachen wie, das ist ziemlich hybrisig. Also kommen ständig solche komischen Wortschöpfungen und irgendwelchen Formulierungen, die auch grammatikalisch nicht viel Sinn ergeben. Manchmal werden auch so Fragmente in anderen Sprachen, neulich hatte ich was in Hindi da reingehauen, in die Antworten, ganz komisch. Vor allem kann es aber auch weniger. Also die beeindruckende Tool-Benutzungskompetenz, die ist bei Codex 5.4, ja, schrottig.

Eigentlich bin ich ja sowieso nicht der größte Fan davon, dass alles über irgendwelche Server von irgendwelchen US-Unternehmen läuft. Dauerhaft würde ich OpenClaw auf jeden Fall erst verwenden, wenn es ein lokales Modell gäbe, was gut damit funktioniert. Aber da habe ich noch keins gefunden, was Opus ansatzweise das Wasser reichen kann und was einigermaßen schnell auf bezahlbarer Hardware läuft. Ihr vielleicht? Gerne in die Kommentare schreiben. Interessiert mich wirklich. Tschüss.

c’t 3003 ist der YouTube-Channel von c’t. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.


(jkj)



Source link

Weiterlesen

Künstliche Intelligenz

Artemis 2: Crew nach Flug um den Mond zurück auf der Erde


Die ersten Menschen, die seit mehr als 50 Jahren in der Nähe des Mondes waren, sind nach rund zehn Tagen im All zurück auf der Erde. Die vier Artemis-2-Astronauten an Bord der Orion-Kapsel landeten plangemäß im Pazifik, teilte die US-Raumfahrtbehörde NASA mit. Spezialkräfte der NASA und des US-Verteidigungsministeriums sollten den Astronauten aus der Kapsel helfen und sie dann zu einem speziellen Schiff bringen. Später sollten sie zurück nach Houston gebracht werden.

Weiterlesen nach der Anzeige

„Integrity – com check“ war der erste Funkspruch, nachdem die sechsminütige Blackout-Phase während des Wiedereintritts der Kapsel in die Erdatmosphäre beendet war. Die vier Astronauten konnten aus bisher unbekannten Gründen die Nachricht nicht beantworten. Auch das an Bord von Orion befindliche Satelliten-Telefon funktionierte nach der Wasserung nicht. Dennoch bezeichnete die NASA noch vor der Bergung der Kapsel die Wasserung als „voll ins Schwarze“. Den Telemetrie-Daten zufolge geht es der Besatzung gut, wie die NASA im Livestream der Landung sagte.



Die Klappe der Orion-Kapsel wird geöffnet.

(Bild: NASA / Screenshot: heise medien)

Die vier Astronauten – der Kanadier Jeremy Hansen sowie die US-Amerikaner Christina Koch, Victor Glover und Reid Wiseman – waren die ersten Menschen seit mehr als 50 Jahren in der Nähe des Mondes. Sie waren in der vergangenen Woche an Bord der Orion-Kapsel mit dem Raketensystem „Space Launch System“ vom Weltraumbahnhof Cape Canaveral im US-Bundesstaat Florida abgehoben. Für Glover, Koch und Wiseman war es der zweite Flug ins All, für Hansen der erste. Koch wurde zur ersten Frau an Bord einer Mondmission der NASA, Glover zum ersten nicht-weißen Menschen und Hansen zum ersten Kanadier.

Der Flugverlauf von Artemis 2 glich insgesamt einer Acht um Erde und Mond. Die vier Astronauten legten insgesamt mehr als 2,3 Millionen Kilometer zurück. Sie flogen um den Mond herum und entfernten sich weiter von der Erde als jemals Menschen zuvor. Mit ihrer Orion-Kapsel knackten sie den 1970 aufgestellten Rekord der Apollo-13-Mission von rund 400.171 Kilometern. Am weitesten Punkt waren sie im weiteren Verlauf rund 406.771 Kilometer von der Erde entfernt. Dem Mond näherten sie sich auf rund 6545 Kilometer.

Eine Landung war bei dieser Mission nicht geplant. Bei ihrem Flug um den Mond herum beobachteten die Astronauten den Himmelskörper rund sieben Stunden lang ganz besonders intensiv. Insbesondere auf der Rückseite des Mondes konnten sie dabei auch aufgrund der Sonnenverhältnisse Dinge sehen, die nie ein Mensch zuvor mit den eigenen Augen gesehen hat. Für rund 40 Minuten war es währenddessen für die Astronauten, wie vorab erwartet, nicht möglich, mit dem Kontrollzentrum auf der Erde zu kommunizieren.

Weiterlesen nach der Anzeige

Gegen Ende des Vorbeiflugs am Mond konnten die Astronauten – mit speziellen Brillen – sogar noch eine Sonnenfinsternis beobachten, bei der die Sonne aus der Perspektive von Orion hinter dem Mond verschwand.

Der erste Mensch auf dem Mond war am 20. Juli 1969 Neil Armstrong. Als bislang letzter Mensch verließ im Dezember 1972 der 2017 gestorbene NASA-Astronaut Eugene Cernan mit der Apollo-17-Mission den Erdtrabanten. Insgesamt brachten die USA als bislang einziges Land mit den Apollo-Missionen zwischen 1969 und 1972 zwölf Astronauten auf den Mond.

Eine erneute Landung auf dem Mond ist frühestens für das Jahr 2028 geplant, 2027 soll zunächst Artemis 3 als nächster Start erfolgen.


(nie)



Source link

Weiterlesen

Künstliche Intelligenz

Millionen Fotos aus Dating-App weitergegeben: Match Group unter Beobachtung


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Match Group soll umfangreiche Nutzerdaten ihrer Dating-App OkCupid, darunter fast drei Millionen Fotos, an das Biometrie-Unternehmen Clarifai weitergegeben haben. Laut der US-Handelsaufsichtsbehörde FTC sollen die Fotos bereits 2014 zusammen mit Standortdaten und weiteren personenbezogenen Angaben an das damals junge Startup gegangen sein. Dort seien sie dazu genutzt worden, Bilderkennungssoftware zu trainieren. Die Betreiber sollen den Datentransfer zudem fast zwölf Jahre lang verschleiert und gegenüber der Öffentlichkeit sowie besorgten Nutzern bewusst geleugnet haben.

Weiterlesen nach der Anzeige

Mögliche Konsequenzen für die Betroffenen wären, dass ihre biometrischen Daten dauerhaft in den Gesichtserkennungssystemen verbleiben und sie in anderen Kontexten identifizierbar werden. Zudem wären Rückschlüsse auf weitere intime Details möglich, besonders wenn die Informationen mit weiteren Datenquellen in Verbindung gebracht oder an andere Firmen weiterverkauft werden.

Die Mehrheit der OkCupid-Nutzer stammt aus den Vereinigten Staaten. Aus welchen weiteren Ländern Nutzer betroffen sein könnten, geht aus den Dokumenten der FTC nicht hervor. Die Match Group, nach eigenen Angaben Weltmarktführer im Online-Dating, ist in Deutschland vor allem mit Apps wie Tinder oder Hinge tätig.

Nach einer Klage der FTC hat sich die Aufsichtsbehörde nun mit den Betreiberunternehmen Match Group und Humor Rainbow auf einen Vergleich geeinigt. Die Vorwürfe der rechtswidrigen Datenweitergabe räumen die Betreiber nicht ein, verpflichten sich aber zu strengeren Datenschutzvorschriften, wofür auf eine Geldstrafe verzichtet werden soll.

Clarifai, an dem die OkCupid-Gründer persönlich als Investoren beteiligt waren, soll um die Daten gebeten und sie ohne Gegenleistung und Einschränkungen zur Nutzung erhalten haben. Die betroffenen Nutzer der Dating-App sollen damals weder von der Match Group informiert worden sein noch die Möglichkeit erhalten haben, der Weitergabe zu widersprechen.

Weiterlesen nach der Anzeige

Die Einigung vom 30. März (Az. 3:26-cv-00996-K, FTC-Fallseite), die noch von einem Richter unterzeichnet werden muss, verzichtet auf finanzielle Strafen oder sonstige schweren Konsequenzen für die Verantwortlichen. Die Match Group wird unter anderem verpflichtet, ihre Führungskräfte zu schulen und regelmäßig über Datenschutzmaßnahmen zu berichten. Die FTC darf zudem die nächsten 20 Jahre Mitarbeiter befragen, Dokumente anfordern und verdeckte Ermittlungen führen.

Die Match Group verzichtet im Gegenzug auf Rechtsmittel und nimmt die Auflagen an, ohne die Vorwürfe formal einzugestehen. Ein OkCupid-Sprecher erklärte lediglich, die von der FTC bemängelten Zustände aus dem Jahr 2014 entsprächen nicht mehr den heutigen Datenschutzstandards des Unternehmens. Damals sprach das Unternehmen noch offen davon, mit Nutzerdaten zu „experimentieren“.

Es ist nicht das erste Mal, dass die FTC gegen die Match Group tätig wird. Das Unternehmen steht zudem in der Kritik, da es grob fahrlässig mit Nutzern umgegangen sei, bei denen es von gemeldeten Übergriffen gewusst haben soll.

Die Match Group ist aber nicht der einzige Anbieter mit solchen Datenschutzvorfällen. Insbesondere in Bezug auf externe Datenabgriffe sind auch andere Dating-Apps oftmals unzureichend geschützt. So legten etwa Sicherheitsforscher aus Belgien und Dänemark in der Vergangenheit bereits Schwachstellen offen.

Bei anderen Dating-Apps wie Grindr kam es in der Vergangenheit ebenfalls zu Datenabflüssen. Auch europäische Datenschutzbehörden haben dabei schon rechtliche Schritte ergriffen.


(hag)



Source link

Weiterlesen

Beliebt