Connect with us

Künstliche Intelligenz

Lokale KIs mit OpenClaw nutzen: Agenten und Bildgenerierung auf eigener Hardware


In Kombination mit modernen Cloud-KIs von Anthropic, Google, OpenAI und Co. ist OpenClaw ein vielseitiges Werkzeug mit mächtigen Agenten-Funktionen. So können Nutzer ihrer KI verschiedene Jobs anvertrauen und sie etwa E-Mails senden, Buchungen vornehmen oder Skripte schreiben und ausführen lassen. Doch was ist mit lokalen KIs: Lassen sie sich sinnvoll in das OpenClaw-Framework integrieren?

Wir haben genau das ausprobiert und OpenClaw mit den lokalen Anwendungen Ollama (für agentische Sprachmodelle) und ComfyUI (zur Bildgenerierung) verbunden. Im Bereich typischer Endanwender-LLMs kommen einige infrage, die grundlegende agentische Funktionen wie Lesen und Schreiben von Dateien sowie Ausführen von Skripten über OpenClaw beherrschen und keine Monstergrafikkarten benötigen. Eines der Modelle passt in den Grafikspeicher von 16-GByte-Grafikkarten, etwa einer GeForce RTX 5060 Ti.

  • OpenClaw kann nicht nur mit großen Cloud-KIs arbeiten, auch lokale LLMs lassen sich in das Agenten-Framework einbinden, wo sie Funktionen übernehmen können, die über reine Chats hinausgehen.
  • Für den Artikel testen wir OpenClaw im Zusammenspiel mit Ollama. Das gewählte LLM passt in den Videospeicher einer 16-GByte-Grafikkarte. Es kann uns etwa Skripte schreiben und wiederkehrende Aufgaben in Form von Cronjobs abarbeiten, die wir zuvor mit einer Cloud-KI erstellt haben. So nimmt die lokale KI der großen aus der Cloud Arbeit ab und senkt den Verbrauch kostenpflichtiger Token.
  • Auch die lokale Bildgenerierung über ComfyUI haben wir an OpenClaw angeschlossen. So kann man etwa im mobilen Messenger einen Prompt eingeben, den die KI nutzt, um ein Bild in ComfyUI zu erstellen und anschließend via Messenger an den Nutzer zu senden.

Der Artikel erläutert, wie man Ollama-LLMs für agentische Funktionen über OpenClaw unter der Linux-Distribution Ubuntu einsetzen kann. Ein Praxisbeispiel erklärt, wie die lokale KI etwa in Cronjobs kleinere wiederkehrende Aufgaben erledigt. So nimmt sie den teuren Cloud-Modellen Arbeit ab und senkt den kostenpflichtigen Token-Verbrauch. Zudem verknüpfen wir ComfyUI zur lokalen Bildgenerierung mit OpenClaw. Auf einen Befehl, etwa über einen mobilen Messenger, gibt dann eine nichtlokale KI Befehle an die . So können Nutzer etwa komplexere Bildgenerierungs-Workflows in OpenClaw nutzen, die einfache Bildgeneratoren nicht bieten. Der Artikel setzt voraus, dass eine grundlegende Einrichtung von OpenClaw bereits stattgefunden hat. Eine kurze Einführung zur Installation und Konfiguration von OpenClaw finden Sie hier.


Das war die Leseprobe unseres heise-Plus-Artikels „Lokale KIs mit OpenClaw nutzen: Agenten und Bildgenerierung auf eigener Hardware“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Künstliche Intelligenz

Spotify-Nutzer können Videos komplett abschalten


Spotify-Videos werden optional: In den Einstellungen können Nutzer bald alle Formen der Videos gezielt abschalten, verspricht Spotify. Bislang war es lediglich möglich, die sogenannten „Canvas“-Videos abzuschalten. Mit den neuen Einstellungen kann man auch das Videomaterial bei Podcasts und Spotify-Musikvideos deaktivieren. Wer will, bekommt dann in Spotify gar keine Videoinhalte mehr zu sehen – mit Ausnahme einiger Werbung.

Weiterlesen nach der Anzeige

Die neuen Videoeinstellungen sollen in der Desktop-App und auf dem Handy zur Verfügung stehen und sich geräteübergreifend aktivieren, schreibt Spotify in der Ankündigung. Auf einem deutschen Testaccount standen sie allerdings noch nicht bereit – Spotify verspricht, dass das Update noch in diesem Monat verteilt wird. Alle neuen Einstellungen sollen sowohl zahlenden Abonnenten als auch Free-Nutzern offenstehen.

Für Spotify sind die erweiterten Einstellungen zu Bewegtbildinhalten auch ein zusätzliches Tool für Eltern: In Familienkonten können Kontoinhaber die Einstellungen nämlich auch für Mitnutzer setzen. So können Eltern kontrollieren, ob ihre Kinder neben der Musik auch Videos anschauen dürfen. Die Einstellungen finden sich in den Display-Optionen der App – sobald sie denn wirklich da sind.

Für Windows-Nutzer hat Spotify kürzlich eine Option zur exklusiven Musikwiedergabe eingeführt: Sie verhindert, dass sich Windows in die Audiowiedergabe des Musik-Streamingdiensts einmischt. Ist der „Exclusive Mode“ aktiviert, läuft die Wiedergabe ausschließlich über das Audio-Interface. Das kann laut Spotify zu präziserer Tonqualität führen. Üblicherweise schaltet sich Windows in die Wiedergabe aller Audioquellen ein: Sounds können neu abgemischt oder anderweitig angepasst werden, bevor sie zum Digital-Analog-Wandler oder Audio-Interface kommen. Im exklusiven Modus umgeht Spotify den Windows-Audiomixer und gibt das Signal direkt an das Audiogerät weiter.


(dahe)



Source link

Weiterlesen

Künstliche Intelligenz

Bugfix-Update für Tahoe bringt macOS auf Stand 26.4.1


Nach iOS 26.4.1 und iPadOS 26.4.1 geht es mit dem Mac weiter: Apple hat am Donnerstagabend nun auch macOS 26.4.1 veröffentlicht. Auch bei diesem Update handelt es sich um eine reine Bugfix-Aktualisierung, wobei sich die Verbesserungen in Grenzen halten. Sicherheitsrelevante Fehlerbehebungen sind wie schon bei iOS 26.4.1 und iPadOS 26.4.1 nicht mit an Bord. Es gebe keine veröffentlichten CVEs, so Apple knapp. Aktualisierungen für ältere macOS-Versionen gibt es nicht.

Weiterlesen nach der Anzeige

Im Beipackzettel von macOS 26.4.1 schreibt Apple nur, dass die Aktualisierung Bugfixes enthält. Ein Blick in die macOS-Infos für Enterprise-Kunden zeigt aber, dass es mindestens eine Neuerung gibt: „Es wurde ein Problem behoben, bei dem sich das MacBook Air mit M5 und das MacBook Pro mit M5 Pro oder M5 Max bei Verwendung von Erweiterungen für Inhaltsfilter nicht mit 802.1X-WLAN-Netzwerken verbinden konnten.” Solche Content-Filter werden zumeist nur in Unternehmen eingesetzt und arbeiten auf Systemebene. Wie es zu dem Fehler kam, teilte Apple nicht mit.

Schwerwiegende Probleme im Zusammenhang mit iCloud, bei denen sich iPhones und iPads ab iOS 26.4 und iPad 26.4 nicht mehr korrekt mit Apples Servern synchronisierten, was sowohl Drittanbieter-Apps als auch Apple-Programme betraf, traten unter macOS 26.4 nicht auf. Hier musste Apple also nicht ran. iOS 26.4.1 und iPadOS 26.4.1 hatten außerdem den sogenannten Stolen Device Mode auch für Unternehmenskunden mit MDM-Verwaltung automatisch aktiviert, der die Geräte vor Dieben besser schützen soll, die die Geräte-PIN besitzen. Für Privatkunden hatte Apple den Schutz schon mit iOS 26.4 und iPadOS 26.4 defaultmäßig erzwungen.

Die drei kleinen Updates kommen zu einer Zeit, in der Apple bereits an macOS 26.5, iPadOS 26.5 und iOS 26.5 arbeitet. Sowohl Entwickler- als auch Public-Betas sind bereits verfügbar. Auch hier geht es vor allem um technische Aufräumarbeiten.

Die lange erwartete kontextsensitive Siri, von Apple im Sommer vor zwei Jahren angekündigt, machte bislang keine Anstalten, in der Vorabversion zu erscheinen. Beobachter glauben nun, dass Apple seine verbesserte KI-Assistenz nicht vor iOS 27 & Co. im Herbst herausbringt.

Weiterlesen nach der Anzeige


(bsc)



Source link

Weiterlesen

Künstliche Intelligenz

Happy Horse: Alibabas geheimes KI-Videomodell stürmt die Benchmarks


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Im Wettlauf um die beste Video-KI macht ein neuer Name von sich reden: Happy Horse ist aus dem Stand an die Spitze verschiedener Benchmarks gesprungen. Dabei hat es auch Seedance 2.0 überholt, das Modell von TikTok-Herausgeber ByteDance. In einem Medienbericht wird jetzt behauptet, wer tatsächlich dahintersteckt: der chinesische Internetkonzern Alibaba.

Weiterlesen nach der Anzeige

Auf der Internetseite von Happy Horse, auf der Interessierte das Modell ausprobieren können, gibt es keinen Aufschluss darüber, von wem das Open-Source-KI-Modell ausgeht. Mit Happy Horse 1.0 können Videos mit 1080p-Auflösung und synchronem Audio erzeugt werden. Es gilt als eines der ersten Open-Weight-Modelle, das nativ Dialog, Umgebungsgeräusche und Effekte in einem Video generiert. Wie sich andere KI-Videogeneratoren mit und ohne Tonspur schlagen, zeigt ein aktueller Vergleich. Happy Horse vermeidet dabei den bei anderen Modellen mehrstufigen Prozess, in dem erst das stille Video, dann die Vertonung und anschließend die Lippensynchronisation erzeugt wird. Neben Englisch, Mandarin, Kantonesisch, Japanisch und Koreanisch werden auch Deutsch und Französisch als Sprachen unterstützt.

Das US-Technikmagazin The Information will jetzt die Alibaba Group als Urheber ermittelt haben und stützt sich dabei auf namentlich nicht genannte Quellen. Die Cloud-Computing-Abteilung des Internetkonzerns bereite aktuell die Veröffentlichung für Unternehmenskunden vor, heißt es in dem Bericht weiter.

Die Veröffentlichung als Happy Horse folge einem in KI-Kreisen inzwischen üblichen Muster der Bekanntmachung. Modelle werden dabei zunächst als „Mystery Model“ mit unbekannter Herkunft veröffentlicht. Erst kürzlich nutzte auch der Hersteller Xiaomi dieses Vorgehen, als dessen KI-Modell MiMo-V2 unter dem Pseudonym Hunter Alpha für Aufsehen sorgte. Im besten Falle erzeugen sie wegen ihrer Leistungsfähigkeit große Aufmerksamkeit, wie es auch bei Happy Horse der Fall ist. Ab einem bestimmten Zeitpunkt wird dann offenbart, wer wirklich dahintersteckt. Gerade chinesische KI-Modelle erhoffen sich davon offenbar einen größeren PR-Effekt, als wenn sie die Modelle selbst zunächst vorstellen.

Nachdem OpenAI vor kurzem bekanntgegeben hat, dass es seine Video-KI Sora völlig überraschend einstellt, preschen die chinesischen Anbieter mit ihren Modellen immer weiter vor. Der KI-Videogenerator Seedance 2.0 von ByteDance, der im Februar veröffentlicht wurde, galt bereits als herausragend, weil er hyperrealistische Videos generiert, die allerdings auch rasch Hollywood-Studios wegen mutmaßlicher Urheberrechtsverstöße auf den Plan riefen.

Weiterlesen nach der Anzeige

Inzwischen hat ByteDance seinem Modell Seedance 2.0 Grenzen gesetzt, um geschützte Charaktere zu blockieren. Das, was von Happy Horse bislang zu sehen war, ist ähnlich, wenn nicht sogar noch bemerkenswerter. Verglichen mit den Ergebnissen der ersten Sora-Version von Februar 2024, die damals viel Aufmerksamkeit erregte, sind die Erzeugnisse für den Laien vielfach nicht mehr als KI-Videos zu identifizieren – ein Problem, das Nutzer von sozialen Medien zunehmend im Alltag erleben.

Lesen Sie auch


(mki)



Source link

Weiterlesen

Beliebt