Connect with us

Künstliche Intelligenz

Smart Home: openHAB 5.1 bringt HomeKit-Integration und modernisiertes Main UI


Die openHAB Community hat Version 5.1 der Smart-Home-Plattform veröffentlicht. Neben der Modernisierung der Benutzeroberfläche Main UI lag der Fokus auf einem neuen HomeKit Binding für die Integration von Apple-Ökosystem-Geräten sowie umfangreichen Updates für JavaScript und Python Scripting. Insgesamt haben 124 Mitwirkende 1.967 Commits zu den GitHub-Repositories beigetragen.

Weiterlesen nach der Anzeige

Mit dem neuen HomeKit Binding können Nutzer erstmals Geräte integrieren, die bisher ausschließlich über die Apple Home App steuerbar waren. Das Binding ermöglicht laut der Ankündigung zu openHAB 5.1 ein direktes Pairing mit HomeKit-Zubehör, wobei die Steuerung vollständig lokal im Netzwerk erfolgt – ohne Cloud-Abhängigkeiten.

Zu den unterstützten Geräten zählen nach Angaben der Entwickler unter anderem Dachfenster und Jalousien von Velux sowie Thermostate und Regler von Eve Home und Tado. Da HomeKit ein etabliertes Ökosystem sei, wachse die Liste kompatibler Hardware automatisch weiter, ohne dass für jeden Hersteller ein eigenes openHAB Binding entwickelt werden müsse.

Das neue Binding ergänzt die bereits bestehende HomeKit-Integration, die openHAB-Items nach HomeKit exportiert. Somit lassen sich nun beide Richtungen abdecken: openHAB kann HomeKit-Geräte importieren und gleichzeitig eigene Geräte für Apple Home bereitstellen.

Die Benutzeroberfläche Main UI hat eine grundlegende technische Überarbeitung erfahren. In deren Zuge hat das openHAB-Team auf Vue 3 und Framework7 v7 aktualisiert, Vuex durch Pinia ersetzt und TypeScript in der Codebase eingeführt. Die Updates und das anschließende Refectoring sollen zu spürbaren Performance-Verbesserungen beitragen – insbesondere auf älteren und leistungsschwächeren Geräten.

Weiterlesen nach der Anzeige

Die Code-Tabs für Things und Items zeigen nun dateikompatible Syntax an: YAML entspricht dem offiziellen dateibasierten Format, und eine neue DSL-Ansicht zeigt die äquivalente textuelle Darstellung. Nutzer können zwischen beiden Formaten wechseln.

Die Developer Sidebar unterstützt jetzt eine erweiterte Suchsyntax mit logischen OR- und AND-Verknüpfungen sowie exakte Phrasensuche. Neu sind außerdem Saved Pins, mit denen angeheftete Objekte im Browser persistent bleiben und so das Arbeiten an mehreren Projekten erleichtern sollen. Für Things, Items und Rules gibt es zusätzliche Filteroptionen nach Editierbarkeit, Status beziehungsweise Typ.

Eine weitere Neuerung betrifft die Nachverfolgbarkeit von Ereignissen im System. Mit dem sogenannten Event Source Tracking können Nutzer laut openHAB nun nachvollziehen, woher ein bestimmter Befehl stammt. Das System markiert Item-Befehle und -Updates mit Quellinformationen, die auch im Event-Logging erscheinen.

Praktisch bedeutet das: Regeln können unterscheiden, ob ein Befehl von Amazon Echo, der Android-App oder einer anderen Regel gesendet wurde. Als fortgeschrittenen Anwendungsfall nennen die Entwickler die Vermeidung von Befehlsschleifen zwischen zwei Regeln, indem eine Regel prüft, ob das Ereignis von einer anderen Regel stammt, und den Befehl gegebenenfalls ignoriert. Mehr Details sowie Beispiele zum Event Source Tracking finden sich in der Developer-Dokumentation.

Für macOS-Nutzer führt openHAB 5.1 einen offiziellen Homebrew Tap ein. Bisher mussten Anwender die Distribution manuell herunterladen und entpacken. Mit dem neuen Tap lässt sich openHAB über den Paketmanager Homebrew installieren, aktualisieren und als Hintergrunddienst über launchd betreiben.

Ein wesentlicher Vorteil ist die Verfügbarkeit des openHAB CLI-Tools, das bisher nur für Debian- und RPM-Pakete existierte. Über die Kommandozeile können macOS-Nutzer nun auf die openHAB-Konsole (Karaf) zugreifen, Backups erstellen und wiederherstellen sowie den Cache verwalten. Der Tap bietet Pakete sowohl für stabile als auch für Milestone-Releases.

Lesen Sie auch

Das 5.1-Release bringt zehn neue Add-ons mit, darunter Integrationen für UniFi Protect-Kameras mit WebRTC-Audio und -Video, Roborock-Saugerroboter, Viessmann-Wärmepumpen sowie Midea-Klimaanlagen.

GraalVM wurde aktualisiert für den Support von Python 3.12. Zudem steht sie nun für das JavaScript Scripting, den Home Assistant sowie das Python Scripting zur Verfügung. Das Add-on für Python Scripting unterstützt laut openHAB nun virtuelle Umgebungen (VEnv) sowie native Module, JavaScript Scripting erhält ein verbessertes Event-Objekt und einen neuen Wrapper für komplexere Skripte mit den Schlüsselwörtern let, const, function, class und return.

Die iOS-App liegt in Version 3.1 vor und unterstützt erstmals mehrere Homes sowie einen Bildschirmschoner für wandmontierte Geräte. Eine wichtige Änderung betrifft die Persistence-Konfiguration: Standardmäßig werden Items nicht mehr automatisch persistiert, sondern erfordern eine explizite Konfiguration. Ein Upgrade-Tool soll bestehende Installationen entsprechend anpassen.

Ein vollständiger Überblick aller Änderungen und Neuerungen im Release 5.1 lassen sich dem openHAB-Blog entnehmen.


(map)



Source link

Künstliche Intelligenz

KI-Wettrüsten: Techriesen investieren dieses Jahr 650 Milliarden US-Dollar


Das Wettrüsten um KI-Vorherrschaft nimmt epochale Ausmaße an: Alphabet, Amazon, Meta und Microsoft planen für dieses Jahr Ausgaben von insgesamt 650 Milliarden US-Dollar in die KI-Infrastruktur. Diese Investitionsausgaben vermerken die Konzerne als Capital Expenditures (Capex) aufsummiert in ihren Jahresgeschäftsberichten.

Weiterlesen nach der Anzeige

Das Niveau der Kapitaloffensive ist so hoch, dass Bloomberg Parallelen zu historischen Ereignissen wie dem Ausbau des US-Eisenbahnnetzes im 19. Jahrhundert oder den Hilfsprogrammen der New-Deal-Ära zieht. Das Wirtschaftsmagazin prognostiziert, dass die Konzerne in diesem Jahr allein so viel in KI investieren könnten wie in den letzten drei Jahren insgesamt – oder sogar noch mehr.

Auf Microsoft und Meta entfallen rund 105 Milliarden beziehungsweise 135 Milliarden US-Dollar, während Googles Muttergesellschaft Alphabet Investitionen in Höhe von bis zu 185 Milliarden US-Dollar plant. Rekordhalter ist Amazon mit angekündigten 200 Milliarden US-Dollar an prognostizierten Ausgaben. Bei den Zahlen handelt es sich um die jeweiligen Maximalangaben.

Angesichts der Investitionsspirale und der Sorge vor einer KI-Blase sind die Kurse der Techriesen eingesackt. Zusammengenommen ist ihr Börsenwert nach den Ankündigungen laut Bloomberg um 640 Milliarden US-Dollar gefallen. Eine Summe, die fast exakt den geplanten Aufwendungen entspricht.

Der Großteil dieser Mittel fließt in Rechenzentren, die KI-Dienste der nächsten Generation antreiben sollen. Hinter der Kapitaloffensive steht die Hoffnung, dass große Sprachmodelle künftig eine zentrale Rolle im Alltag und Berufsleben einnehmen werden. Die Nervosität an der Börse offenbart jedoch erhebliche Zweifel: Viele Beobachter sind skeptisch, ob und in welchem Zeitraum die immensen Investitionen der Konzerne rentable Realität werden.

Die gewaltigen Infrastrukturprojekte wirken sich derweil negativ auf andere Branchen aus: Da die Tech-Giganten essenzielle Hardware-Komponenten für ihre Rechenzentren aufkaufen oder lieber KI-Beschleuniger statt Grafikkarten produzieren, führt diese Entwicklung zu Engpässen, die sich in höheren Speicherpreisen und Produktverschiebungen von Unterhaltungselektronik niederschlagen.

Weiterlesen nach der Anzeige


(tobe)



Source link

Weiterlesen

Künstliche Intelligenz

Olympische Winterspiele in Cloud: Alibaba macht Milano Cortina zum KI-Testlabor


Wenn am Freitagabend die Olympischen Winterspiele in Milano Cortina offiziell eröffnet werden, findet der wichtigste Wettbewerb für die IT-Branche hinter den Kulissen statt. Es geht um die Deutungshoheit über das, was wir sehen – und wie es verarbeitet wird. Alibaba Cloud, seit 2017 fester Partner des Internationalen Olympischen Komitees (IOC), hat seine Präsenz dieses Jahr massiv ausgebaut. Ging es früher primär um Hosting und die Ablösung teurer Satellitenstrecken, rückt 2026 die generative KI ins Zentrum. Erstmals sollen große Sprachmodelle (LLM) den gesamten Workflow von der Produktion bis zum Archiv dominieren.

Weiterlesen nach der Anzeige

Das Herzstück dieser Entwicklung ist Alibabas KI-Modellfamilie Qwen. Die Technik soll das leisten, was menschliche Redaktionen bei der Flut an Videomaterial kaum noch bewältigen können: das Erstellen von Metadaten in Echtzeit. Das System „Automatic Media Description“ (AMD) scannt die Feeds, erkennt Athleten sowie Schlüsselmomente und schreibt die passenden Beschreibungen nahezu simultan mit.

Was für Rundfunkanstalten nach einer enormen Effizienzsteigerung klingt, markiert gleichzeitig den Abschied von der rein menschlichen Einordnung des sportlichen Geschehens. Wenn Algorithmen darüber entscheiden, welche Szenen als „Highlight“ markiert werden, delegiert das IOC die redaktionelle Vorauswahl an die Software eines chinesischen Tech-Giganten.

Dass bei den Spielen in Italien ausgerechnet Qwen den Ton angibt und nicht etwa OpenAI mit GPT-4 oder Google mit Gemini, ist kein technischer Zufall, sondern das Ergebnis knallharter Sportpolitik. Alibaba sicherte sich bereits 2017 im Rahmen des Olympischen-Partner-Programms einen Platz im exklusiven Sponsoren-Olymp. Der Exklusivvertrag läuft bis 2028 und hat ein geschätztes Volumen von über 800 Millionen US-Dollar.

Das IOC bindet sich durch diese langfristigen Verträge an den Fahrplan seiner Partner. Das hat Folgen: Alibaba liefert nicht nur die Rechenpower. Der Konzern diktiert durch die Integration in die offiziellen Plattformen auch, welche KI-Standards für Rundfunksender weltweit gelten. Ein Wechsel zu potenziell leistungsfähigeren Modellen ist innerhalb der Vertragslaufzeit rechtlich und wirtschaftlich kaum darstellbar.

Weiterlesen nach der Anzeige

Auch für die Zuschauer am Bildschirm wird die KI sichtbarer. In 17 Sportarten, darunter Eishockey und Eiskunstlauf, kommen weiterentwickelte „360-Grad-Replay-Systeme“ zum Einsatz. Deren Ziel ist eine möglichst vollständige räumliche Rekonstruktion: Innerhalb von weniger als 20 Sekunden berechnet die KI aus verschiedenen Kameraperspektiven ein 3D-Modell der Szene. Neu sind die sogenannten „Spacetime Slices“, die Bewegungsabläufe stroboskopartig in einem Bild einfrieren. Technisch ist das beeindruckend, da die Algorithmen die Athleten präzise von komplexen Hintergründen wie wirbelndem Schnee oder spiegelndem Eis trennen müssen.

Mit dieser Initiative versucht das IOC, den Sport in eine Ästhetik zu überführen, die sonst eher aus High-End-Animationen bekannt ist. Doch diese Perfektion hat ihren Preis: Die Grenze zwischen realem Videomaterial und einer KI-generierten Rekonstruktion wird durchlässiger. In einer Zeit, in der Deepfakes und KI-Manipulationen zunehmen, ist das Vertrauen in das „echte“ Bild ein hohes Gut, das hier zugunsten des Show-Effekts aufs Spiel gesetzt wird.

Die Cloud-Abhängigkeit von heute ist die Endstufe einer Entwicklung, die vor Jahrzehnten begann. In der Ära von IBM – einem IOC-Partner von 1960 bis 2000 – ging es primär um die reine Datenverarbeitung. Ergebnisse wurden damals mühsam auf Großrechnern erfasst. Legendär blieb das Desaster von Atlanta 1996, als das Info-System von IBM unter der Last zusammenbrach und Journalisten falsche Ergebnisse lieferte. Danach übernahm Atos das Ruder und fokussierte sich über Jahrzehnte auf die Systemintegration und Cybersicherheit, wobei die Rechenzentren physisch vor Ort oder in regionalen Hubs betrieben wurden.

Der radikale Bruch erfolgte mit Tokio 2020 und Peking 2022. Alibaba verlagerte die Kernsysteme erstmals vollständig in die Cloud. War IT früher eine unterstützende Infrastruktur, ist sie heute das zentrale Nervensystem. Diese Zentralisierung spart zwar Kosten, macht das Weltereignis aber auch anfälliger für geopolitische Spannungen und technologische Fehler.

Die Ambitionen reichen weit über das Live-Bild hinaus. Das IOC lässt Alibaba auch an sein „Gedächtnis“. Im Olympischen Museum in Lausanne und in den internen Archiven wird Qwen als digitaler Bibliothekar eingesetzt. Über acht Petabyte an historischem Material sollen durch KI-Tagging und natürliche Sprachabfragen durchsuchbar gemacht werden. Was oberflächlich wie ein praktisches Tool für Historiker wirkt, bedeutet faktisch die vollständige algorithmische Erschließung der olympischen Geschichte.

Das System „Sports AI“ automatisiert zudem die Kategorisierung von Jahrzehnten an Videomaterial. Das wirft Fragen auf: Wenn eine KI entscheidet, welche emotionalen Reaktionen „relevant“ sind, entsteht ein gefilterter Blick auf die Vergangenheit. So könnte eine technologische Glättung stattfinden, bei der nur noch das für die Cloud optimierte, leicht konsumierbare Bildmaterial an die Oberfläche gespült wird.

Die wirtschaftliche Logik dahinter ist simpel: Das IOC will die Kosten für Rundfunkübertragungen senken. Die „Live Cloud“ ist mittlerweile der Standard für die Distribution. 39 Broadcaster greifen 2026 auf über 400 Feeds zu, ohne dass teure Satellitenkapazitäten gebucht werden müssen. Das senkt die Eintrittshürden für kleinere Sender, erhöht aber die Abhängigkeit von einer einzigen Infrastruktur. Sollte Alibabas Cloud-Infrastruktur haken, könnten die Bildschirme bei Dutzenden Rechteinhabern gleichzeitig schwarz bleiben.


(mki)



Source link

Weiterlesen

Künstliche Intelligenz

Studie: Designer-Wissen macht KI-generierte UIs deutlich besser


Wer schon mal eine KI gebeten hat, ihm ein User-Interface für eine App vorzuschlagen, dürfte vielfach die Hände über dem Kopf zusammengeschlagen haben. Obwohl es gewiss nicht an Trainingsmaterial mangelt, beweisen Large Language Models kein gutes Händchen dafür, daraus etwas Ästhetisches und zugleich gut Nutzbares zu generieren. Speist man aber das Feedback professioneller Designer ein, sieht der Fall schon ganz anders aus. Dies hat Apple in einer Studie untersucht und die Ergebnisse in seinem Machine-Learning-Blog veröffentlicht.

Weiterlesen nach der Anzeige

Das Problem mit den User-Interfaces ist demnach, dass das klassische Anlernen der KI offenbar für Design-Belange völlig unzureichend ist. Bei der herkömmlichen Methode, dem verstärkenden Lernen aus menschlichen Rückmeldungen, vergibt ein Mensch Noten für die Erzeugnisse der KI. Mit dieser Methode, die während des Finetunings in der Trainingsphase eines neuen Modells angewendet wird, soll die KI gut von schlecht unterscheiden können. Doch in der Realität funktioniert das bei Designs dann trotzdem nicht so gut.

Die Apple-Forscher haben stattdessen eine komplexere Methode angewendet, die auch dem Feedback-Prozess in Designabteilungen entspricht. Mithilfe von 21 professionellen Designern wurden Designs mit Kommentaren und mit Strichzeichnungen versehen oder direkt verändert. Dieses Trainingsmaterial – insgesamt 1500 Anmerkungen – hat das Team in die Trainingsdaten eingespeist. Auf diese Weise wusste die KI nicht nur, ob etwas gut oder schlecht ist, sondern auch, warum. Mit sichtbarem Erfolg, wie die Apple-Forscher in dem Papier darlegen: Die Ergebnisse der KI wurden erneut einer professionellen Bewertung unterzogen. Im Vergleich zu den KI-generierten Designs anderer Modelle, darunter auch GPT-5 von OpenAI, habe das speziell trainierte Modell am besten abgeschnitten.

Wofür Apple die gewonnenen Erkenntnisse verwenden möchte, bleibt – wie bei diesen Forschungspapieren üblich – offen. Neben reiner Grundlagenforschung wäre aber zum Beispiel denkbar, dass Apple sein Designteam künftig mit KI-Hilfe unterstützen möchte. Auch im Bereich der Werkzeuge für Entwickler wäre ein KI-Modell, das unerfahrene Developer beim Erstellen geeigneter User-Interfaces für ihre Apps unterstützt, eine große Hilfe.

Bei der Studie kam Qwen2.5-Coder als Basis-Modell zum Einsatz. Die 21 professionellen Designer verfügten über zwei bis 30 Jahre Berufserfahrung und kamen aus den Bereichen UI/UX, Produktdesign und Servicedesign.

Weiterlesen nach der Anzeige


(mki)



Source link

Weiterlesen

Beliebt