Connect with us

Künstliche Intelligenz

Akkus und Batterien: Ladestände von smarten Geräten in Home Assistant verwalten


Türkontakte, Funk-Fernbedienungen, Bewegungssensoren – wer sein Zuhause smart ausgestattet hat, hat vermutlich viele Geräte daheim, die mit einer Batterie oder einem Akku laufen. Und leider geht diesen Geräten irgendwann die Energie aus. Der Nutzer muss die Batterien dann ersetzen oder die Akkus wieder aufladen. Wer da den passenden Zeitpunkt verpasst, wundert sich plötzlich, warum seine smarten Geräte nicht mehr funken.

  • In Smart Homes sind viele Batteriebetriebene Geräte im Einsatz, deren Ladestand irgendwann niedrig wird.
  • Die Integration Battery Notes für Home Assistant hilft, einen besseren Überblick über den Batteriestatus von Geräten zu erhalten.
  • Durch spezielle Sensoren und Entitäten in Battery Notes können Nutzer genau erfahren, welche Batterietypen ausgetauscht werden müssen und erhalten Erinnerungen aufs Handy.

Mit der kostenlosen Smart-Home-Zentrale Home Assistant lassen sich Ladestände intelligent verwalten. Der Nutzer kann etwa Benachrichtigungen empfangen, wenn ein bestimmter Ladestand niedrig wird. Dabei erhält er nicht nur den reinen Ladestand, sondern erfährt direkt, welche Batterietypen er genau benötigt.

Grundlage ist dafür die Integration Battery Notes. Wir zeigen in diesem Artikel, wie man diese Integration einrichtet, sie für seine Geräte einstellt und die passenden Batterieinformationen je Gerät aus einer Datenbank holt. Außerdem erklären wir, wie man eine Automation erstellt, die eine Push-Nachricht aufs Handy schickt, falls einem Gerät mal der Saft ausgeht. Schließlich gehen wir noch darauf ein, wie ein Dashboard aussehen kann, das alle niedrigen Ladestände samt benötigten Batterietypen schön einheitlich anzeigt.


Das war die Leseprobe unseres heise-Plus-Artikels „Akkus und Batterien: Ladestände von smarten Geräten in Home Assistant verwalten“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Künstliche Intelligenz

c’t-Webinar: Next Level Midjourney | heise online


Die Bild- und Video-KI Midjourney erzeugt visuelle Inhalte für berufliche oder private Anwendungen. Durch präzise Eingaben und zahlreiche Stiloptionen dient Midjourney als flexibles Werkzeug für eigene Gestaltungsideen. Dank neuer Funktionen lassen sich kurze, animierte Videos erstellen, die einfache Szenen oder Abläufe visualisieren.

Weiterlesen nach der Anzeige

In diesem Webinar lernen die Teilnehmer, wie sie ihre Vorstellungen Schritt für Schritt in Midjourney umsetzen. Der Referent zeigt zentrale Funktionen, typische Fallstricke und erkennbare Grenzen des Systems. Dabei liegt der Fokus auf realen Arbeitsabläufen.

Die Inhalte des Webinars reichen vom Aufbau wirkungsvoller Prompts über die Bildbearbeitung mit dem Midjourney-Editor bis zu fortgeschrittenen Techniken wie der Verwendung von Referenzbildern für konsistente Charaktere und Stile. Auch das Zusammenspiel mit anderen Tools zur Nachbearbeitung und die Integration in Workflows kommen zur Sprache. Ein eigener Themenblock widmet sich Midjourneys Animationsfunktion.

Die Teilnehmer entwickeln ein Verständnis dafür, wie sie eigene Konzepte visuell ausarbeiten, ohne auf generisches Stockmaterial zurückzugreifen. Die Veranstaltung richtet sich an Anwender, die belastbare visuelle Assets benötigen – vom Marketingteam über Content Creator bis zu Agenturen, Trainern und Künstlern.

Referent Adrian Rohnfelder ist mehrfach ausgezeichneter Profifotograf und Midjourney-Experte. Er verbindet seine kreative Erfahrung mit neuesten KI-Tools und gibt sein Wissen als Dozent und Speaker weiter. Für die Teilnahme sind keine Vorkenntnisse nötig, erste Erfahrungen mit Midjourney sind jedoch von Vorteil.

Das Webinar bietet damit einen praxisorientierten Überblick über KI-gestützte Bild- und Videoproduktion. Teilnehmende erhalten konkrete Anleitungen, um Midjourney effizient in Projekte einzubinden.

Weiterlesen nach der Anzeige

  • Termin: 28. Januar 2026
  • Uhrzeit: 14:00 bis 17:00 Uhr
  • Preis: 59,00 / 69,00 Euro (Frühbucher / Standard)

Zur Teilnahme benötigen Sie lediglich einen aktuellen Browser. Weitere Informationen zum Webinar sowie Details zur Anmeldung finden Sie auf der Webseite der heise academy.


(abr)



Source link

Weiterlesen

Künstliche Intelligenz

Meta Hyperscape: Fotorealistische 3D-Scans jetzt mit Multiplayer-Funktion


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Mit Meta Quest 3 lassen sich seit September Räume und ganze Umgebungen scannen und zu erstaunlich realistischen digitalen Kopien verarbeiten, die man später in Virtual Reality besuchen kann. Der Scanvorgang dauert etwa 15 Minuten und setzt keinerlei technisches Vorwissen oder spezielle Ausrüstung voraus. Selbst Außenräume und Landschaften werden eindrucksvoll eingefangen, wie unser Hyperscape-Test zeigte.

Weiterlesen nach der Anzeige

Die Hyperscapes konnten bislang nur deren Ersteller besuchen. Nun rollt Meta eine Multiplayer-Funktion aus, die es Nutzern ermöglicht, andere Menschen in die eigenen Hyperscapes, etwa die der eigenen Wohnung, einzuladen.

Dazu öffnet man die Hyperscape-App, wählt ein Hyperscape aus und lädt Familie oder Freunde direkt oder per Link ein. VR-Nutzer benötigen eine Meta Quest 3 oder Meta Quest 3S und erscheinen als Meta-Avatare. Alternativ kann man das Hyperscape auch über die Smartphone-App „Meta Horizon“ besuchen, eine VR-Brille wird also nicht zwingend benötigt. Die Ersteller eines Hyperscapes können Einladungen jederzeit widerrufen.

Technisch hält das Update einige Überraschungen bereit: Die Hyperscapes werden jetzt nicht mehr in der Cloud gerendert und in die VR-Brille gestreamt, sondern lokal auf dem Quest-Gerät berechnet. Dadurch sinkt die Latenz und es wird keine schnelle Internetverbindung mehr vorausgesetzt.

Wichtig aus Gründen der Privatsphäre: Die initiale Verarbeitung der Scan-Daten zu Hyperscapes findet nach wie vor auf Metas Servern statt. Wer seine Privaträume nicht mit Meta teilen möchte, sollte sich dessen bewusst sein.

Ermöglicht wird das lokale Rendering der Hyperscapes durch Metas neue Horizon Engine. Die Hyperscapes werden damit zu privaten Destinationen von Metas Metaverse-Plattform „Horizon Worlds“. Bis zu acht Personen können sich gleichzeitig in einem Hyperscape aufhalten, und Meta arbeitet daran, diese Zahl künftig zu erhöhen.

Weiterlesen nach der Anzeige

Neben dem lokalen Rendering hat Meta zwei weitere Wünsche erfüllt, die wir in unserem Hyperscape-Test äußerten: Für noch mehr Immersion kann man sich nun per Analogstick fließend durch die Hyperscapes bewegen, statt nur per Teleportation. Außerdem wird jetzt Audio unterstützt, wobei noch unklar ist, wie die Audio-Komponente implementiert ist und ob beim Scannen eine Geräuschkulisse aufgenommen wird.

Das Update wird nach und nach an Nutzer ausgerollt und es kann eine Weile dauern, bis es alle erreicht. Hyperscapes, die man vor dem Update erstellt hat, lassen sich weiterhin besuchen, aber nicht mit anderen Nutzern teilen. Nur neu gescannte Orte bieten die Multiplayer-Funktion.

Die Möglichkeit, ganze Räume auf einfache Weise mit einer VR-Brille zu erfassen und anschließend in hoher Qualität zu rendern, ist derzeit einzigartig auf dem VR-Markt.

heise online XR-Briefing abonnieren

Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten.

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.

Meta sieht in Hyperscape-Welten eine Möglichkeit, das Metaverse attraktiver zu gestalten. Und es ist leicht zu erkennen, wie eine solche Anwendung nicht nur für die Bewahrung von Erinnerungen und für soziale Aktivitäten mit räumlich entfernten Familienmitgliedern und Freunden von Wert sein könnte, sondern auch im Tourismus, im Immobiliengeschäft, in der Bildung und in Museen Nutzen stiften kann. Dafür müsste Metas App jedoch erst zu einer Plattform werden, sodass man Hyperscapes auch öffentlich teilen kann. Über die Zeit könnte Hyperscape so zu einem YouTube für 3D-Scans realer Orte werden.

Für das Scannen und Teilen von Hyperscapes wird die Hyperscape-App aus dem Meta Horizon Store benötigt.


(tobe)



Source link

Weiterlesen

Künstliche Intelligenz

Windows 11 24H2: Nach Juli-Updates treten nervende Probleme auf


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Microsoft hat Nerv-Probleme nach der Installation der Sicherheitsupdates aus dem Juli oder neuerer in Windows 11 24H2 eingeräumt. Die treten insbesondere bei nicht-persistenten Windows-Installationen auffallend in Erscheinung.

Weiterlesen nach der Anzeige

Das erklärt Microsoft in einem Support-Artikel. „Nach dem Ausstatten eines PCs mit einem kumulativen Update aus dem Juli 2025 oder neuer für Windows 11 24H2 (KB5062553) können diverse Apps wie StartMenuExperiencehost, Search, SystemSettings, Taskbar oder Explorer Schwierigkeiten haben“, schreibt Microsoft dort. Das passiere nach dem ersten Nutzer-Log-in nach dem Anwenden des Updates – und bei allen Nutzer-Anmeldungen auf nicht persistenten Betriebssysteminstallationen wie in einer virtuellen Desktop-Infrastruktur (VDI) oder ähnlichen Umgebungen, bei denen App-Pakete bei jedem Log-in installiert werden müssen. Nicht-persistente Installationen kommen etwa in großen Organisationen vor, bei denen kein größerer Grad an Personalisierung des Windows-Desktops nötig ist und in denen sich Nutzerinnen und Nutzer an unterschiedlichen Arbeitsplätzen anmelden können.

Die Fehler treten typischerweise nach Aktualisierungen für mitgelieferte Abhängigkeitspakete auf, die XAML-Komponenten enthalten. Dann können einige Komponenten nicht starten und Fehlermeldungen auf den Bildschirm bringen. Dazu gehören Explorer.exe, ImmersiveShell, ShellHost.exe oder etwa StartMenuExperienceHost. Außerdem können Anwendungsabstürze beim Initialisieren von XAML-Ansichten auftreten oder der Explorer laufen, ohne in der Taskleiste einen Eintrag anzuzeigen. Konkret lassen sich etwa Abstürze des Explorers beobachten, das Startmenü öffnet sich nicht und zeigt eine kritische Fehlermeldung, die Systemeinstellung „Start“ – „Einstellungen“ – „Systems“ startet einfach nicht ohne weitere Rückmeldung oder die ShellHost.exe stürzt ab.

Die Problemursache hat Microsoft inzwischen gefunden und bestätigt. Die betroffenen Apps haben Abhängigkeiten von XAML-Paketen, die nach der Installation des Updates nicht rechtzeitig registriert werden. Zwar arbeitet Microsoft an einer automatischen Lösung für das Problem, liefert im Support-Beitrag aber auch Hinweise, wie IT-Verantwortliche in betroffenen Umgebungen sich behelfen können.

Dazu gehört das manuelle Registrieren der fehlenden Pakete in der Nutzersitzung und ein anschließender Neustart des SiHost. Microsoft stellt dazu drei Befehle zur Verfügung, die die Registrierung übernehmen. Zudem stellt Microsoft ein Powershell-Skript für nicht persistente Umgebungen bereit. Das sollen Admins als Log-on-Skript laufen lassen.


(dmk)



Source link

Weiterlesen

Beliebt