Connect with us

Künstliche Intelligenz

Aqara zeigt WLAN-Kamera mit Matter-Support


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Das Kommunikationsprotokoll Matter versteht seit November Befehlssätze für vernetzte Sicherheitskameras. Nach TP-Link auf der IFA stellt Aqara nun auf der Technikmesse CES ein Kameramodell vor, das die neuen Fähigkeiten beherrschen wird. Der Camera Hub G350 lässt sich damit lokal in übergeordnete Steuersoftware einbinden, ohne dass ein vorheriges Setup in der Aqara-App notwendig wäre. Ferner zeigt der Hersteller in Las Vegas ein neues Heizungsthermostat, Smart Lock, einen Anwesenheitssensor und einen Multifunktionssensor, der etwa auf Vibrationen reagiert. Verkaufspreise und Termine nannte der Hersteller nicht.

Weiterlesen nach der Anzeige

Aqaras neue Sicherheitsoptik G350 kombiniert eine 4K-Weitwinkelkamera mit einer 2,5K-Telekamera und achtet mithilfe KI-gestützter Bilderkennung auf Bemerkenswertes. Dank eines Neige- und Schwenkmotors kann der bewegliche Kamerakopf Motive automatisch verfolgen und somit die Umgebung miteinerm 360-Grad-Rundumsicht abdecken.

Per eingebautem WLAN-Chip lässt sich die Sicherheitstechnik mit der Aqara-App oder einem kompatiblen Matter-System steuern. Bisher verstehen Homey und SmartThings die neuen Kamerafähigkeiten von Matter. Dazu gehört eine Ansicht des Live-Bildes, das Anzapfen von Mikrofon und Lautsprecher als Gegensprechanlage sowie das Einrichten von Bewegungsalarmen. Inwiefern sich die Aufnahmen mit Matter-Systemen speichern lassen, sagte Aqara nicht. Aber auch das erlaubt der Standard inzwischen.

Lesen Sie auch

Über die HomeKit-Schnittstelle bindet man die G350 in die Apple-Welt ein und nutzt iCloud als Speicher, allerdings maximal mit Full-HD-Auflösung (HomeKit Secure Video). Mittels RTSP-Protokoll ist Livestreaming zu Home Assistant und NVR-Software möglich. Wer keine externen Dienste verknüpfen will, legt Bilder auf einer MicroSD-Karte in der Kamera oder kostenpflichtig in der Aqara-Cloud ab.

Außer einer WLAN-Kamera ist der Neuzugang auch ein ZigBee-Hub, der weitere Aqara-Geräte verwaltet und in Matter-Systeme durchreicht. Umgekehrt kann die Kamera auch als Matter-Controller dienen und Geräte anderer Hersteller in einem Heimnetz steuern.

Weiterlesen nach der Anzeige

Der batteriebetriebene Multi-State-Sensor P100 ist so groß wie ein Sturmfeuerzeug und lässt sich auf Oberflächen kleben. Dort reagiert er dann auf das Öffnen und Schließen von Türen und Fenstern, auf Vibration, Klopfen sowie das Bewegen und Kippen von Objekten. Trendgemäß hilft KI der Software, den Zustand zu erkennen. Dadurch soll er sich etwa für die Kontrolle von Schubladen, Briefkästen oder Glasbruch von Fenstern eignen. Der Sensor funkt wahlweise mit Thread und ZigBee und lässt sich via Matter in diverse kompatible Steuerplattformen einbinden.



Der Multi-State-Sensor P100 von Aqara reagiert auf Vibration, Klopfen und einiges mehr.

(Bild: Aqara)

Als Anwesenheitssensor ist das kabelgebundene Gerät Multi-Sensors FP400 gedacht. Via mmWave-Radar soll es erkennen können, ob eine oder mehrere Personen im Raum sitzen, stehen oder liegen. Thread, ZigBee und Matter sind ebenfalls die Wege, auf denen man das Gerät mit passender Software koppelt.



Der Aqara-Sensor FP400 erkennt, ob Menschen im Raum stehen, sitzen oder liegen.

(Bild: Aqara)

Der Thermostat Hub W200 ist ein Raumthermostat mit 4-Zoll-Display, das gleichzeitig als Smart-Home-Schaltzentrale dient. Es lässt sich in ein WLAN-Netzwerk einbinden und versteht ZigBee, Thread und Matter. Gekoppelt mit einem Smart Lock oder einer Videotürklingel soll das Gerät als Security Panel dienen können. In Bezug aufs Heizen und Kühlen ist der Thermostat einer der noch wenigen, der die Funktion „Adaptive Temperatur“ von Apple Home beherrscht. Auf Basis des bisherigen Nutzungsverhaltens lässt die Software automatisch vorheizen, damit die Wunschtemperatur erreicht ist, wenn man zuhause eintrifft.

heise online ist Medienpartner der CES 2026.


(dahe)



Source link

Künstliche Intelligenz

Meta Quest: Neuer Algorithmus macht VR-Spiele flüssiger


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Meta hat einen neuen Frame-Timing-Algorithmus für Horizon OS eingeführt: FrameSync soll für ein flüssigeres Spielerlebnis mit oftmals höheren Bildraten und einer geringeren Verzögerung zwischen einer Kopfbewegung und ihrer sichtbaren Umsetzung in Virtual Reality sorgen. Ruckler, tiefe Bildraten und eine hohe Latenz gehören zu den häufigsten, aber längst nicht einzigen Auslösern für VR-bedingtes Unwohlsein, gemeinhin auch Motion Sickness genannt.

Weiterlesen nach der Anzeige

FrameSync ersetzt PhaseSync, den bisherigen Frame-Timing-Algorithmus, der vor über fünf Jahren für Meta Quest 2 eingeführt wurde. Entwickler können den neuen Algorithmus bereits mit ihren Apps ausprobieren, mit dem nächsten Betriebssystem-Update soll er automatisch für alle Apps im Horizon Store zur Anwendung kommen. Nutzer sollten damit unmittelbar von der Neuerung profitieren.

Ein möglicher Nachteil von FrameSync ist eine leicht höhere Auslastung von CPU und GPU, schreibt Meta. Das könne sich je nach Anwendung und Spieldauer geringfügig auf die Akkulaufzeit und die temperaturbedingte Leistungsdrosselung des Geräts auswirken. Aus diesem Grund können Entwickler FrameSync für ihre Apps manuell deaktivieren. Laut Meta sollten jedoch die meisten Anwendungen insgesamt von der neuen Technik profitieren.

Frame-Timing-Algorithmen wie FrameSync und PhaseSync sorgen dafür, dass Rendering, Tracking und Bildausgabe zeitlich möglichst genau aufeinander abgestimmt werden.

Setzt die Berechnung eines Bildes zu früh an, kann es sein, dass es abgeschlossen und ausgegeben wird, bevor das System die neuesten Trackingdaten berücksichtigen kann. Das kann wiederum dazu führen, dass zwischen einer Kopfbewegung und ihrer Darstellung im Bild eine sichtbare Latenz entsteht. Die Funktion von FrameSync und PhaseSync besteht demnach darin, den richtigen Zeitpunkt für die Berechnung eines Bildes vorherzusagen und diese entsprechend zu verzögern.

heise online XR-Briefing abonnieren

Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten.

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.

Die alte und die neue Synchronisierungstechnik unterscheiden sich laut Meta darin, dass FrameSync den richtigen Renderzeitpunkt eines Bildes statistisch robuster vorhersagen kann.

Weiterlesen nach der Anzeige

Dadurch sollen auch sogenannte „stale frames“ vermieden werden. Dabei handelt es sich um Bilder, die das System mehr als einmal anzeigt, weil das nächste Frame nicht rechtzeitig berechnet werden konnte. Für den Spieler äußert sich das durch ein Ruckeln in der Bewegung. Durch eine genauere Vorhersage soll dieses Phänomen seltener auftreten und die Reaktionsfähigkeit des Systems insgesamt steigen.


(tobe)



Source link

Weiterlesen

Künstliche Intelligenz

Interview: Wie Hirnstimulation Depressionen lindert


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Depressionen zählen zu den häufigsten psychischen Erkrankungen – allein in Deutschland sind jährlich über fünf Millionen Menschen betroffen. Doch nicht alle sprechen auf Antidepressiva an, und viele brechen die Therapie wegen Nebenwirkungen ab. Eine Alternative kann die transkranielle Gleichstromstimulation (tDCS) bieten, die bereits seit 1990 in anderen Kontexten im medizinischen Einsatz ist, vor allem in Kliniken und Forschungszentren.

Weiterlesen nach der Anzeige

Doch „Flow FL-100“, ein Medizinprodukt der Klasse IIa, soll die Stimulationsmöglichkeit ins heimische Wohnzimmer bringen. Es soll gezielt den präfrontalen Kortex stimulieren und so depressive Symptome lindern. In den USA hat die FDA das Gerät als erstes verschreibungspflichtiges Heim-Headset für Depressionen zugelassen. Über Flow haben wir mit Phil Ritter gesprochen, dem Geschäftsführer der deutschen Flow-Neuroscience-Tochter.


Phil Ritter

Phil Ritter

Phil Ritter ist Geschäftsführer der deutschen Tochter von Flow Neuroscience.

(Bild: Ritter)

tDCS ist in der klinischen Forschung seit über 20 Jahren bekannt. Warum bringen Sie diese Technologie jetzt als Headset für den Heimgebrauch?

Unser Ziel war es, das Gerät zugänglicher zu machen. Wir sehen tDCS als den „kleinen Bruder“ der transkraniellen Magnetstimulation (TMS), die man nur in Kliniken mit großen Geräten durchführen kann. Die Versorgungslage bei psychischen Erkrankungen ist angespannt: Wartezeiten auf Therapieplätze sind lang, und Medikamente sind nicht für jeden die richtige oder alleinige Lösung. Wir wollten eine Brücke bauen. Das Headset ermöglicht es Patienten, eine evidenzbasierte, klinische Methode sicher und eigenständig zu Hause anzuwenden – ohne monatelang auf einen Termin warten zu müssen.

Ein häufiges Missverständnis ist, dass solche Technologien herkömmliche Therapien oder Antidepressiva komplett ersetzen sollen. Ist das Ihr Ziel?

Nein, das nicht. Die Depression ist eine komplexe Erkrankung mit vielen Ursachen. Es gibt nicht die eine Wunderwaffe. Wir positionieren Flow ganz bewusst als weitere Säule im Behandlungsspektrum. Es kann als Monotherapie eingesetzt werden, aber wir sehen in unseren Daten, dass es auch in Kombination mit Antidepressiva oder Psychotherapie sehr effektiv ist – die Remissionsraten steigen in der Kombination sogar.

Weiterlesen nach der Anzeige

Es geht uns darum, Ärzten und Patienten ein weiteres Werkzeug an die Hand zu geben. Wenn ein Patient beispielsweise aufgrund von Nebenwirkungen keine Medikamente nehmen möchte oder kann – etwa bei Kinderwunsch oder wegen Libidoverlust –, bieten wir eine chemiefreie Alternative. Aber wir wollen die Pharmakotherapie nicht verdrängen, sondern das therapeutische Angebot sinnvoll erweitern.

Sie sind aktuell als Medizinprodukt zur Behandlung von Depressionen zugelassen. Im Gespräch erwähnten Sie aber auch Effekte auf Schlaf und Konzentration. Wo geht die Reise hin?

Wir nutzen zur Verlaufskontrolle die sogenannte MADRS-Skala (Montgomery-Åsberg Depression Rating Scale). Diese fragt nicht nur die Stimmung ab, sondern auch Faktoren wie Schlaflosigkeit, Konzentrationsfähigkeit, innere Unruhe und Appetit.

Wir sehen in den Daten, dass die Stimulation des präfrontalen Kortex durch tDCS oft positive Effekte genau auf diese Bereiche hat: Patienten berichten, dass sie besser schlafen oder sich wieder fokussieren können. Das ist für uns ein starkes Signal für die Zukunft. Wir investieren derzeit massiv in die Forschung, um zu prüfen, ob wir die Wirksamkeit auch isoliert für Angststörungen, Schlafprobleme oder Konzentrationsschwächen belegen können. Aktuell sind wir ein reines Depressions-Therapiegerät, aber langfristig sehen wir das Potenzial, auch diese komorbiden Symptome gezielt anzugehen.

Das klingt nach einer Bewegung in Richtung „Health & Wellness“ und Selbstoptimierung. Verschwimmen da die Grenzen?

Die Grenze zwischen Medizinprodukt und „Health & Wellness“ wird in den nächsten fünf bis zehn Jahren sicherlich unschärfer werden. Wir haben uns aber ganz bewusst für den härteren, medizinischen Weg entschieden. Wir hätten das Gerät auch als Lifestyle-Gadget für „besseres Denken“ vermarkten können. Aber wir wollten die wissenschaftliche Seriosität.

Patienten mit psychischen Leidensdruck brauchen Sicherheit, keine leeren Versprechen. Wenn wir irgendwann Claims zu Schlaf oder Konzentration machen, dann nur, wenn wir dafür dieselbe harte Evidenzbasis haben wie jetzt für die Depression.

Allein der Akt, sich jeden Tag 30 Minuten Zeit für sich selbst zu nehmen, das Gerät aufzusetzen und der Anleitung in der App zu folgen, etabliert eine positive Routine. Für Menschen in einer depressiven Episode, denen oft jegliche Struktur entgleitet, ist das enorm wertvoll. Es ist eine Form der Selbstwirksamkeit: „Ich tue aktiv etwas für meine Genesung.“ Dieser verhaltenstherapeutische Aspekt unterstützt die neurophysiologische Wirkung des Stroms.

Sie arbeiten an einer Weiterentwicklung der Technologie, die das Gehirn nicht nur stimuliert, sondern auch „liest“.

Richtig. Unser langfristiges Ziel ist eine noch stärkere Personalisierung. Wir arbeiten an der Integration von EEG-Technologie in das Headset. Die Idee ist, dass das Gerät die Hirnströme messen kann, um vorhersagen zu können, wie gut eine Person auf die Stimulation ansprechen wird.

Aktuell wissen wir meist nach der dreiwöchigen Aktivierungsphase, ob die Therapie anschlägt – bei etwa 77 Prozent ist das der Fall. Mit EEG-Daten und KI-Unterstützung könnten wir diesen „Response“ vielleicht schon viel früher erkennen oder das Stimulationsprotokoll individuell anpassen. Das würde die Behandlung noch effizienter und zielgerichteter machen.

Wie sieht es mit der Kostenerstattung aus?

Aktuell zahlen Patienten die rund 459 Euro meist selbst. Wir arbeiten intensiv daran, in die Regelversorgung zu kommen. In Großbritannien ist der NHS schon weiter und setzt Flow in vielen Bereichen ein. In Deutschland sind wir in Gesprächen mit dem G-BA (Gemeinsamer Bundesausschuss) und Krankenkassen. Das System hier ist etwas langsamer und prüft derzeit, ob noch spezifische Erprobungsstudien für den deutschen Markt nötig sind, obwohl die internationale Datenlage – unter anderem durch eine große Studie in Nature Medicine – sehr eindeutig ist.

Wir hoffen aber, dass wir langfristig eine Kassenleistung werden. Bis dahin setzen wir auf Mietmodelle und Kooperationen mit Kliniken, um den Zugang so niedrigschwellig wie möglich zu halten.


(mack)



Source link

Weiterlesen

Künstliche Intelligenz

Hinter der Milchstraße versteckt: Supercluster Vela deutlich größer als gedacht


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Eine von der Milchstraße verdeckte gigantische Struktur aus unzähligen Galaxien ist viel größer und massereicher als angenommen. Das haben Beobachtungen mit zwei Observatorien in Südafrika ergeben, die unsere Vorstellung vom Supercluster Vela deutlich präzisieren. Diese Ansammlung mehrerer Galaxienhaufen ist demnach von vergleichbarer Größe wie der Supercluster Shapley und vereint mehr Masse in sich als Laniakea. Das ist der Supercluster, in dem sich die Milchstraße befindet. Rund 800 Millionen Lichtjahre von uns entfernt ist Vela 300 Millionen Lichtjahre lang und vereint rund 30 Millionen Milliarden Sonnenmassen in sich, erklärt die Forschungsgruppe. Die haben der Struktur den Spitznamen „Vela-Banzi“ gegeben, der Zusatz bedeutet in der südafrikanischen Sprache isiXhosa „weitreichend offenlegend“.

Weiterlesen nach der Anzeige

Der Supercluster oder auch Supergalaxienhaufen Vela ist besonders schwer zu erforschen, weil er sich aus unserer Perspektive genau hinter der Milchstraße befindet. Deren Sterne und interstellarer Staub verhindern, dass wir auf etwa 20 Prozent des Nachthimmels einen guten Blick hinter unsere Heimatgalaxie werfen können. Das erschwert es auch, ein umfassendes Verständnis von unserer Nachbarschaft und größerer Strukturen im Universum zu bekommen. Für ihre Arbeit hat die Forschungsgruppe um Amber Hollinger von der Université Claude Bernard Lyon 1 mehr als 65.000 Distanzmessungen zu Galaxien und 8000 zur Rotverschiebung ausgewertet. Die Daten stammen demnach vom Southern African Large Optical Telescope (SALT) und dem Radioteleskop MeerKAT.

Herausgekommen ist bei der Analyse, dass Vela eine komplexe interne Struktur aufweist und aus zwei dichten Kernen besteht, die sich aufeinander zubewegen, erklärt das Team. Mit ihrer enormen Masse beeinflussen Supercluster wie Vela großflächige Verschiebungen von Materie im Universum. Die Analyse vervollständigt auch unser Bild des lokalen Universums, das demnach aus neun solchen Superclustern besteht. Unser eigener wurde erstmals 2014 beschrieben, die beiden nächsten heißen Perseus und Pisces. Die neue Beschreibung des Superclusters Vela wurde zur Veröffentlichung im Fachmagazin Astronomy & Astrophysics eingereicht.


(mho)



Source link

Weiterlesen

Beliebt