Connect with us

Künstliche Intelligenz

Instar IN-8815 4K im Test: 4K-Innenkamera mit PoE für Home Assistant


Stark: Die Instar IN-8815 4K bietet super Bild, PoE, Dualband-WLAN und offene Schnittstellen. Besser geht es nicht – oder?

Die Instar IN-8815 4K ist eine vielseitige PTZ-Überwachungskamera für innen mit 4K-Auflösung, PoE, Dualband-WLAN, App und klassischer Weboberfläche. Besonders interessant: offene Schnittstellen wie RTSP, ONVIF, MQTT v5 sowie Alarm-Ein- und Ausgang und Apple HomeKit Secure Video. Damit richtet sich die Kamera nicht nur an Einsteiger, sondern auch an Nutzer, die ihre IP-Kamera in ein Smart Home oder eine bestehende Videoüberwachung integrieren möchten. Im Test klären wir, ob sie diesem Anspruch gerecht wird.

Design und Montage

Mit 12,4 × 11,0 × 11 cm und rund 360 Gramm ist die PTZ-Kamera kompakt, bleibt optisch aber klar technisch geprägt. Sockel, Motorgabel, Kamerakopf und zwei externe Antennen wirken funktional, jedoch weniger wohnlich als bei minimalistischen Indoor-Kameras. Für einen unauffälligen Wohnzimmer-Look ist das Design daher nicht ideal.

Bei der Montage zeigt sich die Instar IN-8815 4K flexibel: Stand-, Wand- oder Deckenmontage sind möglich. Im Lieferumfang enthalten sind Halterung, Netzteil, LAN-Kabel, Schrauben, Dübel, Antennen sowie eine bereits eingesetzte 32-GB-microSD-Karte. Die Einrichtung erfolgt idealerweise per LAN oder PoE, alternativ per WLAN mit etwas mehr manuellem Aufwand.

Ausstattung

Technisch ist die Kamera solide aufgestellt: Ein Sony-Starvis-Sensor (1/2,8 Zoll) liefert 8 Megapixel mit bis zu 3840 × 2160 Pixeln bei 25 fps. Das 4,3-mm-Objektiv bietet etwa 100 Grad Sichtfeld bei einer lichtstarken Blende von f/1.6.

Die PTZ-Funktion ermöglicht 350 Grad Schwenken und 75 Grad Neigen. Unterstützt werden H.265, H.264 und MJPEG. Für Nachtsicht sorgen zehn IR-LEDs mit bis zu 12 Metern Reichweite. Eine Zoom-Funktion gibt es nicht, wohl aber zukaufbare Objektive mit anderen Brennweiten.

Ein Highlight ist die Netzwerk- und Protokollvielfalt: LAN, PoE (IEEE 802.3af), WLAN (2,4/5 GHz), WPA2/WPA3 sowie RTSP, ONVIF, MQTT v5, CGI und HTTP/HTTPS-Alarmserver. Genau diese Offenheit unterscheidet die IN-8815 4K von vielen einfachen App-Kameras, die sich fast immer nur im Herstellersystem wohlfühlen. Die Instar-Kamera wirkt damit eher wie eine klassische IP-Kamera mit Smart-Home-Anbindung.

Für die Aufzeichnung von Videos gibt es einen MicroSD-Slot bis 1 Terabyte, eine 32 GB Karte ist ab Werk eingesetzt. Alarmbilder und Videos lassen sich zusätzlich per FTP, FTPS oder SFTP sichern oder in die optionale Instar-Cloud hochladen. Praktisch ist die Vorab-Aufzeichnung vor dem Alarm mit 0 bis 10 Sekunden. So beginnt ein Clip nicht erst dann, wenn das Ereignis schon fast wieder vorbei ist.

Zur Ausstattung gehören außerdem Mikrofon, Lautsprecher, ein separater Audioausgang und ein Alarm Ein- und Ausgang. Der Relaisausgang ist potenzialfrei und unterstützt Geräte bis 24 Volt bei 1 Ampere. Das ist interessant, wenn etwa Sirenen, Sensoren oder andere externe Schaltungen dafür sorgen sollen, dass die Aufnahme startet. Im Massenmarkt für Innenkameras ist diese Anschlussvielfalt außergewöhnlich.

Instar IN-8815 4K: Flexible PTZ-Überwachungskamera mit PoE, WLAN und Smart-Home-Anbindung

Bedienung und App

Die Erstinstallation klappt auch ohne App. Ein Assistent führt im Browser unter der Seite install.instar.com durch die erste Einrichtung. Empfohlen wird die Verbindung per LAN-Kabel oder PoE, alternativ ist WPS für WLAN vorgesehen. Im späteren Betrieb werden entweder App oder Weboberfläche verwendet. Die App InstarVision ist dabei als Werkzeug für den täglichen Gebrauch zu verstehen. Sie bietet Live-Bild, Wiedergabe der Aufnahmen, Alarmaktivierung und zentrale Alltagsfunktionen. Für die eigentliche Einrichtung und die tiefe Konfiguration ist die Weboberfläche gedacht, die im Browser über die IP-Adresse der Kamera erreicht wird. Dort lassen sich Alarmbereiche setzen und mit dem PIR-Sensor verknüpfen sowie dessen Sensibilität einstellen, um Fehlalarme zu reduzieren. Auch alle anderen Einstellungen – von Nutzerdaten bis zu Verbindungsarten sowie Einstellungen für Bild und Ton werden in der Web-Oberfläche getätigt. Die wirkt auf den ersten Blick wegen des Funktionsumfangs erschlagend, ist an sich aber logisch aufgebaut und nach kurzer Einarbeitung gut verständlich. Wer nur eine möglichst einfache App-Kamera sucht, bekommt hier allerdings deutlich mehr vorgesetzt, als erwartet.

Die Web-Oberfläche läuft in aktuellen HTML5-Browsern und benötigt kein zusätzliches Plugin. Unterstützt werden unter anderem Microsoft Edge, Mozilla Firefox, Google Chrome, Opera und Safari. Für den Fernzugriff nennt Instar zwei Wege: DDNS und P2P. DDNS ist möglich, verlangt aber bei klassischer Portweiterleitung eine öffentliche IPv4-Adresse. Einfacher ist P2P. Dabei wird die Kamera in der App per QR-Code eingebunden, ohne dass eine Port-Weiterleitung nötig ist. Das ist im Alltag der bequemere Weg.

Bildqualität: Scharfes 4K mit kleinen Schwächen

Dank 4K-Auflösung mit 25 Bildern pro Sekunde, Sony- Starvis-Sensor und lichtstarker F/1.6-Offenblende sehen Aufnahmen ziemlich gut aus. Das Handbuch nennt außerdem eine werkseitige Schärfeebene von etwa 5 bis 10 Metern. Wer näher oder weiter weg überwachen will, kann das Objektiv per etwas störrischem Justage-Ring nachstellen. Diese manuelle Fokussierung eröffnet dem Nutzer zusätzliche Möglichkeiten, um bestimmte Entfernungen scharfzustellen. Auf der anderen Seite wirkt das aber auch etwas altbacken – das machen Konkurrenzprodukte meist automatisch und beweist erneut, dass die Instar IN-8815 nicht unbedingt Plug & Play ist.

Instar IN-8815 4K: Aufnahmen sind recht detailreich und scharf und bieten höhere Reserven als bei typischen Full-HD- oder 2K-Innenkameras.

So oder so: Aufnahmen sind recht detailreich und scharf und bieten höhere Reserven als bei typischen Full-HD- oder 2K-Innenkameras. An eine ordentliche Smartphone-Kamera kommt sie aber nicht heran. In der Grundeinstellung wirken die Aufnahmen etwas künstlich glattgebügelt. Die Web-Oberfläche bietet dafür aber viele Anpassungsmöglichkeiten, darunter WDR, Farben, Kontraste, Schärfe und einiges mehr. Wir hätten uns allerdings etwas mehr Weitwinkel gewünscht. Zwar kann die Kamera motorisch gedreht werden, aber in einer Ecke aufgestellt ist das auch nötig, um den ganzen Raum komplett sehen zu können. Dafür gibt es kaum Verzerrungen an den Rändern. Nachts arbeitet die Kamera mit Infrarot statt mit sichtbarer Zusatzbeleuchtung. Entsprechend gibt es in der Praxis Schwarzweiß-Aufnahmen statt farbiger Nachtansicht. Aufnahmen sind scharf und die IR-Reichweite von bis zu 12 Metern kommt hin. Wer farbige Nachtbilder oder aktives Weißlicht zur Abschreckung sucht, kommt hier aber nicht auf seine Kosten.

Sonderfunktionen und Smart Home

Im Betrieb kann die IN-8815 4K Personen, Fahrzeuge und Tiere erkennen, besitzt zusätzlich einen PIR-Wärme- respektive -Bewegungssensor und bietet softwarebasierte Bewegungszonen sowie Geräuscherkennung. Diese Kombination ist interessant, weil sich Alarme damit deutlich feiner filtern lassen als bei einfachen Bewegungsmeldern allein.

Instar IN-8815 4K: Zugriff per App, Browser oder Smart-Home-Zentralen wie Home Assistant

Für Smart-Home-Nutzer ist vor allem die Systemoffenheit wichtig. Offiziell unterstützt werden Apple HomeKit Secure Video, Amazon Alexa, Google Nest, IFTTT, ONVIF, RTSP, CGI und MQTT v5. Für Home Assistant dokumentiert Instar sogar eine MQTT-Auto-Discovery. Der Hersteller beschreibt außerdem, dass die KI-Erkennung inzwischen auch direkt in Drittsoftware abgefragt werden kann. Das ist für Besitzer, die gern selbst mit der Kamera herumprobieren, ein echter Mehrwert, weil sie nicht in einer Hersteller-App eingesperrt bleibt.

Bei kostenpflichtigen Extras bleibt Instar vergleichsweise transparent. Einen Pflichtdienst nach dem Kauf gibt es nicht. Optional sind aber Cloud-Speicherpläne und die PC-Software InstarVision für Windows und macOS verfügbar. Für die Software starten die Einzelplatzlizenzen bei 19,99 Euro für bis zu vier Kameras. Bei der Cloud nennt Instar ein Testkontingent von 10 GB für 30 Tage und danach eine Erweiterung je nach gebuchtem Speicherplatz. Wer alles lokal auf SD-Karte, FTP oder im eigenen Netzwerk speichert, vermeidet diese Zusatzkosten, ohne Nachteile zu haben.

Als Hardware-Extras gibt es Zubehör wie alternative Objektive. Instar bietet etwa Zoomobjektive mit 8 oder 16 Millimeter Brennweite sowie 45 respektive 25 Grad Blickwinkel, außerdem einen Weitwinkel mit 2,8 Millimeter und etwa 120 Grad. Das ist dann sinnvoll, wenn statt eines breiten Überblicks eher ein engerer, aber weiter entfernter Bildausschnitt oder noch mehr Weitwinkel gewünscht wird. Einen Akku gibt es übrigens nicht, die Kamera wird per Netzteil mit 5 Volt und 2 Ampere oder per PoE versorgt. Bei Strom über das LAN-Kabel ist zu bedenken, dass die Kamera zwar PoE beherrscht, ein passender PoE-Switch oder -Injektor aber Voraussetzung ist. Ein geeignetes LAN-Kabel gehört zum Lieferumfang.

Preis

Die UVP für Deutschland liegt bei 179 Euro. Der aktuelle Straßenpreis laut Geizhals.de beginnt je nach Farbe ab knapp 153 Euro (Stand: 03/2026). Wechselobjektive mit 2,8 mm, 8 mm und 16 mm gibt es für etwa 30 Euro.

Fazit

Die Instar IN-8815 4K ist keine „Kamera für zwischendurch“. Sie benötigt stattdessen etwas Einrichtungs- und Eingewöhnungszeit, ist dafür aber auch eine ungewöhnlich offene Überwachungskamera für Innen mit sehr breiter Ausstattung. 4K, PoE, Dualband-WLAN, lokale Speicherung, Audioausgang, Alarm Ein- und Ausgang, RTSP, ONVIF, MQTT v5 und HomeKit Secure Video ergeben ein Paket, das vor allem technisch interessierte Nutzer anspricht. Sie eignet sich daher hervorragend zur Einbindung in Home Assistant und ähnlich komplexe Smart-Home-Systeme. Kritik gibt es nur wenig. Der Blickwinkel hätte für unseren Geschmack ab Werk noch etwas weiter ausfallen dürfen – auch wenn es dafür die PTZ-Funktion gibt – und das Design ist wenig wohnlich. Beides dürfte für die meisten aber verschmerzbar sein. Beim Preis ist das Ansichtssache.



Source link

Künstliche Intelligenz

Volumetrische Videos nehmen eine wichtige Hürde auf dem Weg zum Mainstream


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Volumetrische Videos zeigen Menschen und Objekte als dreidimensionale Körper, die sich aus frei wählbaren Perspektiven betrachten lassen. Dank Fortschritten bei der Optimierung und Übertragung von dynamischen Gaussian Splats lassen sie sich nun in guter Qualität auf mobile Geräte und sogar auf autarken VR-Brillen streamen, eine ausreichend schnelle und stabile Internetverbindung vorausgesetzt.

Weiterlesen nach der Anzeige

Das Start-up Gracia AI gehört zu den Vorreitern dieser Technologie und hat diesen Monat drei Demos veröffentlicht, anhand derer man das Streaming dynamischer Gaussian Splats ausprobieren kann. Dynamisch bedeutet hier, dass die Gaussian Splats eine zeitliche Abfolge und Bewegung abbilden und nicht nur eine Momentaufnahme.

Gaussian Splatting ist ein Verfahren zur 3D-Rekonstruktion und -Darstellung. Als Darstellungsansatz unterscheidet es sich grundlegend von klassischer 3D-Grafik. Statt Objekte aus Netzen verbundener Polygone, meist Dreiecken, aufzubauen, wird eine Szene als dichte Ansammlung kleiner, räumlich ausgedehnter Punkte beschrieben. Diese sogenannten Splats („Kleckse“) tragen jeweils Informationen wie Position, Größe, Ausrichtung, Farbe und Transparenz. In verdichteter Form ergeben diese visuellen Atome äußerst real wirkende Menschen, Objekte und Umgebungen.

Der Ansatz spielt seine Stärken vor allem bei komplexen und feinen Strukturen aus: Haare, Rauch oder andere schwer zu modellierende Formen lassen sich so deutlich natürlicher erfassen. Gleichzeitig entstehen weichere Übergänge und insgesamt stimmigere Bildeindrücke, die mit klassischen Polygonnetzen oft nur mit erheblichem Zusatzaufwand zu erreichen sind.

Gaussian Splatting war ursprünglich vor allem ein Verfahren zur 3D-Rekonstruktion der realen Welt. Statische Motive lassen sich mit handelsüblichen Kameras, etwa von Smartphones, vergleichsweise schnell und unkompliziert erfassen. Im Vergleich zu anderen Digitalisierungsverfahren wie Photogrammetrie und NeRFs sind die resultierenden Darstellungen deutlich effizienter und lassen sich inzwischen auch auf mobilen Geräten in Echtzeit rendern.

Inzwischen löst sich Gaussian Splatting zunehmend aus dem ursprünglichen Rekonstruktionskontext. Neben der KI-gestützten Generierung von 3D-Umgebungen (Googles Project Genie) und Anwendungen wie immersiver Telepräsenz (Apples verbesserte Personas) wird die Technik auch in der Filmproduktion und künftig wohl auch in der Spieleentwicklung eingesetzt.

Die Beispiele demonstrieren drei typische Anwendungsszenarien aus Unterhaltung, Handwerk und Medizin: eine vierminütige musikalische Performance sowie kurze Ausschnitte aus einer Rennrad-Reparaturanleitung und einer Physiotherapie-Sitzung. Für die korrekte Wiedergabe wird ein WebGPU-fähiger Browser wie Google Chrome benötigt. Die volumetrischen Videos starten ohne Vorinstallation einer App oder lange Pufferzeiten und ermöglichen es Nutzern, die Szenen aus beliebigen Blickwinkeln zu betrachten sowie heran- und herauszuzoomen.

In einer VR-Brille steigt der Mehrwert der volumetrischen Videos: Die Menschen und Objekte erscheinen im eigenen Wohnzimmer und entfalten eine physische Präsenz. Position und Größe lassen sich per Handbewegung anpassen: von riesig über lebensgroß bis zur Miniatur auf dem Tisch. Wir haben die Funktion im WebXR-fähigen Browser der Meta Quest 3 ausprobiert. Auch auf Apple Vision Pro funktioniert das Streaming, allerdings ohne Passthrough-Ansicht, da Apple diese Funktion für WebXR bislang nicht freigegeben hat.

Das Streaming dynamischer Gaussian Splats im Browser ist keine völlig neue Entwicklung: Das chinesische Start-up 4DV hat entsprechende Ansätze bereits 2025 demonstriert. Allerdings überfordern deren Szenen noch manche Geräte.

Weiterlesen nach der Anzeige

Gracia AI empfiehlt für seine Streaming-Technik eine Bandbreite von relativ hohen 80 Mbit/s, was einer Darstellung von 120.000 Splats pro Frame entspricht. Das ist laut CEO Georgii Vysotskii die maximale Bitrate der aktuellen Streaming-Konfiguration. In vielen Fällen genügt jedoch auch weniger Bandbreite, abhängig von der Komplexität der Szene. Entscheidend ist, wie viel Bewegung sie enthält.

Dynamisches Gaussian Splatting unterscheidet sich grundlegend von herkömmlichen Videos: Die dargestellten Inhalte bestehen nicht aus vorgerenderten Bildfolgen, sondern aus einer Ansammlung räumlich ausgedehnter 3D-Punkte, die auf dem lokalen Gerät in Echtzeit gerendert werden. Bei der von Gracia AI entwickelten proprietären Streaming-Technik werden keine fertigen Bilder übertragen, sondern Keyframes und Bewegungsdaten dieser 3D-Repräsentation.

Der Vorteil dieses Ansatzes liegt auf der Hand: Statt für jeden Zeitpunkt alle 3D-Punkte zu übertragen, werden nur die Veränderungen zwischen ihnen kodiert. Da sich viele Teile einer Szene über die Zeit hinweg kaum verändern, lässt sich so erheblich Bandbreite sparen. „Im Kern handelt es sich um einen Codec-ähnlichen Ansatz aus der 2D-Videotechnik, übertragen auf Gaussian Splatting“, erklärt Vysotskii. Gegenüber Download-Versionen der volumetrischen Videos ist die Datenrate mehr als zehnmal niedriger, bei nahezu gleicher visueller Qualität.

Die Produktionspipeline des Start-ups erlaubt es, je nach Anwendungsfall und Ausgabegerät unterschiedliche Bitraten und Qualitätsstufen festzulegen, etwa für Streaming oder Download sowie für mobile Geräte oder leistungsstärkere stationäre Rechner, die mehr Splats gleichzeitig rendern können. Speziell für das Streaming hat das Start-up auch eine Konfiguration mit 17 Mbit/s oder 15.000 dargestellten Splats pro Frame getestet, die sich für volumetrische Aufnahmen mit wenig Bewegung eignet. Diese Bitrate liegt im Bereich typischen 4K-Videostreamings.

Volumetrische Videos gelten seit Langem als ein Kernversprechen immersiver Technologien. Mit ihnen verbindet sich die Vision, dass Aufnahmen von Menschen, Objekten und Szenen nicht mehr auf Bildschirme und Leinwände beschränkt sind, sondern als frei im Raum platzierte, greifbar wirkende Hologramme erscheinen.

Ernstzunehmende Versuche in diese Richtung gab es bereits vor rund zehn Jahren, parallel zum Aufkommen der ersten massentauglichen VR-Brillen: Unternehmen wie Microsoft und Intel experimentierten mit volumetrischen Videoformaten und bauten dafür eigene Aufnahmestudios. Auch in Deutschland entstand mit Volucap in Babelsberg früh eine professionelle Infrastruktur für volumetrische Aufnahmen. Obwohl sie technisch beeindruckend waren, scheiterten die Ansätze bislang an hohen Produktionskosten, enormen Datenmengen und fehlenden Verbreitungswegen.

Volumetrische Videos sind keine Videos im klassischen Sinn, da sie nicht aus festen Bildfolgen bestehen, sondern aus dreidimensionalen Inhalten, die in Echtzeit gerendert werden. In diesem Punkte ähneln sie Videospielen.

Die meisten volumetrischen Videos basieren auf Aufnahmen realer Menschen, Objekte und Szenen. Ihre Interaktivität beschränkt sich in der Regel auf die Wahl der Perspektive und Entfernung. Bis jetzt entstanden solche Aufnahmen vorwiegend in spezialisierten Studios, in denen eine Vielzahl Kameras ein Motiv gleichzeitig aus verschiedenen Blickwinkeln erfassen. Für die Verarbeitung und Darstellung dieser Daten gibt es unterschiedliche Ansätze: Der neueste und vielversprechendste ist Gaussian Splatting.

Es gibt statische und dynamische Gaussian Splats, aber nur dynamische Gaussian Splats bilden eine zeitliche Abfolge und Bewegung ab und qualifizieren sich damit als volumetrische Videos. Zur klaren Abgrenzung werden statische Gaussian Splats auch als „3DGS“ und dynamische Gaussian Splats als „4DGS“ bezeichnet (Zeit als vierte Dimension).

Volumetrische Videos, ob auf Basis von Gaussian Splatting oder anderer 3D-Rekonstruktions- und Darstellungsverfahren, unterscheiden sich grundlegend von anderen immersiven Videoformaten, die deutlich weniger Freiheitsgrade bieten, dafür aber auch deutlich leichter herzustellen sind.

Stereoskopische Videos (von Apple auch „Spatial Videos“ genannt) bieten leicht versetzte Perspektiven für beide Augen und erzeugen so einen 3D-Eindruck, sind jedoch auf ein meist rechteckiges Bildformat und eine feste Perspektive beschränkt. Sogenannte 180- und 360-Grad-Videos erweitern zwar das Sichtfeld, ändern jedoch nichts an der festen Perspektive. Ansätze, die mithilfe von Künstlicher Intelligenz aus Videos neue Blickwinkel berechnen, sind derzeit noch stark eingeschränkt, da sie fehlende Bildinformationen „erfinden“ müssen. Volumetrische Videos gelten damit als die mächtigste Form immersiver Videoformate, sind jedoch nach wie vor aufwendig in der Produktion.

Künftig dürften volumetrische Videos vermehrt synthetisch entstehen, etwa durch KI-Generierung. Dabei könnten die Grenzen zwischen volumetrischem Video, interaktiven Formaten und Videospielen zunehmend verschwimmen.

Gaussian Splatting löst einige dieser Probleme. Zum einen senkt die Technik die Kosten der Erfassung deutlich. Laut Vysotskii sinkt die Zahl der benötigten Kameras stetig. Zudem seien hochwertige Aufnahmen zunehmend mit vergleichsweise günstigen Smartphone-Kameras oder GoPros möglich. Zum anderen verlagere sich die Produktion von professionellen Volumetrie-Studios mit Dutzenden Kameras hin zu portablen Kamerarigs, die ein kleineres Sichtfeld erfassen. In solchen Fällen reichen laut Vysotskii zehn iPhones.

Auch in puncto Technik und Erfassungsqualität hat sich das Verfahren deutlich weiterentwickelt. „Der Erfassungsprozess ist heute wesentlich weniger restriktiv als noch zu Zeiten klassischer Mesh-Erfassung. Gaussian Splatting ist deutlich flexibler bei der Kameraplatzierung, robuster gegenüber unterschiedlichen Lichtverhältnissen und kommt mit Stoffen erheblich besser zurecht“, sagt der CEO.


Bild von Georgii Vysotskii auf einem Stuhl sitzend mit Smartphone in Hand.

Bild von Georgii Vysotskii auf einem Stuhl sitzend mit Smartphone in Hand.

Der Geschäftsführer von Gracia AI Georgii Vysotskii.

(Bild: Gracia AI)

Das ist auch der rasanten Entwicklung des Gaussian Splatting in den vergangenen Jahren zu verdanken. Anfangs ließen sich statische Splats nur auf leistungsstarken Rechnern in akzeptabler Qualität darstellen. Mit fortschreitender Optimierung wurde das Verfahren jedoch effizienter und erreichte schließlich auch mobile Geräte. Parallel dazu entstanden dynamische Gaussian Splats, die zunächst ebenfalls hohe Rechenleistung erforderten. Innerhalb kurzer Zeit gelang es jedoch, auch diese bewegten Darstellungen so zu beschleunigen, dass sie auf schwächerer Hardware nutzbar wurden. Mit dem Streaming dynamischer Gaussian Splats folgt nun der nächste Schritt: Damit wird aus einer bislang lokal gebundenen Technologie ein erstmals breit zugängliches Medium.

Trotz dieser Entwicklung stehen volumetrische Videos noch vor zahlreichen Hürden. Die größten sind, dass Produktion und Verarbeitung aufwendig bleiben: Für vollständige 360-Grad-Aufnahmen, wie sie Gracia AI in seinen Demos zeigt, kommen weiterhin 40 bis 60 Kameras gleichzeitig zum Einsatz.

Vysotskii und Mitgründer Andrey Volodin gründeten das Start-up ursprünglich in der Absicht, ein YouTube für volumetrische Videos zu etablieren. Inzwischen sind die Ziele pragmatischer: Im Fokus steht die Entwicklung der Infrastruktur und Werkzeuge, die es Studios ermöglichen, volumetrische Inhalte zu schaffen. Eine eigene Distributionsplattform ist derzeit nicht geplant.

Gracia AI sieht primär zwei kommerzielle Einsatzfelder für die Technik: Bildung und Unterhaltung. In beiden arbeitet es bereits mit Partnern zusammen. Im Bildungsbereich nennt das Unternehmen ein Projekt mit dem Imperial College London, bei dem handwerkliche Abläufe für Trainingszwecke volumetrisch erfasst und für VR- oder Bildschirmnutzung aufbereitet werden. Im Unterhaltungsbereich verweist Gracia auf ein Projekt mit dem Freizeitpark PortAventura, wo volumetrische Inhalte in ein ortsgebundenes VR-Erlebnis für Besucher integriert werden.

Großes Potenzial sieht das Start-up auch in immersiven Sportübertragungen. Für diese arbeitet Gracia AI bereits am nächsten großen Schritt, dem Live-Streaming von dynamischen Gaussian Splats. Eine Ankündigung dazu soll es in Kürze geben.

Ein weiteres, vielversprechendes Einsatzfeld bleibt unerwähnt: Erotik. VR-Inhalte existieren hier bereits in Form von Filmen, Spielen und virtuellen Begegnungen. Volumetrische Videos könnten diesem Bereich eine neue Dimension abgewinnen.

Ob sich volumetrische Videos durchsetzen werden, hängt letztlich von der Verbreitung immersiver Computerbrillen ab. Solange diese keine Alltagsprodukte sind, bleibt auch ihr Nutzen für die breite Öffentlichkeit begrenzt. Gleichwohl zählen Gaussian Splatting und volumetrische Videos zu den derzeit interessantesten Entwicklungen in diesem Bereich.

In der App des Start-ups stehen viele weitere volumetrischen Videos als Download zum Betrachten bereit. Sie ist für Meta Quest, MacOS und Steam verfügbar. Eine App speziell für Apple Vision Pro befindet sich noch in Entwicklung und soll nach aktuellen Plänen im April erscheinen.


(tobe)



Source link

Weiterlesen

Künstliche Intelligenz

Wearables von anderen Anbietern: Apple erweitert Funktionsumfang in der EU


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Apple will künftig auch die sogenannten Live-Aktivitäten (Live Activities) auf Fremdgeräte weiterreichen. Im Rahmen der von der EU vorgeschriebenen Öffnung von iOS für Wearables von Drittanbietern wäre dies eine weitere Kategorie, die unterstützt wird. Umgesetzt wird dies allerdings frühestens mit iOS 26.5, das derzeit im Betatest ist und wohl nicht vor Ende April oder im Mai erscheint. Es ist unklar, ob Apple dabei auf die Forderungen aus dem Digital Markets Act (DMA) oder es sich quasi um ein „Bonusfeature“ handelt, das der Konzern erstmals außerhalb der Apple Watch freigibt. Möglicherweise nimmt Cupertino an, dass die EU-Kommission auch die Live-Aktivitäten, mit denen man aktuell laufende Vorgänge wie Bestellungen oder das Warten auf einen Mietwagen beobachten kann, nicht nur auf der Apple Watch sehen will.

Weiterlesen nach der Anzeige

Der aktuell geplante Funktionsumfang ist für Apple-Verhältnisse bereits breit. So soll erstmals „echte Benachrichtigungen“ auf konkurrierenden Wearables wie die von Samsung, Google oder Garmin auftauchen können, auf die man auf dem Gerät dann auch reagieren kann – dieses „Notification Forwarding“ ist mehr als die aktuelle, simple Weiterleitung der eigentlichen Nachricht per Bluetooth.

Weiterhin gibt es ein neues Annäherungspairing (Proximity Pairing), bei dem man ein Gerät wie einen Kopfhörer nur in die Nähe des iPhone bringen muss, um den Kopplungsvorgang auszulösen. Das geht bislang nur mit AirPods und Beats-Geräten. Schließlich kommen nun besagte Live-Aktivitäten hinzu. Da diese auch grafische Elemente enthalten, dürfte die Umsetzung von Hersteller zu Hersteller abweichen. Es ist auch denkbar, dass nicht jeder Anbieter von Wearables das Feature auch umsetzt. Alle Funktionen will Apple noch 2026 bereitstellen.

Passend dazu hat Apple auch an seinen Lizenzbedingungen für Entwickler geschraubt. Diesen ist nun zu entnehmen, dass das Forwarding von Live-Aktivitäten zum Funktionsumfang gehört. Es ist demnach unter anderem verboten, die Funktion zu Werbe-, Profiling- oder Ortsüberwachungszwecken zu nutzen.

Zudem dürfen die Daten nicht zum Trainieren von KI-Modellen verwendet werden. Schließlich ist auch eine Weiterleitung der Daten an andere Anwendungen oder Geräte verboten. Entwickler müssen diese gegenüber Apple explizit kommunizieren und erhalten dann ein entsprechendes Entitlement. Die Daten sind zudem verschlüsselt, ein Ablegen von Benachrichtigungen in der Cloud oder auf dem Empfangsgerät selbst ist nicht vorgesehen.

Weiterlesen nach der Anzeige


(bsc)



Source link

Weiterlesen

Künstliche Intelligenz

Digitale Vorreiter in Deutschland: Universitätsstädte schlagen Metropolen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Universitätsstädte und Metropolen wie München und Frankfurt sind in Deutschland die größten Sammelbecken für die digital avancierten Unternehmen. Das geht aus dem Digitale-Vorreiter-Index hervor, den der Consulting-Arm des wirtschaftsnahen Instituts der Deutschen Wirtschaft (IW) erstellt hat. Demnach steht Heidelberg mit 8,1 Prozent Anteil digitaler Vorreiter bei den dort heimischen Unternehmen vorn. Darauf folgen der Landkreis München mit 8 Prozent, Frankfurt auf Rang drei mit 7,8 Prozent und die Stadt München mit 7,6 Prozent.

Weiterlesen nach der Anzeige


Eine Deutschlandkarte, die farblich die Werte der Regionen im DVI-Index kenntlich macht.

Eine Deutschlandkarte, die farblich die Werte der Regionen im DVI-Index kenntlich macht.

Der Süden und Westen dominieren als Heimat digitaler Vorreiter in Deutschland

(Bild: IW)

Großstädte und deren benachbarte Landkreise bringen demnach vor allem den Vorteil mit, Anziehungspunkt für Startups im Digitalbereich zu sein. In Städten wie München oder Berlin kommen diese Jungfirmen laut den IW-Forschern mehr als viermal so häufig vor wie im Bundesschnitt. Zuletzt hatte Berlin allerdings seine Rolle als deutscher Spitzenreiter bei den Startups eingebüßt.

Besonders schneiden aber Universitätsstädte wie Karlsruhe (7,1 Prozent), Darmstadt (7 Prozent) und Bonn (6,4 Prozent) stark in dem Ranking ab und liegen deutlich vor den Millionenstädten Berlin (5,8 Prozent), Hamburg (5,7 Prozent) und Köln (5,5 Prozent). Die Dichte digitaler Vorreiter sei laut IW eben nicht allein auf einzelne Unternehmen zurückzuführen, sondern werde auch entscheidend von Institutionen geprägt, die Wissen, Infrastruktur und Netzwerke bereitstellen. Hochschulen und Forschungseinrichtungen seien hier wichtiger Impulsgeber.

Im Bundesschnitt hat das IW einen DVI-Wert von 3,8 Prozent ermittelt. Gerade gering verdichtete, ländliche Gegenden liegen mit 2,4 Prozent deutlich darunter. Besonders ausgeprägt sind die geringen Werte in den ländlichen Regionen Ostdeutschlands mit im Schnitt 2 Prozent. Landkreise wie Vorpommern-Rügen oder Spree-Neiße markieren mit einem Wert von 1,3 Prozent das untere Ende.

Methodisch haben die Forscher für ihren Index die Webpräsenzen von rund 2,5 Millionen Unternehmen herangezogen – den Angaben nach wurden damit alle deutschen Firmen mit einer Website erfasst. Mithilfe eines semantischen Modells wurden die Websites nach Wortwolken mit über 200 eindeutigen Begriffen durchsucht, die auf die Nutzung fortgeschrittener digitaler Technologien hindeuten. Werden dabei Begriffe aus mindestens zwei Wortwolken getroffen, reicht das für die Klassifizierung als digitales Vorreiter-Unternehmen, bei dem Technologien einen integralen Bestandteil der Produkte beziehungsweise des Geschäftsmodells darstellen. Der Index sei statistisch hoch signifikant korreliert mit Befragungsergebnissen zur Digitalisierung von Unternehmen sowie mit regionalen Digitalisierungsindikatoren, etwa der digitalen Start-up- oder Patentdichte, dem KI-Automatisierungspotenzial oder der Breitbandverfügbarkeit.


(axk)



Source link

Weiterlesen

Beliebt