Künstliche Intelligenz
Wayland-Referenz-Compositor Weston 15 mit Lua-Shell und Vulkan-Renderer
Die Referenzimplementierung des Wayland-Projekts für einen Compositor namens Weston ist in Version 15 erschienen. Besonders stechen die einfach programmierbare Lua-Shell und der neue Vulkan-Renderer hervor.
Weiterlesen nach der Anzeige
In einem Blog-Beitrag fasst der Collabora-Entwickler Marius Vlad die Neuerungen von Weston 15 zusammen. Vor etwa einer Woche hat er das Release auf der Wayland-Entwickler-Mailingliste angekündigt, das Changelog zum letzten Release Candidate 5 umfasst nur noch den Versionsnummernsprung. Neu dabei ist die Lua-Shell. Der Name verrät es schon, damit können auch Interessierte die Fensterverwaltung anpassen und Shells in der populären Skriptsprache Lua erstellen, ohne etwa in C programmieren können zu müssen. Um einen Startpunkt zu haben, bringt Weston 15 eine beispielhafte Tiling-Shell mit. Ausprobieren lässt sie sich mit dem Aufruf weston --shell=lua.
„Butterweiche und effiziente Medienwiedergabe“ versprechen die Programmierer zudem. Sie haben das Timing der finalen Bilder perfektioniert, was bislang ein Problem von Vulkan-Clients und Wayland darstellte. Durch die Ergänzung von Vulkan-Erweiterungen kann Weston nun Bilder in einer Pipeline nach dem FIFO-Prinzip nutzen, ohne dass Verzögerungen entstehen, die dadurch eigentlich anfallen. Im HDR-Bereich unterstützt Weston weitere 10-Bit-Pixel-Formate wie NV15, NV20, NV30 und P030. Die Unterstützung der Erweiterungen für Farb-Repräsentierung und -Verwaltung, die für HDR-Video-Playback nötig sei, sei jedoch noch „Work-in-Progress“.
Neuer Renderer
Der Vulkan-Renderer ist neuer Bestandteil von Weston. Noch befinde er sich jedoch in der Experimentierphase, erklärt Vlad. Entwickler können an der Aktivierung von Vulkan-Treibern arbeiten, ohne dass Weston mit einer Übersetzungszwischenschicht wie Zink laufen muss. Der Vulkan-Renderer läuft sowohl nativ mit Direct Rendering Manager (DRM) als auch mit Nested Backends. Das heißt, er kann als Fenster sowohl in Wayland als auch in X11 laufen.
Ziel ist die Unterstützung der Vulkan-1.0-Spezifikation. Mit dem Vulkan-Renderer kommen auch Clients wie „simple-vulkan“ oder „simple-dmabuf-vulkan“. Der Wayland-Client kann dabei eine andere API nutzen als der Weston-Compositor. Ausprobieren lässt sich der Vulkan-Renderer mit dem Aufruf weston --renderer=vulkan.
Weitere Verbesserungen betreffen die Barrierefreiheit. Etwa für bestimmte Arten von Farbblindheit sind unterschiedliche Farbeffekte nötig, die der GL-Renderer anwenden muss. Die sind im derzeitigen Stadium jedoch inkompatibel mit der Farbverwaltung und implizit auch mit der HDR-Funktion. Hier arbeiten die Entwickler an Korrekturen, zudem soll die Unterstützung für den Vulkan-Renderer in einer kommenden Version ergänzt werden.
Vlad führt außerdem für Interessierte weitere Korrekturen und Verbesserungen auf, die etwa das DRM-Back-End, den GL-Renderer, die Protokolle, Shell und Tools betreffen. Die aktualisierte Software ist als Quellcode auf der Wayland-Download-Seite zu finden. Linux-Distributionen dürften in Kürze aktualisierte Pakete ausliefern, mit denen sich Weston 15 ausprobieren lässt.
Weiterlesen nach der Anzeige
In Weston 12 war etwa eine der Verbesserungen, dass mehr Grafikchips unterstützt wurden.
(dmk)
Künstliche Intelligenz
Vorfall bei Vision-Pro-Filmproduktion: Tödlicher Crash in Jordanien
Apples sogenannte Immersive-Videos sind bekannt für spektakuläre Aufnahmen: Da geht es dann beispielsweise aufs Hochseil, in den Dschungel zu wilden Tieren, über die Dächer von Paris oder zu Events des Funsport- und Brausekonzerns Red Bull. Beim Versuch, eines dieser mit Spezialkameras gefilmten Videos aufzuzeichnen, kam es nun allerdings zu einem tragischen Unglück: In der jordanischen Wüste stürzte die Pilotin in einem Kleinflugzeug ab.
Weiterlesen nach der Anzeige
Bericht: Millionen für kurze Videos
Der Vorfall mit dem Microlight, an dem eine 3D-Kamera montiert war, ereignete sich bereits im Sommer 2024, also zu einem Zeitpunkt, als die Vision Pro nur wenige Monate auf dem Markt war. Die Wirtschaftsnachrichtenagentur Bloomberg konnte jetzt im Rahmen einer Untersuchung durch britische Regierungsstellen erste Informationen zu dem Unglück veröffentlichen.
Opfer war Claire Lomas, eine britische Frau mit Querschnittslähmung, die mit Hilfe eines Exoskeletts den Londoner Marathon absolviert hatte. Sie war auch professionell ausgebildete Pilotin. Das Video war Teil einer Apple-Immersive-Video-Serie namens „Adventure“. Die Idee war dabei, mit dem Kleinflugzeug über die Wüste Jordaniens zu fliegen und dabei 3D-Naturaufnahmen zu filmen. Lomas hatte ihre Fluglizenz seit zwei Jahren und war schon vorher mit den Microlights unterwegs gewesen. Die 44-jährige war bei dem Absturz zwar nicht sofort tot, starb aber mehrere Wochen später an den Verletzungen, so die britischen Behörden. Laut Bloomberg hatte Apple für „Adventure“ die britische Produktionsfirma Atlantic Studios engagiert. Angeblich war Apple bereit, pro Folge Millionen US-Dollar auszugeben, obwohl die Immersive-Videos nicht abendfüllend sind, oft sind sie 10 bis 20 Minuten lang.
Apple schickte Sicherheitsbeauftragten
Weder Apple noch Atlantic Studios wollten sich zu Lomas‘ Unfall äußern. Apple kommentierte gegenüber Bloomberg gar nicht, Atlantic Studios teilte mit, aufgrund des aktuell laufenden Verfahrens könne man nicht antworten. Auch die Familienanwälte von Lomas gaben keine Informationen heraus. In den kommenden Wochen soll es aber ein Hearing des UK Coroner’s Office (Amt für Gerichtsmedizin) geben. Warum dies so lange dauerte, ist unklar. Laut Bloomberg gab es Kritik an der Durchführung der „Adventure“-Serie.
Mitarbeiter klagten über lange Arbeitszeiten, die sie als unsicher empfanden. Apple soll nach Beschwerden Beauftragte für Gesundheit und Sicherheit geschickt haben. Bis auf das Unglück mit Lomas soll es keine weiteren bekanntgewordenen Vorfälle gegeben haben. Das Video aus Jordanien sollte verschiedene bekannte Orte in dem Land zeigen. Bislang erschienen fünf Folgen der „Adventure“-Serie.
Weiterlesen nach der Anzeige
(bsc)
Künstliche Intelligenz
Bitwig Studio 6 im Test: Wenn Kurven elektronische Musik steuern
Automationsdaten steuern im Verlauf eines Stücks verschiedene Parameter: Sie können die Lautstärke bestimmter Klänge verändern, die Grenzfrequenz eines Filters öffnen oder Instrumente im Stereopanorama verschieben. Dazu zeichnet man sie gewöhnlich als Kurven zu den einzelnen Audio- und MIDI-Spuren einer Musikproduktion ein. In vielen Digital Audio Workstations (DAW) sind diese Automationskurven aber nur ein Anhängsel: Sie lassen sich nur mühsam editieren und bremsen oft den kreativen Fluss. Die Software Bitwig Studio 6 macht aus ihnen ein Gestaltungsmittel und behandelt Automationskurven erstmals als eigenständige musikalische Bausteine, die sich frei mit Audio- und MIDI-Spuren kombinieren lassen.
- Bitwig Studio 6 stellt das klassische DAW-Prinzip infrage und behandelt Automation als eigenständiges musikalisches Material.
- Der Test untersucht, wie sich Automation-Clips, Modulation und Workflow-Änderungen im Studio- und Live-Einsatz bewähren.
- Wir klären, ob der Fokus auf Verbesserungen am Workflow und der Bedienstruktur ohne weitere Instrumente und Effekte den großen Versionssprung rechtfertigt.
Mit seinen Automation-Clips bearbeitet Bitwig Steuerdaten wie Audio- oder MIDI-Clips. Anwender organisieren sie unabhängig von ihrer ursprünglichen Spur, loopen, kombinieren und setzen sie sogar als Modulatoren ein. Das eröffnet neue Möglichkeiten für Variationen und Live-Performances, bei denen schnelle Eingriffe und flexible Strukturen entscheidend sind. Im Test klären wir, ob das den Workflow der DAW tatsächlich beschleunigt oder nur die Komplexität erhöht.
Bitwig Studio 6 verzichtet auf neue Instrumente oder Effekte und konzentriert sich stattdessen auf den Workflow. Entscheidend ist, wie weit Automation-Clips im Alltag tragen – im Arrangement, im Live-Set und im Zusammenspiel mit Hardware. Da Bitwig Studio noch nicht jedem geläufig ist, gehen wir zunächst auf die Eigenheiten dieser DAW ein, bevor wir die Neuerungen der Version 6 genauer beleuchten.
Das war die Leseprobe unseres heise-Plus-Artikels „Bitwig Studio 6 im Test: Wenn Kurven elektronische Musik steuern“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Amazon: Ring-Kameras jetzt mit optionaler Gesichtserkennung
„Familiar Faces“ wird in Deutschland zu „Bekannte Gesichter“: Ein bislang in den USA verfügbares Gesichtserkennungs-Feature für Amazons Ring-Kameras ist jetzt auch in Deutschland verfügbar. Ring-Kameras können so Personen erkennen und den Kamerabesitzer darüber informieren, wer vor der Tür steht.
Weiterlesen nach der Anzeige
Ziel des Features ist es laut Amazon, Nutzern personalisierte Benachrichtigungen zu schicken. Anstatt die Meldung „Person an der Haustür“ auf ein Handy zu schicken, kann Ring künftig etwa von „Oma an der Haustür“ berichten. Nutzer können die Benachrichtigung für jede einzelne Person individuell an- und ausschalten, schreibt Amazon in einer Mitteilung.
„Bekannte Gesichter“ legt für jeden Besucher einen Eintrag an, wenn sich eine Person in Sichtweite der Kamera bewegt und ihr Gesicht erkennbar ist. Nutzer haben dann die Gelegenheit, diese Person zu benennen. Insgesamt können bis zu 50 Profile für Personen angelegt werden. Besucher, die vom Nutzer nicht als bekannte Person abgespeichert werden, werden nach 30 Tagen automatisch wieder entfernt.
Standardmäßig deaktiviert
Die Funktion „Bekannte Gesichter“ ist standardmäßig deaktiviert. Wer das Feature nutzen will, muss es also aktiv einschalten. Amazon weist darauf hin, dass Nutzer vor der Aktivierung eine ausdrückliche Einwilligung von Besuchern einholen müssen. Zudem unterliege die Einwilligung von Kindern besonderen gesetzlichen Auflagen. Wenn eine Person ihre Einwilligung widerruft, müsse sie unverzüglich aus der Datenbank der bekannten Gesichter entfernt werden. Ob die Entfernung aus der Datenbank tatsächlich erfolgt, können Betroffene nicht einfach kontrollieren.
Um das Feature überhaupt nutzen zu können, sind ein Premium-Abonnement bei Ring sowie kompatible Hardware notwendig. „Bekannte Gesichter“ funktioniert auf Kameras und Türklingeln von Ring mit 2K- oder 4K-Auflösung. Auch einige ausgewählte Geräte mit HD-Auflösung werden unterstützt. Einen Überblick gibt Amazon in einem Support-Eintrag. „Bekannte Gesichter“ ist nicht mit der Ende-zu-Ende-Videoverschlüsselung von Ring kompatibel, schreibt Amazon.
„Bekannte Gesichter“ ist eine von mehreren strittigen KI-Funktionen von Ring, die Amazon in den vergangenen Monaten in den USA eingeführt hat. Besonders eine andere Funktion wurde stark kritisiert: „Search Party“ wird von Amazon als KI-gestützte Hilfe bei der Suche nach verloren gegangenen Hunden vermarktet. Dafür können Hundebesitzer und -besitzerinnen ihre Haustiere melden und eine KI-gestützte Suche über alle Ring-Kameras in der Nachbarschaft veranlassen. Läuft das gesuchte Tier durch das Sichtfeld eines dieser Geräte, soll man automatisch darauf hingewiesen werden. Kritiker befürchten, dass dieser Zusammenschluss verschiedener Ring-Kameras dazu genutzt werden könnte, auch Menschen zu verfolgen.
Weiterlesen nach der Anzeige
(dahe)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 1 MonatCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenInterview: Massiver Anstieg der AU‑Fälle nicht durch die Telefon‑AU erklärbar
-
Künstliche Intelligenzvor 2 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Entwickler, wacht auf – oder verliert euren Job
