Connect with us

Künstliche Intelligenz

HP Dimension: Googles 3D-Videokonferenzlösung Beam hat einen hohen Preis


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

HP ist das erste Unternehmen, das ein Hardwareprodukt auf Basis von Googles 3D-Videocall-Technologie Google Beam auf den Markt bringt. Die Technologie soll dafür sorgen, dass Nutzer ein „lebensechtes Bild“ des Gegenübers vor sich wahrnehmen. Mit 25.000 US-Dollar ist HPs Lösung jedoch nicht günstig.

Das HP Dimension verfügt über ein 65-Zoll-Lichtfeld-Display mit 8K-Auflösung und sechs Hochgeschwindigkeitskameras, die in den Rahmen des Gehäuses eingelassen sind, um ein nahezu räumliches Videobild des Nutzers zu erstellen. Für diesen Effekt kommt ein „hochmodernes volumetrisches KI-Videomodell“ zum Einsatz, das „2D-Videoströme in realistisches 3D“ umwandelt, erklärt Google.


HP Dimension Arbeitsplatz - Google Beam

HP Dimension Arbeitsplatz - Google Beam

HPs 3D-Videokonferenzlösung mit Google Beam.

(Bild: HP)

Um einen 3D-Effekt des Gegenübers zu erzeugen, ist über dem Panel ein optischer Layer angebracht, der offenbar aus Mikrolinsen besteht. Diese können die Richtung der vom Panel abgegebenen Lichtstrahlen so beeinflussen, dass daraus eine räumliche Ansicht der Person entstehen kann. Für einen stärkeren Immersionseffekt sollen Spatial-Audio und eine adaptive Hintergrundbeleuchtung sorgen.

Die Technik wurde von Google zuerst auf der I/O 2021 zunächst als Project Starline präsentiert. Der damals gezeigte Prototyp, der aus einem 65-Zoll-8K-Panel, Lautsprechern, Mikrofonen, Beleuchtung und einem Computer sowie mehreren Kamerasätzen zusammensetzte, war so groß wie ein abgetrennter Essplatz im Restaurant. Seitdem hat der Konzern die Technik so weit reduzieren können, dass sie nicht größer als ein Flachbildfernseher ist.

Lesen Sie auch

Im Zuge der I/O 2025 hatte Google die 3D-Videokonferenzlösung in Google Beam umgetauft und HP als ersten Hardwarepartner ins Boot geholt. Zuvor hatte Google Testläufe im eigenen Konzern und mit einem Early-Access-Programm mit der Konferenzlösung gesammelt. Unter anderem haben Salesforce, T-Mobile und Wework daran teilgenommen, um im praktischen Einsatz Daten darüber zu sammeln, wie die Lösung remote arbeitenden Kollegen helfen kann, in Verbindung zu bleiben.

Nach Googles ersten Erkenntnissen aus dem Jahr 2023 soll die Interaktion zwischen Personen bei Videocalls über die 3D-Videokonferenzlösung interaktiver sein. Im Hinblick auf nonverbale Verhaltensweisen waren die Teilnehmer lebhafter und verwendeten deutlich mehr Handgesten, Kopfnicken und Augenbrauenbewegungen.

Ferner berichteten die Teilnehmer von einer signifikant besseren Fähigkeit, nonverbale Verhaltensweisen wahrzunehmen und zu übermitteln als bei herkömmlichen Videokonferenzen. Zudem sei die Gesprächsdynamik höher als bei herkömmlichen Calls, so Google.

Bei der 3D-Konferenzlösung gibt es jedoch eine große Einschränkung: An den Videocalls kann pro Bildschirm nur eine Person teilnehmen, da unter anderem das Gesichts- und Augentracking bei mehreren Menschen nicht funktioniert.

HPs Dimension ist für den Einsatz in Unternehmen gedacht und kostet 25.000 Dollar und wird laut Hersteller noch in diesem Jahr in den USA, Kanada, Großbritannien, Frankreich, Deutschland und Japan eingeführt. Unternehmen wie Salesforce, Deloitte und die NEC haben bereits zugesagt, Google Beam in ihre Büros zu bringen.

Der Kaufpreis des 3D-Videokonferenzsystems umfasst übrigens nur die Hardware. Für die Softwarelizenz, die für Videoanrufe benötigt wird, ruft Google einen zusätzlichen Betrag ab. Wie hoch der Preis für eine separate Google-Beam-Lizenz ist, um Zugriff zu Zoom oder Google Meet zu erhalten, haben weder Google noch HP verraten.


(afl)



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Künstliche Intelligenz

Adobe veröffentlicht Firefly-App für iOS und Android


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Adobe hat eine Firefly-App veröffentlicht, die ab sofort außer als Web-App auch für Android und iOS zur Verfügung stehen soll. Mit Firefly entstehen nach Prompteingabe unter anderem Fotos und Videos. Dafür nutzt der Dienst eigens von Adobe entwickelte Modelle, aber mittlerweile auch Technik von Fremdanbietern. Mit dem Update kommen einige Partner hinzu.

Seit April dieses Jahres integriert der Firefly-Dienst Bildgeneratoren der Drittanbieter OpenAI, Google und Black Forest Labs. Nun hat Adobe KI-Modelle von Ideogram, Luma AI, Pika und Runway hinzugefügt, die vor allem beim Generieren von Videos helfen sollen.

Als bildgebende KI stehen unter dem Firefly-Dach Googles Text-zu-Bild-Modelle Imagen 3 und 4 zur Verfügung, Flux 1.1 Pro und Flux.1 Kontext von Black Forest Lab, Ideogram 3.0, ein OpenAI-Bildgenerator sowie Runways Bildmodell Gen-4.

Neben dem Firefly-Videomodell stehen Googles Videogeneratoren Veo 2 und 3 zur Auswahl, die sowohl Text als auch Bilder als Eingabe akzeptieren. Dazu gesellen sich Ray2 von Luma AI und der Text-zu-Video-Generator von Pika.

Die Mobil-App für Android und iOS generiert Bilder und Videos nach Eingabe von Textprompts, bei Letzteren auch aus Bildprompts. Außerdem enthält sie die Photoshop-Werkzeuge Generative Füllung zur KI-Retusche und Generatives Erweitern zum Verlängern der Bildfläche.

Adobe synchronisiert alle Inhalte, die in der Firefly-App erstellt wurden, mit dem Creative Cloud-Konto des Nutzers.



Bisher stand Adobe Firefly nur als Web-App zur Verfügung. Ab sofort soll sie auch als Android- und iOS-App auf Mobilgeräten bereitstehen.

Adobe hat Firefly Boards kürzlich in öffentlicher Beta-Phase als Oberfläche zur Ideenfindung mit generativer KI eingeführt. Neben dem Bildgenerator unterstützt Board nun auch die Video-KI.

Auf dem Board soll man Bilder iterativ bearbeiten können. Dafür integriert Adobe die KI-Bildbearbeitung Flux.1 Kontext von Black Forest Labs und Bilderzeugung von OpenAI.

Auf dem Board lassen sich auch Adobe-Dokumente verknüpfen. Änderungen synchronisiert es selbstständig. Eine Aufräumfunktion ordnet alle visuellen Elemente in einem präsentierfähigen Layout an.

Adobe hat Firefly ist in seine Content Authenticity Initiative (CAI) eingebunden. Der Dienst versieht generierte Inhalte im Rahmen der Firefly-App automatisch mit Metadaten, sogenannten „Content Credentials“ die sie als KI ausweisen, so dass der Nutzer weiß, ob sie mit einem Firefly-Modell oder einem Partnermodell erstellt wurden.

Adobe hat Firefly mit Daten aus seinem Agenturdienst Adobe Stock trainiert sowie mit Public-Domain-Inhalten und solchen, bei denen das Urheberrecht bereits erloschen ist. Das soll das Risiko von Urheberrechtsverletzungen minimieren.

Adobe rechnet die Firefly-Nutzung über ein nicht ganz einfach zu verstehendes Credit-Modell ab. Abonnenten der Adobe Creative Cloud erhalten monatlich 1000 Credits, um Bilder zu genieren. Bei Abos einzelner Anwendungen gibt es je nach Typ 25 Credits (InCopy, Substance 3D, Acrobat Pro), 100 Credits (Lightroom), 250 Credits (Express Premium) oder 500 Credits (Illustrator, InDesign, Photoshop, Premiere Pro, After Effects).

Nutzer, die nur die App, Web-App oder das Videomodell nutzen wollen, können Adobe Firefly ab 10,98 Euro monatlich abonnieren. Firefly-Abonnenten erhalten Credits zur Nutzung des Videogenerators und uneingeschränkten Zugriff auf den Bildgenerator.


(akr)



Source link

Weiterlesen

Künstliche Intelligenz

Cookie-Einwilligung: Deutsche Datenschützer wegen „Untätigkeit“ verklagt


Die Pay-or-Consent-Angebote (auch „Pur“-Abo) von Verlagen im Internet sind erneut ein Fall für deutsche Gerichte. Im Namen eines ungenannten Beschwerdeführers hat die österreichische Datenschutzorganisation Noyb die Datenschutzbehörden von Hessen und Nordrhein-Westfalen verklagt, weil die bisher nicht auf zwei vorangegangene Beschwerden reagiert haben.

Schon im August 2021 hatte Noyb Beschwerden gegen „Pay or OK“-Banner auf verschiedenen deutschen Nachrichtenportalen eingelegt, darunter auch heise.de. In zwei Fällen – faz.net und t-online.de – haben die zuständigen Aufsichtsbehörden von Hessen und Nordrhein-Westfalen (NRW) dazu noch immer nicht entschieden.

Die betroffenen Banner stellten Nutzer vor die Wahl, den Verlagsangeboten entweder die Verarbeitung und Weitergabe von persönlichen Daten zu Werbezwecken zu erlauben oder ein kostenpflichtiges Abo abzuschließen.

Die Datenschutz-Grundverordnung (DSGVO) besage ausdrücklich, dass eine Einwilligung freiwillig erteilt werden müsse, begründet Noyb den Gang vor Gericht. Doch 99 Prozent der Nutzer, die sich mit Pay-or-OK-Bannern konfrontiert sähen, stimmten der damit verknüpften gezielten Werbung zu. Dabei wollten nur drei bis zehn Prozent der Online-User tatsächlich getrackt werden. In einem Verfahren gegen die Facebook- und Instagram-Mutter Meta habe daher mittlerweile sogar die EU-Kommission diesen Ansatz für rechtswidrig erklärt.

Die Beschwerde bei der NRW-Datenschutzbehörde sei über ein Jahr verschollen gewesen, moniert Noyb. Die hessische Aufsicht wiederum verwies demnach auf die Komplexität des Falls und die laufende Ausarbeitung neuer Richtlinien dazu.

Die Datenschutzkonferenz von Bund und Ländern erklärte „Pur-Abo-Ansätze“ 2023 grundsätzlich für zulässig. Demnach müssen für Tracking aber alle Anforderungen an eine informierte, wirksame Zustimmung nach der DSGVO erfüllt sein. Der Europäische Datenschutzausschuss (EDSA) hat dazu bereits Leitlinien aufgestellt. Das Gremium sieht Pay-or-Consent kritisch und brütet über einen dritten Weg, gegen den Verlegerverbände Sturm laufen.

Jonas Breyer, Anwalt des Beschwerdeführers, bezeichnete die Verzögerung als „äußerst bedauerlich“. Leider sei das kein Einzelfall. Der Jurist fragt sich, „was die Behörden mit dem Geld der Steuerzahlenden eigentlich tun“. Noyb verklagte auch schon die Hamburgische Datenschutzbehörde, weil sie das Pay-or-OK-Modell vom Spiegel nicht beanstandete. Viele relevante Tatsachen seien in dem Fall nie untersucht worden.

Transparenzhinweis: heise online bietet selbst ein Pur-Abo an. Nach Beanstandung wurde das Consent-Banner in Rücksprache mit der Landesbeauftragten für den Datenschutz Niedersachsen überarbeitet.


(dahe)



Source link

Weiterlesen

Künstliche Intelligenz

c’t-Story: Sphärenklänge | heise online


Fasziniert starrte ich auf den von der fahlen Sonne schwach beleuchteten größten Planeten des Sonnensystems. Das Kaleidoskop aus verschiedenfarbigen Bändern und Wirbeln von Wolken in Rot-, Braun-, Gelb- und Blautönen weckte in mir einen Hauch von Verständnis für die mir angetragene Aufgabe. Einen zugegebenermaßen kleinen Hauch. Tatsächlich hatten mich ausschließlich der mangelnde Auftragseingang meiner Agentur für interplanetare Privatermittlungen und der traurige Anblick meines Kontostands dazu bewogen, als Security Commander für dieses in meinen Augen sinnfreie Projekt anzuheuern.

SpecA-7-Verdi startklar.“ Neds trockene Stimme riss mich aus meinen Gedanken. Das Radar verzeichnete neben den sechs bereits in Jupiters Umlaufbahn abgesetzten spektroskopischen Audiowandlern keine künstlichen Objekte. Im Gegensatz zu den anderen sollte Nummer sieben keine Wolkenbänder, sondern die Wirbel des roten Flecks in Töne wandeln, was ein paar knifflige Anforderungen an Umlaufbahn, Startzeitpunkt und Geschwindigkeit der Sonde mit sich brachte. Aus den Augenwinkeln musterte ich meinen Astronavigator. Entspannt schwebten die Finger seiner linken Hand über der Sensorfläche des Schaltpults. Mit der rechten hielt er seinen obligatorischen Becher Synthkaffee an die von Bartstoppeln umsäumten Lippen.

„Dann lass uns das Schätzchen auf die Reise schicken, Nerd!“ Mein jovialer Tonfall prallte an ihm ab wie mein letzter Anbaggerversuch bei Eva, der Bardame vom Blauen Frosch.


Das war die Leseprobe unseres heise-Plus-Artikels „c’t-Story: Sphärenklänge“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Beliebt