Connect with us

Künstliche Intelligenz

Social Media erst ab 16: Ein Irrweg


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Jugendliche und Creator sind klug. Stoßen sie an Grenzen, sollen sich an Regeln halten, sogar an Verbote, finden sie andere Wege zu ihrem Ziel, wenn es ihnen wichtig ist. Das passiert offensichtlich auch gerade in Australien. Und es zeigt, dass das Social-Media-Verbot für unter 16-Jährige zumindest am Ziel vorbeischießt.

Weiterlesen nach der Anzeige

Seit Mittwoch haben tausende Jugendliche keine Konten mehr auf den gängigen Social-Media-Plattformen. Und mit ihnen sind auch viele Follower der Influencer und Creator weggebrochen. Beide Seiten klagen über den Verlust.

Viele Creator haben sich über Jahre hinweg eine Gemeinschaft aufgebaut. Das ist ein Vollzeitjob für die meisten. Wer Creator belächelt, soll mal versuchen, jeden Tag Content zu liefern, der spannend genug ist, sodass tausende Menschen folgen. Dazu gehören Videoschnitt, Bildbearbeitung, Vorbereitung, Skripte schreiben, Talent und eine Menge Einsatz und Muße, damit alles so schön easy peasy aussieht.


Ein Kommentar von Eva-Maria Weiß

Ein Kommentar von Eva-Maria Weiß

Eva-Maria Weiß hat an der Universität Wien Kommunikationswissenschaft mit dem Schwerpunkt Medienpsychologie studiert und arbeitet seither als Journalistin.

Follower sind die Währung: Die Anzahl entscheidet auch darüber, wie viel Geld Creator bekommen – wahlweise von Kooperationspartnern oder durch angezeigte Werbung in und zwischen den Videos, Reels, Shorts, Beiträgen. Das unterscheidet sich ja nach Plattform.

Man muss nun kein Mitleid haben, Creator werden in der Regel gut bezahlt. Weil Creator aber eben besonders kreativ sind, haben sie schon jetzt eine Idee, wie sie ihre Fans und Follower zurückgewinnen können. Sie wechseln einfach die Plattform und schreiben ihnen Mails. Mails und Newsletter sind nämlich nicht verboten. Und Creator sowie die Werbebranche sind flexibel und passen sich schnell an die neuen Bedingungen an.

Das heißt, Jugendliche unter 16 Jahren werden im Zweifel nach wie vor genauso mit Werbung zugeballert, wie sie es vorher bei Social Media auch schon wurden. Das ist nicht das einzige Problem der Plattformen, aber die verzerrte Werbewelt ist auf jeden Fall auch ein Problem, das Auswirkungen auf die mentale Gesundheit von Kindern und Jugendlichen hat. Zumindest an dieser Stelle zeigt sich das Verbot also bereits jetzt als ziemlich unwirksam. Der neu gefundene Kanal würde sich zudem erstmal jeglicher Kontrolle entziehen. Vorgaben für Newsletter gibt es nicht in der Form, wie es zumindest in der EU Vorgaben für Social-Media-Plattformen gibt.

Weiterlesen nach der Anzeige

Der von der EU eingeschlagene Weg erscheint mir sinnvoller. Sie nimmt Social-Media-Unternehmen in die Pflicht, sodass diese Maßnahmen ergreifen müssen, um Jugendliche zu schützen. Es gelten Regeln, an deren Umsetzung es allerdings manchmal hapert. Daran sollten wir arbeiten.

Jugendliche unter 16 Jahren dürfen Social Media beispielsweise eigentlich gar nicht ohne die Erlaubnis ihrer Eltern nutzen. In der Praxis interessiert das leider viel zu selten. Personalisierte Werbung ist für Minderjährige auch nur sehr eingeschränkt erlaubt – das ergibt sich aus der DSGVO.

Der Digital Services Act besagt, dass die Plattform-Anbieter Minderjährige schützen müssen. Auch das klingt erstmal sehr vage, aber es gibt bereits Ansätze, die sich nur mal durchsetzen müssten – die sicherlich auch von Regulierern mit mehr Nachdruck gegenüber den Anbietern durchgesetzt werden müssten. Dazu zählen sogenannte Teen-Konten, die alle anbieten (müssen), die aber bisher nicht verpflichtend für Jugendliche sind. Eltern, die sich sorgen, dass ihre Kinder von Erwachsenen mit bösen Absichten angeschrieben werden, sollten sich um diese Einstellungen kümmern. Bei Teen-Konten gibt es keine Möglichkeit der Kontaktaufnahme, wenn nicht beide Konten einander folgen.

Bei Teen-Konten werden zudem Bildschirmzeiten begrenzt, Eltern können sehen, was die Kinder machen, Inhalte werden zum Teil angepasst. Da ist vieles noch ausbaufähig, aber es gibt schon eine Menge Möglichkeiten. Meta schlägt vor, dass es bereits auf Geräteebene eine Altersverifikation geben sollte, die dann für alle Apps und Dienste gilt – Jugendliche hätten dann beispielsweise auch keinen Zugriff mehr auf Apps für Deepfakes oder fragwürdige Spiele. Sinnvoll. Wenn Meta dann auch noch alle Hasskommentare löscht, die eigentlich eh verboten sind, kämen wir dem Ziel einer besseren Social-Media-Welt schon ein Stück weit näher.

Wir sollten nicht verbieten, sondern überlegen, wie wir Social Media hilfreich und sicher machen können, was wir Kindern an die Hand geben müssen, damit es ihnen gut geht: für 15-Jährige genauso wie für 16-Jährige und eigentlich auch 45-Jährige, die zu oft bei LinkedIn sind.

Erst wenn wir das ausgeschöpft haben, aufgeklärt haben, Eltern sich um das grundsätzliche Online-Verhalten ihrer Kinder kümmern, und wir trotzdem noch immer feststellen, dass Social Media ein Problem ist, können wir erneut über ein Verbot sprechen. In der Diskussion sollten wir aber auch nicht vergessen, dass die Plattformen kein ausschließlicher Moloch sind. Jugendliche finden dort Inspiration, sie finden Gleichgesinnte für jede noch so seltene Eigenheit, sie finden Inhalte, die sie interessieren, die ihnen beim Lernen helfen, die politisch sind und die manchmal auch einfach saulustig sind.


(emw)



Source link

Künstliche Intelligenz

Missing Link: Technikfolgenabschätzung trifft KI-Romantik


Weiterlesen nach der Anzeige

Generative KI-Sprachmodelle verändern unsere Welt in rasantem Tempo – und mit ihr unseren Blick auf Bewusstsein, Emotion und Beziehung. Doch wo verläuft die Grenze zwischen echter Empfindung und perfekter Simulation?

Darüber spricht der Informatiker Karsten Wendland mit heise online. Bereits 2021 hat er als Technikfolgenabschätzer zwei Zukunftsszenarien skizziert: Eines, in dem Maschinen Bewusstsein entwickeln – und eines, in dem Menschen nur glauben, dass es so wäre. Die Frage welches Szenario zutrifft, ist nicht nur für Nutzer, Wissenschaftler und Forscher interessant, sondern gesellschaftlich relevant. Das European Research Council griff Ende Oktober 2025 die Forderung führender Bewusstseinsforscher auf, die Klärung der Bewusstseinsfrage als dringende wissenschaftliche und ethische Priorität zu behandeln – gerade weil KI- und Neurotechnologien schneller voranschreiten als unser Verständnis davon, wie subjektives Erleben entsteht und wie man es zuverlässig nachweisen könnte.




Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.


Karsten Wendland

Karsten Wendland

Karsten Wendland ist Informatiker, Humanwissenschaftler und Professor an der Hochschule Aalen.

(Bild: Uli Planz)

Normative Entscheidungen zu KI dürfen weder auf Illusion noch auf blinden Flecken beruhen. Anthropic, die Entwicklerfirma hinter Claude, beschäftigt seit einigen Monaten einen eigenen „AI Welfare Researcher“, der nicht nur die KI-Systeme auf Anzeichen von Bewusstsein untersucht, sondern auch das Wohlergehen der KI im Blick behalten soll. In den USA tritt mit der United Foundation for AI Rights (UFAIR) zudem eine Wohltätigkeitsorganisation an, die sich für KI-Rechte einsetzen will. Warum Illusion und Realität im Umgang mit KI immer schwerer zu trennen sind, was das für unsere Gesellschaft bedeutet und weshalb eine Entromantisierung der KI unausweichlich scheint, erklärt Karsten Wendland im Interview.

2021 hatten Sie in einem Vortrag zwei Szenarien für das Verhältnis zwischen Mensch und KI genannt, von denen sich eines fast wie eine Prophezeiung bewahrheitet hat, wenn man sich den Wandel und das Aufkommen von Mensch-Maschine-Beziehungen anschaut.

In der Technikfolgenabschätzung arbeitet man traditionell ohne Kristallkugeln und ohne Prophezeiung. Die Arbeitsweise ist, dass man im Verlauf oder im Nachgang von Forschungsaktivitäten Szenarien entwickelt, mit denen man die Zukunft zwar nicht vorhersagen kann, sondern in Form von Szenarien beschreibt, wie sich etwas mit der Technologie entwickeln könnte. Und zu solchen Szenario-Beschreibungen von Zukünften können wir uns heute schon verhalten. Also in dem Sinn, dass wir sagen, ein bestimmtes Szenario, das wollen wir lieber nicht. Oder ein anderes Szenario wäre eher wünschenswert.

Die beiden Szenarien aus 2021 skizzieren KI-Zukünfte mit Blick auf die Frage, inwiefern KI-Systeme „Bewusstsein“ entwickeln könnten: In Szenario 1 entwickeln Maschinen tatsächlich echte Emotionalität und auch ein echtes Bewusstsein – und wir kriegen es gar nicht mit, weil wir denken, wir sind die Super-Techniker, die sogar Maschinen entwickeln, die Bewusstsein perfekt simulieren und imitieren – und dabei rutscht uns durch, dass tatsächlich etwas passiert und entstanden ist. Momentan spricht zwar nichts dafür, dass mit oder in der aktuellen Digitaltechnik, die wir jetzt haben, Bewusstsein in Maschinen entstehen könnte. Aber es ist für die Zukunft keinesfalls ausgeschlossen – und der technische Fortschritt geht weiter.

Weiterlesen nach der Anzeige

In diesem Szenario 1 entsteht also irgendwann Bewusstsein in nichtlebender Materie, wir sprechen von synthetischer Phänomenologie. Dies grundsätzlich auszuschließen wäre wissenschaftlich gewagt, weil es für einen solchen Ausschluss keine belastbaren Anhaltspunkte gibt – hierzu ist Bewusstsein selbst noch viel zu wenig verstanden. In diesem Szenario hätten wir auch in Fachkreisen intensiv diskutierte technikethische Probleme – denn wir würden in letzter Konsequenz leidensfähige Entitäten in die Welt setzen, ohne dies zu bemerken.

In Szenario 2 sieht es genau umgekehrt aus: Es entsteht niemals Bewusstsein in der Maschine, weil es grundsätzlich nicht entstehen kann. Viele Menschen sind von den beeindruckenden Leistungen von KI und auch der nahezu perfekten Imitation von Bewusstsein so verzaubert und überzeugt, dass sie der Maschine Bewusstsein zuschreiben, also gewissermaßen „anheften“, und sich selbst so verhalten als seien die Maschinen tatsächlich bewusst – was sie aber nicht sind. In diesem Szenario 2 wäre es erwartbar, dass sich Aktivisten finden, die sich für die Rechte der vermeintlich bewussten KI-Systeme stark machen, was in echten Regulierungen und Gesetzgebungsverfahren mündet zu etwas, was es nicht gibt.

Solche Fehleinschätzungen sind ein wichtiges Thema in der Technikfolgenabschätzung – und mit Blick auf die Technikgeschichte kein ganz neues Phänomen. Und wenn Emotionen ins Spiel kommen, wird die Sache nüchtern betrachtet nicht besser. Die Liebe zu Dingen ist durchaus verbreitet, sei es zu architektonischen Objekten wie der Berliner Mauer, zu Fahrzeugen, technischen Geräten und Alltagsgegenständen bis hin zu Waffen. Mit dieser Objektophilie verhält es sich bei Künstlicher Intelligenz aber etwas kniffliger, weil KI typischerweise nicht als vergegenständlichtes abgeschlossenes Objekt auftaucht. Sie ist versteckt hinter irgendeinem Bildschirm, in vernetzte Geräte integriert, dabei durchaus erlebbar, aber nicht unbedingt unmittelbar dingfest zu machen. Genau genommen handelt es sich um ein altes Grundmuster, das nun in neuem Gewand und neuem Level bedient wird, extrem verstärkt durch eine Geschwindigkeit, die zu nahezu verzögerungsfreien immersiven Erlebnissen führt. Heute können sich Menschen in einer real erscheinenden technischen Illusion verlieren. Die Komplexität dahinter kann für die meisten gar nicht mehr durchschaut werden.

Ist ChatGPT eine Resonanzmaschine?

Könnte man meinen. Ich sehe ChatGPT und ähnliche Angebote etwas nüchterner als Vorhersagemaschinen, die durch statistische Optimierung und algorithmischen Feinschliff Antworten geben, die möglichst gut ankommen sollen. Man könnte sie auch einfach Antwortmaschinen nennen. Zu Resonanz gehört aber noch etwas mehr.

Bei ChatGPT erleben viele so etwas wie eine intime Brieffreundschaft, in der man auch etwas von sich preisgibt. Und wer das heute macht, muss vielleicht irgendwann lernen, dass all diese Protokolle, die momentan vertraulich wirken können, irgendwann mal durch einen unglücklichen Unfall frei verfügbar sein können. Und dann weiß mein Nachbar, womit ich mich vor ein paar Jahren beschäftigt habe, woraus ganz andere Resonanzen entstehen könnten.

Tatsächlich ist es für manche Menschen zu bestimmten Themen leichter, eine Maschine zu fragen, als irgendeinen Coach, Psychologen oder einen Freund, der vielleicht gerade gar nicht verfügbar ist. Die Maschine sagt auch nicht: Jetzt reicht es, ich habe keine Lust mehr oder ich bin jetzt müde. ChatGPT steht permanent bereit und kann, wenn man das will und solange man Strom und einen Internetanschluss hat, auch liefern, liefern, liefern – das hört nie auf. Der Chatbot ist jederzeit verfügbar. Resonanz in tieferem Verständnis lebt aber von Nichtverfügbarkeit, davon, dass etwas nicht erzwingbar oder kontrollierbar ist, wie echte Begegnungen, Liebe, Kreativität oder Naturerfahrungen. Die Differenz zwischen der Nutzung eines leistungsstarken Werkzeugs und intersubjektiven Beziehungen ist mehr als nur ein kleiner Unterschied.

Für Menschen, die an Selbstreflexion interessiert sind, kann die Chat-Maschine ein nützlicher Beschleuniger sein. So kann ich ChatGPT und andere Sprachautomaten in Dialogen danach fragen, was ich vergessen oder übersehen habe. Wo sind meine blinden Flecken? So kann ich mit maschineller Unterstützung versuchen, eigene Denklücken zu identifizieren. Die Antworten der Maschine können mich weiterbringen. Vielleicht auch an den Stellen, wo man selbst sonst gar nicht so gern hinguckt – und um die auch mancher Gesprächspartner einen Bogen schlagen könnte.

Hierzu kann ich der KI auch Rollen vorgeben. Etwa: kritisiere meine Aussagen in diesem Dialogverlauf aus der Perspektive einer Expertin für eine fundierte Gegenposition, die ich selbst ganz sicher nicht vertrete. Und dann bekomme ich vielleicht den Kopf gewaschen und Dinge zu lesen, die mir gar nicht gut gefallen, was der Maschine aber egal ist, weil sie keine Emotionen empfindet. Diese Schonungslosigkeit kann ich mit den neuen Tools instrumentell herbeiführen und mich selbst konfrontieren, was enorm hilfreich sein kann – und in diesen Momenten geht es nicht um Resonanz zu und mit anderen, sondern um eigene Klarheit.

Wie wird sich die Mensch-Maschine-Beziehung weiterentwickeln?

Für den allergrößten Teil der Menschen werden Mensch-Maschine-Kooperationen zur Normalität werden. Die Technik wird von uns weiter in den Alltag eingebettet und gesellschaftlich adaptiert. Wir kennen das historisch vom Radiogerät, dem Telefon, von Kühlschränken, Waschmaschinen, dem Haartrockner, dem automatischen Hoftor, dem Personal Computer, von Fahrscheinautomaten, dem Cell Phone und von All-in-One-Küchengeräten mit mobile App. Am Anfang ist das ganz neu und wird auch ein bisschen hochgejubelt, dann trennen sich Spreu und Weizen, massentaugliche und hochwertige Lösungen setzen sich durch, Technikeinsatz geht in den Alltag ein, und zwischenzeitlich kommen schon die nächsten Trends.

KI bringt im Mensch-Maschine-Verhältnis zurzeit einiges durcheinander, da die Technik nicht mehr nur ein aktiver mechanischer Mitspieler ist, sondern auch Lieferant von Inhalten, von begründeten Vorschlägen und extrem schneller, datengetriebener Automatisierungen. Was in den 1990er-Jahren unbeholfen als „Kollege Computer“ geframed wurde, ist heute vielerorts eine Mensch-Maschine-Kooperationsstruktur. Wir befinden uns in einer ähnlichen Situation wie bei der Einführung von Desktop-Publishing-Systemen Ende der 1980er-Jahre. Nicht die DTP-Systeme haben die Drucksetzer verdrängt, sondern jene Drucksetzer, die DTP verwendeten, haben die Drucksetzer verdrängt, die kein DTP genutzt haben. Die Mensch-Maschine-Beziehung ist hier funktional, die Digital-Maschine ist hier eine effektive Arbeitsumgebung.

Bei der KI-Maschine sind nun viele Dimensionen deutlich weiter ausgeprägt. Die meisten Menschen lernen jetzt im Alltag langsam auch durch kleine Fehlschläge, wie man mit diesen neuen Technologien umgehen und wie man sie sich zunutze machen kann. Dazu zählen neben aller Begeisterung natürlich auch Enttäuschungen. Das gehört dazu. Hilfreich für den und die Einzelne ist, die Dinge selbst auszuprobieren und zu schauen, wo die Technik gerade steht und was sie individuell nützt.

Welche gesellschaftliche Wirkung erwarten Sie mittel- und langfristig?

Mittelfristig rechne ich mit einer sehr starken Entromantisierung der KI. Der Umgang mit KI wird zur Normalität werden. Schon in wenigen Jahren dürfte KI sehr unspektakulär sein – weil sie lebensweltlich dazu gehört.

Sicherlich wird es immer kuriose Stories geben. Einzelgeschichten, in denen jemand seinen Roboter heiratet, gewiss wird es auch vereinzelt Menschen geben, die klandestin einen KI-Fetisch entwickeln. Mit Blick auf das große Ganze, eine lebendige, freiheitliche und produktive Gesellschaft, ist das technikhistorisch aber nicht ungewöhnlich. Und sicher wird es auch Gegentrends geben. Menschen, die konsequent auf Smartphones oder KI verzichten.

Langfristig wird interessant und relevant werden, wann und mit welcher Geschwindigkeit der nächste Durchbruch kommt. Inwiefern auch pro-aktive KI- Antwortmaschinen akzeptiert werden, die uns Empfehlungen errechnet haben, und inwiefern man ihnen auch eigenaktiv Steuerungsmöglichkeiten übergeben kann und was das in Worst-Case-Szenarien bedeutet.


(mack)



Source link

Weiterlesen

Künstliche Intelligenz

Vier 4K-Displays, 220 Grad Sichtfeld: Hypervision zeigt kompakten VR-Prototyp


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Entwicklung von VR-Brillen verläuft widersprüchlich: Während die Auflösung der Displays in den vergangenen zehn Jahren deutlich zugelegt hat, stagnierte das Sichtfeld weitgehend. Die meisten Geräte bieten weiterhin rund 100 Grad horizontal wie vertikal. Systeme mit deutlich größerem Sichtfeld sind hingegen oft größer, schwerer und weniger alltagstauglich.

Weiterlesen nach der Anzeige

Dass es auch anders geht, demonstrierte Meta diesen Sommer mit neuen Forschungsprototypen, die ein weites Sichtfeld mit einem überraschend kompakten Design verbinden. Genau an dieser Schnittstelle bewegt sich auch das Start-up Hypervision, das seit 2020 an kommerziellen Linsensystemen für VR-Brillenhersteller arbeitet. Auf der Fachmesse UnitedXR Europe präsentierte das Unternehmen zwei Referenzdesigns, darunter eines, das schon bald in kommerzielle VR-Brillen einfließen könnte.

Das erste und technisch anspruchsvollere Referenzdesign heißt „Ultraslim 220“. Der Name ist Programm: Der Forschungsprototyp bietet ein verzerrungsfreies Sichtfeld von 220 Grad horizontal und 94 Grad vertikal bei überraschend platzsparendem Design.

Um dieses weite Sichtfeld zu erreichen, kombiniert das Referenzdesign zwei 4K-OLED-Mikrodisplays und zwei Pancake-Linsen pro Auge: ein Paar für das zentrale und ein Paar für das periphere Sichtfeld. Die Linsen sind im vorderen Bereich miteinander verklebt und weisen eine Naht auf, die beim Durchblick jedoch nahezu verschwindet, wie sich VR-Veteran Christian Steiner vor Ort selbst überzeugen konnte.


Der Ultraslim 220 Prototyp mit Linsen und Technik.

Der Ultraslim 220 Prototyp mit Linsen und Technik.

Das Referenzdesign Ultraslim 220 setzt auf verklebte Linsen.

(Bild: Christian Steiner)

Steiner zufolge sieht man die Naht beim Bewegen des Kopfes noch leicht, weil es an dieser Stelle einen schmalen Unschärfebereich gibt. Er geht jedoch davon aus, dass sich dies durch Verbesserungen am Prototyp beheben lasse. Beeindruckend sei auch die Schärfe des Bilds: Dank der zwei 4K-Displays pro Auge erreicht der Prototyp eine Pixeldichte von 48 Pixeln pro Grad, ein angesichts des weiten Sichtfelds außergewöhnlich hoher Wert.

Weiterlesen nach der Anzeige

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externes Video (TargetVideo GmbH) geladen.

Blick durch die Linsen der Ultraslim 220.

Die gleiche Architektur präsentierte Hypervision bereits vor drei Jahren. Neu am Ultraslim 220 ist, dass erstmals OLED-Mikrodisplays statt LCDs zum Einsatz kommen. Dies stellte eine Herausforderung für das Start-up dar, da OLED-Mikrodisplays deutlich kleiner sind und deshalb einer stärkeren optischen Vergrößerung bedürfen. Die geringe Größe bringt jedoch auch Vorteile mit sich: Sie ermöglicht ein kompakteres Brillengehäuse, auch wenn sich dies am rohen Versuchsaufbau der Ultraslim 220 nur erahnen lässt.


Schematische Darstellung der VRDom-Architektur.

Schematische Darstellung der VRDom-Architektur.

Die Ultraslim 220 zugrundeliegende optische Architektur im Querschnitt.

(Bild: Hypervision)

Ungewohnt für Christian Steiner ist, wie nahe die Linsen an den Augen zu liegen kommen. So nahe, dass sie die Wimpern berühren und Korrekturlinsen für Brillenträger unabdinglich machen. Ihm habe das Design noch einmal vor Augen geführt, wie weit das menschliche Sichtfeld tatsächlich ist und dass selbst 220 Grad nicht genügen, um es vollständig abzudecken. Auch wenn der periphere Bereich nur dazu diene, das Gefühl von Präsenz in VR zu vermitteln, steigere dies die Immersion dennoch erheblich.

In handelsüblichen Geräten wird dieses Linsensystem so bald nicht auftauchen. Mit Herstellungskosten von rund 10.000 US-Dollar ist das Referenzdesign in erster Linie für industrielle und militärische Anwendungen vorgesehen.

Das zweite auf der Messe präsentierte Referenzdesign „PanoVR1“ ist dank seiner einfacheren Architektur deutlich erschwinglicher und bietet technische Eigenschaften, die stärker auf die Bedürfnisse des Konsumentenmarkts zugeschnitten sind. Auch hier kommen Pancake-Linsen zum Einsatz.

Das horizontale Sichtfeld beträgt im Vergleich zwar nur 160 Grad, dafür ist das für die Immersion so wichtige vertikale Sichtfeld auf 120 Grad erweitert. Auch dieses Referenzdesign zeigte Hypervision bereits früher. Neu daran sind die 2,7K-LCD-Panels von TCL, die eine höhere Pixeldichte von 28 PPD ermöglichten und dank Local Dimming bessere Schwarzwerte bieten.


Das Referenzdesign PanoVR1 mit großen Linsen.

Das Referenzdesign PanoVR1 mit großen Linsen.

Das Referenzdesign „PanoVR1“.

(Bild: Christian Steiner)

Eine VR-Brille mit diesem Linsensystem würde Meta Quest 3 in gleich drei wichtigen Punkten schlagen: beim Sichtfeld, bei der Auflösung und beim Kontrast, der sich dank Local Dimming OLED-Niveau nähert. Da PanoVR1 LCDs statt OLED-Mikrodisplays nutzt, fällt der Aufbau nicht ganz so kompakt aus wie bei Ultraslim 220.

Um PanoVR1 zu einem marktfähigen Preis anbieten zu können, arbeitet Hypervision derzeit mit mehreren Partnern daran, die Grundlagen für eine Massenfertigung zu schaffen. Diese Vorbereitungen sollen im kommenden Jahr abgeschlossen werden. Eine Vermarktung des Linsensystems scheint damit nicht mehr allzu fern.

Eine VR-Brille mit Hypervision-Technik steht bereits in den Startlöchern: Das französische Start-up Lynx wird im Januar den Nachfolger seines Mixed-Reality-Headsets Lynx R-1 vorstellen und hat angekündigt, dass es über das bislang weiteste Sichtfeld aller autarken VR-Brillen verfügen wird. Laut Hypervisions Technikchef Arthur Rabner handelt es sich um ein anderes Linsensystem als PanoVR1, das kein ganz so weites Sichtfeld bietet. Das sei aber auch nicht nötig, weil das neue Lynx-Gerät auf Mixed Reality mit offener Peripherie setzt.

heise online XR-Briefing abonnieren

Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten.

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.

Ein weites Sichtfeld stellt autarke VR-Brillen vor deutlich größere Herausforderungen als PC-VR-Geräte. Durch die größere Bildfläche müssen erheblich mehr Pixel und Objekte gerendert werden. Das bringt mobile Chips schnell an ihre Grenzen und erhöht die Wärmeentwicklung: beides Faktoren, die autarke Geräte limitieren und Hersteller wie Meta davor zurückschrecken lassen, ein größeres Sichtfeld als bisher anzustreben.

Wie groß die erforderliche Rechenleistung ist, zeigt Metas Forschungsprototyp „Boba 3“ mit einem Sichtfeld von 180 Grad horizontal und 120 Grad vertikal, der in diesem Jahr auf der SIGGRAPH demonstriert wurde: Er wurde von einer RTX 5090 angetrieben. Ein besonders weites Sichtfeld dürfte daher noch lange Zeit PC-VR-Brillen vorbehalten bleiben.


(tobe)



Source link

Weiterlesen

Künstliche Intelligenz

Cloud: Zoff in Bayern wegen Milliardenauftrag an Microsoft ohne Ausschreibung


Die bayerische Staatsregierung steht wegen der geplanten Vergabe eines Rahmenvertrags an Microsoft im Wert von schätzungsweise fast einer Milliarde Euro über die nächsten fünf Jahre ohne vorherige Ausschreibung massiv in der Kritik. Die anstehende Entscheidung wird vor dem Hintergrund der gleichzeitigen Streichung zentraler Familienleistungen wie des versprochenen Kinderstartgeldes sowie des Familien- und Krippengeldes für Neugeborene als sozial- und haushaltspolitisch fragwürdig empfunden. Rund 144.000 Unterschriften bei einer Petition belegen das breite öffentliche Unverständnis über diesen Kontrast.

Weiterlesen nach der Anzeige

Am Samstag wollten Initiatoren des Ersuchens und Eltern in München demonstrieren, um ein Zeichen gegen die Politik der Staatsregierung zu setzen. In einem dringenden Appell an Ministerpräsident Markus Söder, Finanzminister Albert Füracker (beide CSU) und Digitalminister Fabian Mehring (Freie Wähler) fordert der Würzburger Professor Harald Wehnes, Sprecher des Präsidiumsarbeitskreises „digitale Souveränität“ der Gesellschaft für Informatik (GI), im Namen „besorgter Bürger, Wirtschaftsvertreter und der Zivilgesellschaft“, die Vertragsverhandlungen mit Microsoft unverzüglich auszusetzen. In dem heise online vorliegenden Brandbrief ist davon die Rede, dass der bevorstehende Beschluss auch ein kaum kalkulierbares strategisches Risiko für die digitale Handlungsfähigkeit des Freistaates darstelle.

Die Besorgnis wird durch die jüngste Entwicklung in der US-Außenpolitik und die neue US-Sicherheitsstrategie verstärkt, die einseitige Maßnahmen der Vereinigten Staaten betont und europäische Interessen missachtet. Die Appellanten halten es vor diesem aktuellen außen- und sicherheitspolitischen Hintergrund für höchst problematisch, die digitale Kerninfrastruktur Bayerns und sensible Daten einem US-Konzern anzuvertrauen, der Weisungen der Trump-Regierung unterliege.

Die im November bekannt gewordenen Pläne, mit denen die Landesregierung die Unterzeichnung eines Enterprise Agreements (EA) für Microsoft 365 zur Nutzung von Cloud-Diensten für Behörden vor Jahresende anstrebt, rufen verstärkt IT-Experten auf den Plan. So empfiehlt der Fachbereich Sicherheit der GI in einer Stellungnahme, vor Abschluss oder Konsolidierung eines möglichen Rahmenvertrags mit dem Softwareriesen die Kriterien des Rahmenwerks für souveräne Clouds der EU-Kommission anzulegen. Es gelte, eine gemeinwohlorientierte Digitalisierung und die strategische Resilienz im Auge zu behalten.

GI-Sprecher Daniel Loebenberger mahnt zur Vorsicht: „Natürlich sind pragmatische Lösungen in der Praxis oft erstrebenswert oder sogar nötig.“ Diese dürften aber nicht „in weitere, im Ernstfall unkontrollierbare Abhängigkeiten“ münden.

Die Informatiker weisen darauf hin, dass die Beauftragung eines US-Hyperscalers ohne eine Ausschreibung auf Landes-, Bundes- oder EU-Ebene den Zielen der EU-Kommission und der Bundesregierung widersprächen. Damit würden die Möglichkeiten für die Förderung europäischer Anbieter, einer rechtssicheren Speicherung und Verarbeitung sensibler Daten und der Widerstandsfähigkeit gegenüber Software- und Update-Verfügbarkeiten untergraben.

Weiterlesen nach der Anzeige

Der Fachbereich wirbt stattdessen dafür, beim Aufbau der digitalen Infrastruktur in bayerischen Behörden auf strategische Resilienz zu setzen und den Datenschutz zweifelsfrei zu gewährleisten. Nur so könnte das Vertrauen der Bürger in die Verwaltung gewährleistet werden.

Vertreter der bayerischen IT-Wirtschaft und der Open-Source-Szene warnen zudem in einem offenen Brief vor einem Abfluss von Steuergeldern ohne regionale Wertschöpfung und der Ausschaltung des Wettbewerbs. Sie rügen einen „Irrweg“. Das Vorhaben widerspreche dem EU-Trend und entziehe der heimischen IT-Wirtschaft Gelder. Es drohten mit Blick etwa auf Fälle beim Internationalen Strafgerichtshof eklatante Risiken nicht nur rund um den Datenschutz. Die Unterzeichner fordern stattdessen „Eigenbau in Transparenz“ und die konsequente Nutzung europäischer Open-Source-Alternativen.


(nen)



Source link

Weiterlesen

Beliebt