Connect with us

Künstliche Intelligenz

Meta stoppt Batman VR-Nachfolger und zieht sich aus VR-Gaming zurück


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Meta zieht sich weiter aus der VR-Spieleentwicklung zurück. Wie das Branchenmagazin UploadVR berichtet, wird das geplante Sequel zu „Batman: Arkham Shadow“ nicht erscheinen. Gleichzeitig kommt es zu tiefgreifenden Umstrukturierungen bei den letzten verbliebenen internen Spielestudios. Das von Camouflaj entwickelte „Arkham Shadow“ gilt als eines der besten VR-Spiele überhaupt und ist ein Referenztitel für Metas VR-Brillen Quest 3 und Quest 3S. Ein Nachfolger soll dem Bericht zufolge intern bereits in Arbeit gewesen sein.

Weiterlesen nach der Anzeige

Allerdings sei nicht mehr Camouflaj selbst als Entwickler vorgesehen gewesen, sondern Sanzaru Games, das zuvor die beiden Titel der „Asgard’s Wrath“-Reihe verantwortete. Sanzaru hat Meta jedoch im Rahmen einer Kündigungswelle komplett geschlossen. Auch bei Camouflaj, das 2024 noch Interesse an einer Fortsetzung geäußert hatte, gibt es erhebliche Einschnitte. Das Studio bleibt zwar formal bestehen, entwickelt jedoch künftig keine VR-Spiele mehr. Stattdessen soll das verbliebene Rumpfteam Tutorial-Inhalte für künftige Geräte wie eine mögliche Meta Quest 4 erstellen.

Ein weiterer Bericht von Android Central legt nahe, dass Meta auch Fördermittel für externe Studios gestrichen hat. Der Großteil der Förderungen, die Oculus Publishing im Rahmen des „Meta Horizon Start Program“ für Entwickler bereitgestellt hat, soll eingestampft worden sein. Bisher soll Meta 2026 insgesamt 60 Millionen US-Dollar in die VR-Spieleförderung gepumpt haben. Mehr soll es nicht mehr geben.

Metas Rückzug aus dem VR-Gaming soll unter anderem zu Entlassungen von etwa 70 Prozent der Mitarbeitenden bei Cloudhead Games geführt haben. Das Studio ist für den seit Jahren etablierten Rhythmus-Shooter „Pistol Whip“ verantwortlich. Der gut vernetzte YouTuber GamertagVR zitiert zudem interne Quellen, die von der Einstellung eines weiteren namhaften Quest-Exklusivspiels wissen wollen. Meta soll Skydance Interactive („Behemoth“, „The Walking Dead: Saints & Sinners“) mit einem VR-Spiel aus dem „Harry Potter“-Universum beauftragt haben. Offiziell bestätigt wurde ein solcher Titel bisher nicht.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

The Meta Situation Just Got Worse

Mit dem Aus von Sanzaru, Twisted Pixel („Marvel’s Deadpool VR“), Armature Studio („Resident Evil 4 VR“) und der erst fusionierten, dann zusammengeschrumpften Downpour Interactive und Camouflaj hat Meta innerhalb weniger Monate fünf der besten VR-Spielestudios überhaupt geschlossen. Nach aktuellem Stand bleiben nur noch drei interne Teams aktiv: Beat Games („Beat Saber“), BigBox („Population: One“) und Ouro Interactive, das sich ausschließlich auf Inhalte für die Social-VR-Plattform Horizon Worlds konzentriert. Damit dürfte klar sein, dass Meta auch für künftige VR-Headsets keine eigenen Exklusivtitel mehr produzieren dürfte und eher als Hardware- und Marketplace-Anbieter fungieren will.

Weiterlesen nach der Anzeige

heise online XR-Briefing abonnieren

Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten.

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.

Virtual Reality ist in Metas Prioritätenliste schon längst nach unten gerutscht und Kürzungen in den dafür zuständigen Abteilungen deuteten sich bereits vor Monaten an. Wie schwer es den VR-Anteil der Reality Labs nun getroffen hat, ist dennoch ein Schock für die gesamte Industrie. Über 1500 Stellen werden abgebaut, weitere Einschnitte könnten folgen. Allein 2025 sollen die Reality Labs ihr Budget um 30 Prozent kürzen – deutlich mehr als jede andere Abteilung des Konzerns.

Meta-Technikchef Andrew Bosworth kündigte intern an, künftig verstärkt auf Augmented Reality und KI-Wearables zu setzen. Virtual Reality hingegen werde nur noch reduziert unterstützt. Die VR-Sparte hatte Meta seit 2014 aufgebaut und mit Milliardenaufwand ausgebaut. Doch der erhoffte Erfolg auf dem Massenmarkt stellte sich nicht ein. Das Projekt Metaverse bleibt laut Bosworth zwar bestehen, soll künftig aber stärker auf mobilen Geräten stattfinden.


(joe)



Source link

Künstliche Intelligenz

Confer: Signal-Gründer startet sicheren KI-Chatbot


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Gespräche mit den gängigen Chatbots landen auf den Servern der Anbieter. Auch, wenn die Inhalte explizit nicht für das Training weiterer KI-Modelle genutzt werden, sind sie nicht Ende-zu-Ende-verschlüsselt. Das heißt, OpenAI, Anthropic, Google und Meta können im Zweifel mitlesen. Nun möchte der Gründer des Messengers Signal einen Chatbot anbieten, bei dem eben genau das nicht passiert. Confer soll Gespräche vor Einblicken anderer schützen. „Confer ist ein Dienst, mit dem du Ideen nachgehen kannst, ohne damit rechnen zu müssen, dass diese eines Tages gegen dich genutzt werden.“

Weiterlesen nach der Anzeige

Um den Chatbot nutzen zu können, muss man sich anmelden und einen Passkey erstellen. Der kann beispielsweise mittels Face ID, Fingerabdruck oder einer Geräte-PIN geschützt sein. Darüber werden weitere Schlüssel abgeleitet, die jedoch auf dem Gerät bleiben. Das heißt, auch Confer kann sie nicht einsehen oder nutzen. Chatanfragen werden also lokal verschlüsselt.


Confer ist wie die üblichen KI-Chatbots aufgebaut.

Confer ist wie die üblichen KI-Chatbots aufgebaut.

Confer ist wie die üblichen KI-Chatbots aufgebaut.

(Bild: Screenshot Confer)

Ein KI-Modell muss allerdings auf einem Server samt GPUs laufen. Jemand muss den Server betreiben. Entsprechend hat diese Person oder Organisation Zugriff. Deshalb setzt Confer auf Confidential Computing und eine Trusted Execution Environment (TEE). In dieser hardwaregestützt isolierten Umgebung wird der Code ausgeführt. Der Quellcode ist auf Github verfügbar.

Fraglich ist, welches KI-Modell Confer nutzt. Darauf gibt es keine abschließende Antwort. Man kann nur vermuten, dass es eines der offenen Modelle ist. Diese gibt es beispielsweise mit Llama von Meta, Gemma von Google oder vom französischen Mistral.

In einem Blogbeitrag erklärt Marlinspike die Funktionsweise der Verschlüsselung. In einem weiteren Beitrag warnt er auch vor der Nutzung von KI-Chatbots beziehungsweise vor deren Anbietern. Man gebe seine Gedanken preis. Die Anbieter würden diese garantiert speichern, für KI-Trainings nutzen und vor allem ganz sicher monetarisieren. Es ist kein Geheimnis, dass etwa OpenAI damit liebäugelt, Werbung in ChatGPT zu bringen, um dadurch Geld zu verdienen. Google und Meta haben den Vorteil, Werbung in anderen Diensten anbieten zu können und dadurch ausreichend Einnahmen zu haben, um auch KI-Dienste zu entwickeln und anzubieten.

Aber auch sie, so befürchtet Marlinspike, werden die Informationen nutzen, die wir Chatbots geben, um darauf aufbauend personalisierte Werbung auszuspielen. Er geht so weit, zu sagen, die Anbieter würden uns schon davon überzeugen, dass wir bestimmte Dinge brauchen – sie könnten dafür das gesamte Kontextwissen über uns, Gedanken und Sorgen, nutzen. „Es wird vergleichbar damit sein, dass eine dritte Partei den Therapeuten dafür bezahlt, uns von etwas zu überzeugen.“

Weiterlesen nach der Anzeige

Zudem warnt er vor dem Mitlesen durch Behörden und Strafverfolger – neben den Anbietern. Marlinspike schreibt: „Du bekommst eine Antwort; Sie bekommen alles.“


(emw)



Source link

Weiterlesen

Künstliche Intelligenz

Suizid, Abtreibungen: YouTube lockert Werberichtlinien für „kontroverse Themen“


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

YouTube lockert seine Monetarisierungsrichtlinien zu Inhalten, die die Plattform als „kontrovers“ klassifiziert. YouTuber, die sich mit Themen wie Suizid, Essstörungen, häuslicher und sexueller Gewalt sowie Abtreibungen beschäftigen, können mit ihren Videos künftig in vollem Umfang Werbegeld einnehmen, wenn sie sich an einige Regeln halten.

Weiterlesen nach der Anzeige

Über die Änderungen an den „Richtlinien für werbefreundliche Inhalte“ informiert Google in einem YouTube-Video. Darin beschreibt YouTube-Monetarisierungs-Chef Conor Kavanagh auch die Beweggründe hinter der im Januar eingeführten Änderung: „Wir möchten sicherstellen, dass Creator, die sensible Geschichten erzählen oder dramatisierte Inhalte produzieren, die Möglichkeit haben, Werbeeinnahmen zu erzielen – und dabei gleichzeitig die Wahlfreiheit der Werbetreibenden respektieren. Wir haben bei genauerer Betrachtung festgestellt, dass unsere Richtlinien in diesem Bereich zu restriktiv waren.“

YouTube listet in den Richtlinien verschiedene Gruppen von Inhalten auf, die nicht oder nur eingeschränkt mit Werbeeinblendungen monetarisiert werden können. Neben den „Kontroversen Themen“ gibt es etwa auch bei hasserfüllten oder stark sexualisierten Inhalten solche Einschränkungen. Hier ändert YouTube nichts – die Lockerungen betreffen nur die Inhaltsgruppe der „Kontroversen Themen“.

Ein Freifahrtschein ist die neue Youtube-Richtlinie nicht: Nach wie vor müssen sich YouTube-Nutzer verantwortungsvoll mit Themen beschäftigen, damit ihre Videos für volle Monetarisierung infrage kommen. Dazu zählt YouTube Videos, die versuchen, Ereignisse wie Suizid oder sexuelle Gewalt zu verhindern. Auch Videos, in denen „kontroverse Themen“ nur flüchtig erwähnt oder nicht drastisch dargestellt werden, sind laut den neuen Richtlinien für Werbung akzeptabel.

Lesen Sie auch

Damit will YouTube unter anderem dafür sorgen, dass journalistische Nachrichteninhalte oder Erfahrungsbeiträge monetarisiert werden dürfen. Auch mit dramatisierten Inhalten dürfen demnach Werbeeinahmen erzielt werden. YouTube nennt beispielhaft einen Film, in dem eine Person von einer Brücke springt.

Weiterlesen nach der Anzeige

Etwas vorsichtiger bleibt YouTube, wenn es um Kindesmissbrauch geht: Inhalte zu diesem Thema kommen weiterhin nur eingeschränkt oder gar nicht für Werbeeinnahmen in Frage. Werbung für oder Verherrlichung von Suizid oder Missbrauch sind für Werbung komplett tabu, genauso wie die „grausame Darstellung von selbstverletzendem Verhalten“ oder die „explizite Thematisierung von Essstörungen, die andere triggern oder zur Nachahmung verleiten kann.“

Mit seinen Richtlinienänderungen gibt YouTube seinen Kreativschaffenden etwas mehr Freiheit bei der Ausgestaltung ihrer Inhalte. Einige YouTuber haben es bislang aus Angst vor Demonetarisierung etwa vermieden, das Wort „Suizid“ überhaupt auszusprechen – das sollte fortan kein Problem mehr sein.

Google überarbeitet die Werberichtlinien für Inhalte auf YouTube sporadisch. Zuletzt waren die Richtlinien im Juli 2025 geändert worden, um Videos mit Profanität in den ersten sieben Sekunden nicht von Werbeeinnahmen auszuschließen.

In Deutschland finden Sie Hilfe und Unterstützung bei Problemen aller Art, auch bei Fragen zu Mobbing und Suiziden, bei telefonseelsorge.de und telefonisch unter 0800 1110111. Die Nummer gegen Kummer (Kinder- und Jugendtelefon) lautet 116 111. In Österreich gibt es ebenfalls kostenfreie Hilfsangebote, darunter speziell für Kinder der Kindernotruf unter 0800 567 567 sowie Rat auf Draht unter 147. Dieselbe Telefonnummer führt in der Schweiz zu Pro Juventute.


(dahe)



Source link

Weiterlesen

Künstliche Intelligenz

KI-Einsatz: Anspruchsvolle Aufgaben werden delegiert, Routine bleibt


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Rechnung vieler Chefs klingt einleuchtend: Die KI übernimmt Routineaufgaben, Mitarbeiter konzentrieren sich auf die komplexen Probleme. Doch die Realität sieht anders aus, wie eine neue Untersuchung des KI-Entwicklers Anthropic zeigt (PDF). In der Praxis werden an die Künstliche Intelligenz vor allem die anspruchsvollen Aufgaben delegiert – für die sie mit 66 Prozent eine deutlich niedrigere Erfolgsquote aufweist als bei einfachen Tätigkeiten. Die Folge: Viele Jobs werden „deskilled“, wie die Forscher es nennen. Die anspruchsvollen Teile verschwinden, die Routinearbeit bleibt.

Weiterlesen nach der Anzeige

Die Studie basiert auf zwei Millionen anonymisierten Nutzungsdaten aus November 2025, die per KI ausgewertet wurden. Anthropic hat dafür erstmals systematisch gemessen, nicht nur wofür Claude zum Einsatz kommt, sondern auch wie erfolgreich.

Als Beispiele für dieses „Deskilling“ nennt die Studie technische Redakteure und Reisebüroangestellte. Der technische Redakteur analysiert mithilfe der KI neue Entwicklungen, um den Bedarf für Überarbeitungen zu bestimmen, oder lässt bereits veröffentlichte Materialien überprüfen, um Revisionsbedarf festzustellen. Während er diese komplexen Aufgaben abgibt, kümmert er sich selbst weiterhin lieber um das Zeichnen von Skizzen oder die Produktion. Im Reisebüro verbleiben bevorzugt Aufgaben wie das Anfordern und Ausdrucken von Fahrkarten oder das Abwickeln von Zahlungen beim Menschen. Bei schwierigen Arbeiten wie das Planen von Reiserouten oder Kostenberechnungen wird hingegen die Hilfe der KI in Anspruch genommen.

Dies verblüfft auf den ersten Blick, weil Fehler in den Ergebnissen komplexer Aufgabenstellungen oft schwerer zu erkennen sind als bei einfachen Aufgaben. Und laut Anthropics Zahlen liegt die Erfolgsquote bei einfachen Aufgaben bei 70 Prozent, während sie bei komplexen Fällen auf 66 Prozent sinkt. Dass die Nutzer dies in Kauf nehmen, dürfte vor allem an der Zeitersparnis liegen. Aufgaben, die Menschen ohne KI etwa drei Stunden kosten würden, ließen sich mit KI in rund 15 Minuten erledigen, behauptet Anthropic.

Weiterlesen nach der Anzeige

Eine weitere Erkenntnis aus der Studie ist, dass KI die Ungleichheit zwischen reicheren und ärmeren Ländern und den jeweiligen Lebensverhältnissen weiter vergrößern könnte. In reichen Ländern mit höherem Pro-Kopf-Einkommen werde die KI vielseitig und auch für Privates eingesetzt, etwa in den USA, Japan und Südkorea. In ärmeren Ländern konzentriere sich die Nutzung auf Lernen und spezifische Arbeitsaufgaben.

So viel Nachdenklichkeit über Nebeneffekte der eigenen Produkte wirkt in der KI-Branche auf den ersten Blick ungewohnt. Doch Anthropic hat in der Vergangenheit bereits mehrfach Aufmerksamkeit damit erregt, dem euphorischen Grundton, der Big Tech sonst innewohnt, etwas Selbstreflexion entgegenzusetzen. Und oft auch mit dem Erfolg, dass der kleinere Mitbewerber von OpenAI (ChatGPT) und Google (Gemini) damit in die Schlagzeilen kam.


(mki)



Source link

Weiterlesen

Beliebt