Apps & Mobile Entwicklung
Project Helix: FSR Diamond soll (auf der Xbox?) AMD RDNA 5 voraussetzen

Microsoft und AMD arbeiten zusammen an der nächsten Xbox, aktuell als „Project Helix“ bekannt. Sie wird auf eine neue Generation FSR setzen, die seit gestern den Codenamen FSR Diamond trägt. Doch welche GPU-Architektur setzt FSR Diamond voraus? Ein Leaker behauptet: RDNA 5.
FSR Diamond nur für RDNA 5
Damit wäre zum einen geklärt, auf welche GPU-Architektur das Custom-SoC der nächsten Xbox setzen wird. Zum anderen könnte dieser Schritt bedeuten, dass AMD bei FSR in absehbarer Zukunft wieder einen harten Wechsel vollzieht: Ein neues FSR setzt neue Hardware voraus. So war es auch bei FSR 4 (Redstone) der Fall, das offiziell bis heute RDNA 4 und damit RX 9000 voraussetzt – auf der PlayStation 5 Pro mit RDNA 3+ kommt mit PSSR 2.0 aber offenbar ein zumindest vergleichbares Upscaling zum Einsatz.
Was heißt das für den Gaming-PC mit RDNA?
Doch es scheint verfrüht, von der Aussage des Leakers Kepler_L2, FSR Diamond sei exklusiv auf RDNA 5 verfügbar, direkt auf Gaming-PC-Hardware zu schließen. Denn AMD selbst sagt, FSR Diamond werde „nativ“ für die Hardware der Xbox entwickelt. Gut möglich also, dass die nächste FSR-Generation auf dem PC anders aussehen wird – und es eventuell keinen ganz so harten Schnitt geben wird. Andersherum scheint die GPU-Hardware von Project Helix sogar absolut identisch zu zukünftigen Desktop-GPUs von RDNA 5 zu sein. „Nativ für die Xbox“ würde dann in dem Fall auch nativ für die Desktop-Radeons bedeuten. Zumindest hardwareseitig. Bezüglich der Software-Seite kann dies aber natürlich anders ausschauen.
Denn FSR Diamond soll speziell für Project Helix optimiert und tief in das Game Development Kit integriert sein. Kernkomponenten sind:
- Built for next-gen neural rendering
- Next-gen ML-based upscaling
- New ML-based multi-frame generation
- Next-gen Ray Regeneration for RT & Path Tracing
Gut möglich ist, dass das Gesamtpaket RDNA 5 voraussetzt, einzelne Aspekte aber auch auf älteren Architekturen laufen. Aber um das abschließend zu beurteilen, ist die Informationslage noch extrem dünn.
Microsoft plant die neue Xbox ab 2027 als Alpha-Version an Entwickler zu liefern. Mit einem Marktstart ist damit nicht vor 2028 zu rechnen.
Apps & Mobile Entwicklung
Mehr Kontrolle für Nutzer: Windows Updates lassen sich künftig bis zu 35 Tage hinauszögern

Microsofts überarbeitetes Windows-Update-System erreicht das Insider Program. Tester im neuen Experimental-Kanal können mit einer Kalenderfunktion auswählen, wann ein Update installiert werden soll. Je nach Bedarf lässt sich die Installation künftig bis zu 35 Tage hinauszögern.
Dass Nutzer mehr Kontrolle erhalten sollen, ist bereits Mitte April durchgesickert. Nun nennt Microsoft die Details.
Update beliebig oft für 35 Tage aussetzen
Die 35 Tage sind demnach keine absolute Grenze. Bei Bedarf lässt sich die Update-Pause nochmals wiederholen, eine Grenze existiert nicht. Theoretisch lassen sich Windows Updates damit sogar unendlich hinauszögern.
Künftig sollen Nutzer zudem auch bei einem Neustart gezielt auswählen können, ob Windows 11 beim Neustart oder dem Herunterfahren ein Update einspielen soll. Wenn die Installation gewählt wurde, soll Windows 11 nach dem Neustart zudem schneller zu den zuvor geöffneten Apps zurückkehren.
Wie angekündigt lässt sich zudem das Nachladen von Updates im Installationsprozess überspringen. Ebenso bessert Microsoft nochmals bei den Update-Namen nach, damit sich etwa Treiber-Updates besser zuordnen lassen. Zudem soll der Update-Prozess im Hintergrund generell optimiert werden, sodass Nutzer möglichst wenig davon mitbekommen.
Update-Unterbrechungen als „major pain points“
Weniger Ablenkung im Windows-Alltag ist das Leitthema, unter das Microsoft diese Änderungen bei den Updates stellt. Erstaunlich ist der Schritt ohnehin. Es wirkte in den letzten Jahren nicht so, als wollte Microsoft nochmals bei den Pflicht-Updates ansetzen.
Nun aber der Wandel – zumindest ein Stück weit. Denn Microsoft empfiehlt nach wie vor dringend, Updates möglichst schnell einzuspielen. Dass Nutzer bis dato zu oft von Update-Installationen unterbrochen werden, bezeichnet der Konzern als eines der zentralen Ärgernisse – im englischen Blog-Beitrag spricht man konkret von „major pain points“. Diese will Microsoft mit der Runderneuerung von Windows 11 aber generell ausmerzen.
Apps & Mobile Entwicklung
Anthropic Claude Code: Bugcrawl-Funktion soll Fehler im Coding-Assistenten erkennen
Anthropic testet offenbar eine neue Funktion namens „Bugcrawl“ für Claude Code, die Entwickler dabei unterstützen soll, ihren Quellcode gezielt auf Fehler zu analysieren und passende Korrekturvorschläge zu erhalten. Wann das Werkzeug offiziell verfügbar sein wird, ist derzeit noch unklar.
Funktionsumfang sinnvoll erweitert
Wie das üblicherweise gut informierte Portal TestingCatalog berichtet, lässt sich das neue Tool über einen Eintrag in der linken Navigationsleiste aufrufen. Nach der Auswahl erscheint innerhalb der Anwendung eine eigene Oberfläche zur Wahl des gewünschten Repositorys, ergänzt durch den Hinweis, dass die Analyse eine hohe Anzahl an Tokens verbraucht. Anthropic empfiehlt daher, zunächst mit kleineren Projekten zu beginnen und die Nutzung schrittweise auf größere Code-Basen auszuweiten. Der deutliche Warnhinweis deutet darauf hin, dass der Agent umfangreiche Prozesse im Hintergrund ausführt.
Die Funktion fügt sich dabei nahtlos in die in den vergangenen Monaten eingeführten Erweiterungen wie Claude Code Security vom Februar und Claude Code Review aus dem März ein, wobei beide bereits auf Multi-Agenten-Analysen von Code setzen. Bugcrawl würde diese Entwicklung konsequent fortsetzen, indem der Fokus stärker auf allgemeiner Code-Qualität und Korrektheit gelegt wird und damit eine Lücke zwischen Sicherheitsprüfungen und klassischen Review-Prozessen auf Pull-Request-Ebene schließt.
Allgemeine Fehler sollen im Vordergrund stehen
Den Einschätzungen von TestingCatalog zufolge dürfte Bugcrawl in erster Linie darauf ausgelegt sein, generische Fehler im Code zu identifizieren und konkrete Verbesserungsvorschläge zu liefern. Der in Claude Code for Enterprises integrierte Bereich „Sicherheit“ konzentriert sich hingegen gezielt auf das Aufspüren von Schwachstellen im Quellcode. Sollte Anthropic diesen Ansatz weiter ausbauen, ließe sich das Konzept perspektivisch auch auf umfassende End-to-End-Tests übertragen: Dabei könnte Claude eine lokale Instanz der Anwendung starten, typische Nutzerabläufe durchspielen und mögliche Regressionen automatisch melden.
Als primäre Zielgruppe dürften Entwicklerteams im Team- und Enterprise-Umfeld gelten. Bis zu einer breiten Veröffentlichung könnte jedoch noch einige Zeit vergehen, da die Funktion bislang nicht in produktiven Builds enthalten ist.
Apps & Mobile Entwicklung
Tödlicher Amoklauf in Tumbler Ridge: OpenAI-CEO räumt Fehler bei Umgang mit ChatGPT-Konto ein

Zwei Monate nach dem tödlichen Amoklauf in Tumbler Ridge, einer Kleinstadt in der kanadischen Provinz British Columbia, bei dem acht Menschen ums Leben kamen, hat OpenAI-CEO Sam Altman die Gemeinde in einem offenen Brief um Verzeihung gebeten und Fehler im Umgang mit dem ChatGPT-Konto der mutmaßlichen Täterin eingeräumt.
Gefahr erkannt, aber nicht gebannt
In dem Schreiben an die Bürger der Stadt bezeichnet Altman es als schweren Fehler, die Polizei nicht über die auffälligen ChatGPT-Unterhaltungen informiert zu haben. Darin sei das Potenzial für reale Gewalt bereits früh erkennbar gewesen, weshalb das Konto der mutmaßlichen Täterin auch gesperrt wurde. OpenAI versäumte es jedoch, die zuständigen Behörden zu informieren, um den Anschlag möglicherweise noch verhindern zu können. Bei diesem soll die 18-jährige Jesse Van Rootselaar in ihrem Elternhaus sowie in einer nahegelegenen Schule insgesamt acht Menschen erschossen haben, darunter vier Schüler.
Auffälligkeiten bereits Mitte des letzten Jahres entdeckt
OpenAI hatte das betreffende Konto bereits im Juni 2025 gesperrt, nachdem in den Gesprächen mit dem Chatbot Szenarien mit Waffengewalt geschildert worden waren. Intern wurde zwar darüber diskutiert, die Polizei zu benachrichtigen, letztlich entschieden sich die Verantwortlichen jedoch dagegen. Erst nach der Tat wurden die vorhandenen Erkenntnisse an die kanadischen Behörden weitergegeben. „Es tut mir zutiefst leid, dass wir die Strafverfolgungsbehörden nicht auf das im Juni gesperrte Konto aufmerksam gemacht haben“, schreibt Altman in dem offenen Brief, der zunächst in der Tumbler RidgeLines veröffentlicht wurde. Darin führt er weiter aus, bereits im Vorfeld mit Bürgermeister Darryl Krakowa sowie mit David Eby, dem Premierminister von British Columbia, gesprochen zu haben. Einigkeit habe darin bestanden, dass eine öffentliche Entschuldigung notwendig sei, zugleich aber der Gemeinde Zeit zur Trauer eingeräumt werden müsse. Aus diesem Grund habe sich OpenAI erst jetzt an die Öffentlichkeit gewandt.
Neue Richtlinien erlassen
Premierminister Eby stimmte Altman in einem Beitrag auf dem Kurznachrichtendienst X zwar zu, dass eine Entschuldigung erforderlich sei, bezeichnete diese jedoch „angesichts des Leids, das den Familien von Tumbler Ridge zugefügt wurde, bei weitem nicht ausreichend“. Kurz nach der Tat kündigte OpenAI bereits an, seine Sicherheitsprotokolle zu überarbeiten. Künftig sollen unter anderem flexiblere Kriterien gelten, wann und unter welchen Umständen Konten an Ermittlungsbehörden gemeldet werden. Zudem wurden direkte Kontaktstellen zu kanadischen Strafverfolgungsbehörden eingerichtet. Vertreter der Behörden prüfen darüber hinaus die Einführung neuer Vorschriften für künstliche Intelligenz, konkrete Entscheidungen stehen jedoch noch aus.
OpenAI werde weiterhin den Fokus „darauf legen, mit allen Regierungsebenen zusammenzuarbeiten, um sicherzustellen, dass so etwas nie wieder passiert“, schließt Altman sein Schreiben.
OpenAI unter Druck
Der Amoklauf von Tumbler Ridge ist nicht der einzige Fall in dieser Hinsicht, mit dem sich OpenAI derzeit konfrontiert sieht. Nach einem Vorfall auf dem Gelände der Florida State University vor rund einem Jahr, bei dem zwei Menschen getötet und sechs weitere verletzt wurden, prüfen Ermittler nun ebenfalls, in welchem Umfang ChatGPT den mutmaßlichen Täter bei der Planung unterstützt haben könnte.
Zudem sieht sich das Unternehmen bereits seit Längerem mit Vorwürfen konfrontiert, seine Systeme könnten zu Selbstverletzungen, Suizid oder suizidalen Gedanken bei Jugendlichen beigetragen haben. Ende August 2025 reichten die Eltern des 16-jährigen Adam Raine Klage gegen OpenAI ein und warfen dem Unternehmen vor, ChatGPT habe ihren Sohn bei seinem Suizid unterstützt. In der Folge führte das Unternehmen neue Schutzmechanismen für Kinder und Jugendliche ein. Bereits im Jahr zuvor hatte eine Mutter aus Florida die Plattform Character.AI wegen einer mutmaßlichen Mitverantwortung am Suizid ihres 14-jährigen Sohnes verklagt.
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 2 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Social Mediavor 1 MonatVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
