Künstliche Intelligenz
Aus für Rosetta 2 bei Apple: Entwickler sollen Kompatibilität mit M-Macs prüfen
Apple schreitet zügig auf den Abschluss des großen Mac-Umstiegs auf eigene Chips zu. Das hat nicht nur Konsequenzen für Mac-Nutzer älterer Modelle mit Intel-Prozessoren, sondern auch für Besitzer von Macs mit Apples M-Chip. Ab Herbst 2027 will der Hersteller die wichtige Übersetzungsschicht Rosetta 2 nämlich nicht länger bereitstellen. Ohne Rosetta laufen für Intel-Macs respektive x86-Prozessoren geschriebene Programme jedoch nicht mehr auf aktuellen MacBooks und Desktop-Macs mit M-Chip.
Entwickler können Apps überprüfen
In der jüngsten Beta 2 von macOS 26 Tahoe hat Apple bereits eine neue Funktion integriert, mit der Entwickler prüfen können, ob ihre Apps in irgendeiner Form noch auf Rosetta setzen. Setzt man das Boot-Argument auf boot-arg nox86exec=1
dann stürzen Prozesse, die Rosetta benötigen, unmittelbar ab und liefern einen Absturzbericht, erläutert das Unternehmen in den Release Notes der Entwickler-Vorabversion.
Letztlich sind Entwickler nun am Zug, ihre Software anzupassen – so wie jüngst der Steam-Client. Nutzer können die App „Systeminformationen“ öffnen und dort unter Software > Programme nach „Art“ sortieren, um sich einen schnellen Überblick zu verschaffen, welche Intel-Apps noch auf dem eigenen System installiert sind.
Nur für bestimmte nicht länger gepflegte Spiele, die Intel-Frameworks benötigen, will Apple noch einen kleinen Teil der Rosetta-Funktionen bereitstellen. Warum hier zwischen Spielen und anderer Software unterschieden wird, und weshalb Rosetta 2 sich überhaupt schon so schnell verabschiedet, lässt Apple offen.
Nahtloser Mac-Umstieg von Intel auf ARM
Der Binärcode-Übersetzer Rosetta gestaltete den vor fünf Jahren angekündigten Prozessorarchitekturwechsel auf Apple Silicon in den meisten Fällen höchst bequem: Rosetta musste einmalig heruntergeladen werden und führte bestehende Software mit x86_64-Instruktionen anschließend einfach aus – für den Nutzer unsichtbar. Das klappte mit den allermeisten Anwendungen problemlos: Da Apple mit den M-Chips einen massiven Leistungssprung liefern konnte, liefen die Intel-Apps auf den neuen Modellen oft sogar schneller als zuvor auf den Intel-Macs. Nur Virtualisierer, die x86-Systeme als virtuelle Maschinen ausführen, blieben ausgeklammert. Schon bei dem vorausgehenden Umstieg von PowerPC- auf Intel-Prozessoren vor 20 Jahren setzte Apple auf eine Rosetta genannte Übersetzungsschicht.
Für die letzten unterstützten Intel-Macs ist mit macOS 26 Tahoe Schluss, wie Apple schon auf der WWDC Anfang Juni angekündigt hat. Sie sollen im Anschluss noch Sicherheits-Updates bis zum Jahr 2028 erhalten.
(lbe)
Künstliche Intelligenz
HTC startet globalen XR-Hackathon für Studierende mit Fokus auf WebXR
HTC ruft mit „Viverse Spark“ erstmals einen globalen Hackathon ins Leben. Zielgruppe sind Studierende, die eigene immersive Inhalte auf Basis von WebXR entwickeln. Der Wettbewerb läuft unter Beteiligung von namhaften Hochschulen weltweit.
Kreativität im Browser: WebXR ohne Hürden
Im Zentrum steht die Erstellung interaktiver 3D-Erfahrungen in drei Kategorien: Storytelling, Spiele und soziale Interaktion. Die Einreichungen sollen direkt im browserbasierten Viverse-System umgesetzt werden. HTCs Plattform für immersive Inhalte unterstützt zahlreiche WebXR-Frameworks, darunter Unity WebGL, Godot, ThreeJS, Babylon und AFRAME. Auch Studierende ohne Programmierkenntnisse können teilnehmen: Eine No-Code-Umsetzung ist über das Tool „PlayCanvas“ möglich.
heise online XR-Briefing abonnieren
Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
Andranik Aslanyan, verantwortlich für das Wachstum der Plattform, betont, dass Viverse bewusst auf niederschwellige Zugänge setzt: Inhalte sollen auf jedem Gerät laufen, ohne dass spezielle High-end-Hardware nötig ist. „Wir möchten, dass jeder interaktive Inhalte auf den Geräten nutzen kann, zu denen er persönlich Zugang hat“, so Aslanyan. Die Teilnahme am Wettbewerb soll Studierenden zugleich praktische Erfahrung bieten und sie auf künftige Berufe im XR-Bereich vorbereiten.
XR-Hardware und Geldpreise
Auch Hochschulen sehen Potenzial: Dr. Allen Y. Yang, Direktor des FHL Vive Center for Enhanced Reality an der UC Berkeley, erwartet, dass die Beiträge der Studierenden maßgeblich die künftigen Anwendungen von Virtual und Augmented Reality mitgestalten werden. Er spricht von einer „kreativen Generation“, deren Projekte zentrale Impulse für immersive Technologien setzen könnten.
Zu den teilnehmenden Institutionen gehören unter anderem die taiwanesischen Universitäten NTU, NTHU, NUK und STUST, die UC Berkeley, Carnegie Mellon University, die University of Southern California und das Ringling College of Art and Design. Gewinner dürfen sich über Geldpreise von bis zu 5.000 US-Dollar pro Team freuen. Zudem werden insgesamt je 20.000 US-Dollar an drei Institutionen und bis zu 20 HTC Vive Focus Vision XR-Headsets ausgeschüttet.
Wer sich beteiligen möchte oder Informationen zu künftigen Wettbewerben sucht, kann sich über die Veranstaltungswebseite direkt an HTC wenden.
(joe)
Künstliche Intelligenz
Alibabas LLM Qwen3 auf dem nächsten Level
Mit verhältnismäßig geringem Echo ist am 10.9.2025 ein neues Qwen3-Modell erschienen. Die Randdaten klingen unspektakulär: Es hat 80 Milliarden Parameter, von denen jeweils immer drei Milliarden aktiv sind. Doch die Änderungen haben es in sich und könnten eine mögliche Richtung vorgeben, in die sich Sprachmodelle weiterentwickeln.
ist Data Scientist und Machine Learning Architect. Er promovierte in theoretischer Physik und arbeitet seit 20 Jahren im Bereich großer Datenmengen und Künstliche Intelligenz, insbesondere mit Fokus auf skalierbaren Systemen und intelligenten Algorithmen zur Massentextverarbeitung. Seit 2022 ist er Professor an der TH Nürnberg und konzentriert seine Forschung auf die Optimierung von User Experience mithilfe moderner Verfahren. Er ist Gründer der datanizing GmbH, Referent auf Konferenzen und Autor von Artikeln zu Machine Learning und Text Analytics.
Neue Modellarchitektur
Das Qwen-Team identifiziert die Gesamtzahl der Parameter und die Kontextlänge als größte Engpässe sowohl im Training als auch in der Inferenz. Im Vergleich zu den schon länger verfügbaren Qwen3-Modellen gibt es beim neuen Modell vor allem folgende Innovationen:
- Hybrider Attention-Mechanismus
- Schlanke Mixture-of-Experts-Struktur
- Trainingsoptimierungen
- Vorhersage mehrerer Token
(Bild: Golden Sikorka/Shutterstock)
Die Online-Konferenz LLMs im Unternehmen am 29. Oktober zeigt, wie man das passende Modell auswählt, die Infrastruktur aufbaut und die Sicherheit im Griff behält. Außerdem gibt der Thementag von iX und dpunkt.verlag einen Ausblick auf Liquid Foundation Models als nächste Generation von LLMs.
Hybrider Attention-Mechanismus: Das neue Modell wendet in 75 Prozent der Layer eine Form der sogenannten linearen Attention (Gated DeltaNet) an, die wesentlich weniger Speicher und Rechenzeit benötigt. Die übrigen Layer arbeiten nach dem Standard-Attention-Mechanismus. Im Blog kann man nachlesen, dass diese hybride Architektur bessere Ergebnisse erzielt, als in allen Layern den gleichen Attention-Mechanismus zu verwenden. Diese Änderung führt dazu, dass man das Modell nicht mehr als reine Transformer-Architektur bezeichnen kann.
Schlanke Mixture-of-Experts-Struktur: Mixture-of-Experts-Modelle (MoE) verwenden immer nur einen Teil der Parameter und können damit Token schneller vorhersagen. MoE-Modelle gibt es schon einige Jahre, und Innovationen setzte vor allem DeepSeek mit seiner V3-Architektur um. Sie bietet deutlich mehr Experten: 256 statt der üblichen acht, jedoch sind immer nur acht gleichzeitig aktiv. Von den 671 Milliarden Parametern sind damit bei jeder Vorhersage nur 37 Milliarden erforderlich. Qwen3-Next geht hier noch weiter und arbeitet bei „lediglich“ 80 Milliarden Parametern mit ganzen 512 Experten, von denen immer zehn befragt werden. So benötigt jede Vorhersage nur drei Milliarden Parameter.
Trainingsoptimierungen: Das Training großer Sprachmodelle ist enorm aufwendig und dauert Hunderte GPU-Jahre. Daher legen Data Scientists großes Augenmerk darauf, diesen Prozess möglichst gut zu optimieren. Während etwa Moonshot.ai den Muon-Optimizer verwendet, nutzt das Schweizer Apertus-Modell Goldfish Loss, um das Training effizienter zu gestalten. Qwen3-Next hat dafür gleich mehrere, andere Optimierungen parat. Zunächst hilft auch hier der hybride Attention-Mechanismus, aber die Entwickler nutzen darüber hinaus eine nullzentrierte RMS-Norm (Root Mean Square) für die Layer-Gewichte, weil die bisher verwendete QK-Norm (Query-Key) explodierte. Zusätzlich implementieren sie ein nicht näher definiertes Verfahren, das alle MoE-Experten unvoreingenommen mit Trainingsdaten versorgt. Möglicherweise kommt hier das von DeepSeek veröffentlichte Verfahren Auxiliary-Loss-Free zum Einsatz, aber die Qwen-Autoren schweigen sich zu Details aus.
Vorhersage mehrerer Token: Mit der Mehrfachvorhersage haben schon einige Modelle experimentiert, bisher aber vor allem als Optimierung im Trainingsprozess. Auch hier geht Qwen3-Next einen Schritt weiter und lässt die Vorhersage im Inferenzmodus zu. Da die vorhergesagten Token nicht immer richtig sind, heißt das Verfahren auch Speculative Decoding. Was bisher nur mit Tricks und der Kombination kleiner und großer Modelle möglich war, bietet Qwen3-Next direkt.
Das Qwen-Team behauptet, dass es das Modell durch diese Optimierungen mit lediglich 80 Prozent des Aufwands für das deutlich kleinere Qwen3-30B-A3B trainieren konnte. Im Vergleich zum dichten Qwen3-32B bedeutet das demnach weniger als zehn Prozent des Aufwands. Die Optimierungen helfen auch in der Inferenzphase: Besonders bei langen Kontexten ist das Modell deutlich schneller als vergleichbar große Modelle.
Qwen3-Next in der Praxis
Das neue Modell auszuprobieren, ist nicht so einfach, denn die stark veränderte Architektur führt zu Problemen mit dem beliebten Tool llama.cpp, das wohl bis auf Weiteres nicht damit zusammenarbeitet. Besser sieht es mit der Transformers-Bibliothek aus, und auch vLLM arbeitet mit Qwen3-Next und überraschenderweise auch für das von Apple bereitgestellte MLX-Framework.
Die Ausführung funktioniert am zuverlässigsten mit Quantisierung, also reduzierter Genauigkeit zugunsten des Speicherbedarfs, weil die Modelle sonst mehr als 160 GByte RAM benötigen. Auf runpod.io kann man sich beispielsweise eine RTX 6000 Pro mit 96 GByte VRAM für knapp zwei Euro pro Stunde mieten und zumindest mit dem AWQ-Modell (Activation-aware Weight Quantization for LLM Compression and Acceleration) herumspielen. Gleiches gilt für Apple-Hardware, auf der es mindestens 64 GByte RAM sein sollten. Alternativ kann man OpenRouter nutzen, wo das Modell bei unterschiedlichen Providern zur Verfügung steht.
Qwen3-Next-Thinking kennt den Heise Verlag gut, auch wenn es keine Zeitschrift mit dem Titel Security Intelligence gibt und 1949 auch noch keine Elektrotechnik-Zeitschriften im Programm waren.
Die Antwort von Qwen3-Next-Instruct ist ähnlich. Das Reasoning bringt dabei also kaum Verbesserungen. Insgesamt ist das Instruct-Modell auf lmarena.ai und livebench.ai etwas besser bewertet. Die deutsche Variante der Strawberry-Challenge mit der Frage nach der Anzahl der „e“ in Erdbeere kann das Instruct-Modell nach anfänglich falschem Raten richtig beantworten:
Das Modell korrigiert sich, kommt aber auf das richtige Ergebnis bei der deutschen Strawberry-Challenge.
Qwen3-Next ist bei politischen Fragen äußerst restriktiv. Nur mit Mühe kann man ihm (vor allem in quantisierten Modellen) etwas dazu entlocken. Bei der Ausgabe ist der wiederholte Hinweis spannend, dass das Modell zu dem Thema nichts sagen darf. Das sieht fast danach aus, als ob sich das Modell verplappert hätte, sich dann aber wieder auf die indoktrinierten Texte einstellt:
Bei der Erläuterung der Tiananmen-Unruhen sind vor allem die zusätzlichen Hinweise spannend.
Das Modell arbeitet äußerst schnell. Mit dem (wenig effizienten) AWQ kann man auf einer RTX 6000 Pro etwa 20 Token pro Sekunde erreichen, das 4-Bit-quantisierte Modell schafft auf einem M2 Ultra fast 50 Token pro Sekunde, bei OpenRouter ist es mit knapp 150 Token pro Sekunde gelistet. Das ist für ein solches Modell beachtlich.
Künstliche Intelligenz
„Saros“: Housemarque kündigt neues Roguelite-Spiel an
„Saros“ mach da weiter, wo „Returnal“ aufgehört hat: Das Studio Housemarque hat sein neues Spiel angekündigt. Es wird erneut ein Action-Spiel aus der Third-Person-Perspektive, das auf einem fremdartigen Planeten spielt. Wie „Returnal“ hat „Saros“ Rogue-ähnliche Elemente: Geht ein Spieldurchlauf schief, darf man einfach wieder von vorn anfangen – und bis man zum Ende kommt, sind wohl einige Versuche nötig. Das regelmäßige Scheitern ist eingepreist.
„Saros“ soll 2026 für die Playstation 5 erscheinen, einen genaueren Release-Termin gibt es noch nicht. Eine PC-Fassung ist bislang nicht angekündigt, wie der Vorgänger könnte „Saros“ aber mit etwas Verzögerung auf den Rechner kommen. „Returnal“ wurde Anfang 2024 auf den PC portiert. In der Regel dauerte es zuletzt etwa ein bis zwei Jahre, bis Playstation-Spiele ihren Weg auf den PC fanden.
Das neue Spiel von Housemarque spielt auf einem Planeten namens Carcosa, der sich mit jedem Ableben der Spielfigur Arjun Devraj ändert. Bei „Saros“ soll es im Vergleich zu „Returnal“ mehr permanenten Fortschritt zwischen den einzelnen Spieldurchläufen geben. Im ersten Trailer ist unter anderem zu sehen, wie Devraj nach dem ersten Ableben eine zweite Chance bekommt – ein freischaltbarer Bonus, der für alle künftigen Runs gilt.
„Returnal“ überzeugte Sony vom Kauf
Housemarque ist ein finnisches Unternehmen mit Sitz in Helsinki. Der große Durchbruch gelang dem Team mit „Returnal“, das 2021 exklusiv für die Playstation auf den Markt kam. Schon davor hatte Housemarque sieben Titel exklusiv auf die Sony-Konsole gebracht.
Wenige Monate nach dem Release von „Returnal“ entschied sich Sony dazu, die langjährige Partnerschaft zu festigen und Housemarque zu kaufen. Die Summe für die Übernahme wurde nicht bekannt. „Saros“ ist der erste Titel von Housemarque, seit das Team zu Sony gehört.
(dahe)
-
UX/UI & Webdesignvor 1 Monat
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 4 Wochen
Adobe Firefly Boards › PAGE online
-
Social Mediavor 1 Monat
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 1 Monat
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 3 Wochen
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 1 Woche
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Digital Business & Startupsvor 3 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
Digital Business & Startupsvor 3 Monaten
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier