Apps & Mobile Entwicklung
Arm Lumex CSS Platform: Neue C1-Kerne führen SME2 für AI direkt auf der CPU ein
Die Arm Lumex CSS Platform führt das C1-CPU-Cluster als Nachfolger der bisherigen Cortex-Kerne ein. Dabei setzt Arm durch die Bank auf die Scalable Matrix Extension 2 (SME2) für schnelles und effizientes AI direkt auf der CPU. Vier neue Kerne, ein neuer Interconnect und mehr schrauben die Leistung hoch und den Verbrauch runter.
Künstliche Intelligenz soll erwarteter Standard werden
Die Chip-IP-Entwickler von Arm vergleichen Künstliche Intelligenz mit der Einführung und späteren Etablierung von Touch-Bildschirmen auf mobilen Endgeräten. Ein ehemals neues Feature sei mittlerweile so sehr in der Gesellschaft verankert, dass junge Menschen ganz selbstverständlich jeden Bildschirm mit den Fingern bedienen wollen. Diese Veränderung in der Interaktion mit Geräten stehe Arm zufolge auch dem Einsatz Künstlicher Intelligenz bevor. AI werde sich wie Touch in der Gesellschaft verankern und zu einem Feature entwickeln, das Anwender schlichtweg erwarten.
Lumex folgt auf Cortex
Die passende Hardware ermöglicht das Unternehmen mit der neuen Arm Lumex CSS Platform. Diese folgt auf die letztjährige CSS for Client (Compute Subsystems for Client), die unter anderem aus den CPU-Kernen Cortex-X925, A725 und A520 Refresh sowie den GPUs Immortalis-G925, Mali-G725 und Mali-G625 bestand.
Die neuen Namen der Plattformen
Dass Arm zu neuen Namen wechseln wird, hatte das Unternehmen bereits im Mai bekannt gegeben. Was über Jahrzehnte unter dem Namen „Cortex“ vermarktet wurde, heißt mit der neuen Generation „Lumex“. Mit „Niva“ soll später auch eine eigene PC-Plattform folgen.
- Arm Neoverse for infrastructure
- Arm Niva for PC
- Arm Lumex for mobile
- Arm Zena for automotive
- Arm Orbis for IoT
C1 Ultra, Premium, Pro und Nano
Von dem Neustart abgeleitet hat Arm den Zähler für die Bezeichnungen der einzelnen Lösungen innerhalb der Plattform zurückgesetzt und führt neue ergänzende Namensschemata ein, um Produkte wie zum Beispiel die CPU-Kerne in verschiedene Leistungsklassen zu sortieren. Beispiel: Das neue CPU-Cluster heißt „C1“ und kommt in den Abstufungen „Ultra“, „Premium“, „Pro“ und „Nano“. Das ist vergleichbar mit den Lösungen, die zuvor unter den Namen Cortex-X925, A725 und A520 liefen.
Vier neue CPU-Kerne lösen drei alte ab
Arm bietet innerhalb des C1-CPU-Clusters jetzt allerdings vier Abstufungen an. Ultra sitzt oberhalb und Premium unterhalb des vorherigen Cortex-X900. Pro und Nano sortiert Arm auf dem Niveau der Vorgänger Cortex-A700 und Cortex-A500 ein.
SME2-Einheiten für AI direkt auf der CPU
Über allen technischen Veränderungen an den CPU-Kernen steht ein Feature: die Scalable Matrix Extension 2 (SME2). SME2 ist eine Erweiterung der Armv9-A-Architektur und wurde entwickelt, um den Prozessor bei genau der Art von Rechenarbeit deutlich schneller zu machen, die in KI, Machine Learning, Bild- und Audiosignalverarbeitung ständig vorkommt – nämlich große Matrizen von Zahlen zu verschieben, zu multiplizieren und zu addieren. Die SME2-Einheit ermöglicht dem Prozessor, ganze Blöcke von Zahlen gleichzeitig zu verarbeiten, anstatt bei Matrizen viele kleine Schritte nacheinander auszuführen. Das steigert die Leistung in Bereichen wie Bilderkennung, Sprachverarbeitung oder Textzusammenfassung und reduziert zugleich den Stromverbrauch, weil weniger Daten unnötig hin- und hergeschoben werden müssen.
Arm hatte zuvor die Scalable Vector Extension (SVE) und SVE2 eingeführt, die Vektorregister variabler Länge bieten. SME2 erweitert dieses Prinzip auf Matrixregister – man kann dadurch ganze 2D-Blöcke von Daten direkt in der CPU verarbeiten.
Einsatz vom kleinsten bis zum größten Kern
Das C1-CPU-Cluster entspricht der Armv9.3-ISA und ist das erste Cluster von Arm, das SME2 auf allen Kernen unterstützt. Auf SME2 hat zuvor ausschließlich Apple beim M4 gesetzt. Bis auf CPU-Cluster mit lediglich zwei der kleinsten Nano-Kerne ist SME2 nicht optional, Chip-Entwickler können die SME2-Einheit(en) somit nicht einfach weglassen, da diese fester Bestandteil der Architektur sind. Kommt SME2 im Cluster zum Einsatz, dann muss die Einheit allen Kernen zur Verfügung stehen und kommt damit selbst beim kleinsten Nano zum Einsatz.
SME2 ist der nächste Entwicklungsschritt bei Arm für AI direkt auf der CPU, ohne für diese Berechnungen zu einer diskreten GPU oder NPU wechseln zu müssen. Arm entwickelt unter der Bezeichnung „Ethos“ zwar auch NPUs speziell für KI-Workloads, siedelt diese aber im IoT-Segment und nicht innerhalb der Lumex CSS Platform an.
CPU soll zur ersten Wahl für AI werden
Die CPU sei mit der SME2-Erweiterung die erste Wahl für Entwickler von AI-Apps, erklärte Arm zum Vorabtermin am Firmenstandort in Cambridge. Die CPU biete die größte Flexibilität und erhalte mit SME2 einen großen Leistungsschub für AI. Eigene NPUs werde es laut Arm auch weiterhin bei den finalen Produkten der Kunden geben, diese betrachtet das Unternehmen aber als hochspezialisierte Hardware-Einheiten für ganz konkrete Aufgaben. Eine CPU sei hingegen breiter aufgestellt, zudem komme es nicht zu Einbußen oder Latenz durch Datentransfers.
Leistungssteigerung um den Faktor 5
SME2 soll im C1-CPU-Cluster bei AI-Workloads bestenfalls für eine Leistungssteigerung um den Faktor 5 und eine Effizienzsteigerung um den Faktor 3 sorgen. Arm nennt beispielhaft die Spracherkennung in Whisper Base, wo sich die Latenz von 1.495 ms auf 315 ms reduzieren lasse. Oder das Audio-Encoding mit Gemma 3 mit einer Steigerung von 84 auf 398 Token/s. Für eine Audio-Generierung mit Stable Audio gibt Arm eine Reduzierung von 27 s auf 9,7 s bis zur Fertigstellung an. Die durchschnittliche Leistungssteigerung für AI auf der CPU erreiche Arm zufolge den Faktor 3,7. Die Zahl ergibt sich aus einer Testreihe von 13 AI-Benchmarks und AI-Anwendungen.
KleidiAI soll es Entwicklern leicht machen
Für Software-Entwickler soll mit SME2 kein zusätzlicher Aufwand entstehen. Dafür soll die von Arm angebotene Software-Library-KleidiAI sorgen. KleidiAI besteht aus stark optimierten Micro-Kernels, die in verschiedenen KI-Frameworks (XNNPACK, PyTorch, LiteRT (früher TensorFlow Lite), llama.cpp) eingebettet werden. Entwickler müssen dabei keinen zusätzlichen Code schreiben – KleidiAI sorgt automatisch dafür, dass dieser auf dem verfügbaren Arm-Hardware-Instruktionssatz optimal ausgeführt wird. Bei SME2-fähiger Hardware übernimmt KleidiAI die automatische Weiterleitung rechenintensiver Matrixoperationen an die entsprechenden Einheiten der CPU.
C1-Ultra ist der neue Prime-Core mit +11% IPC
Ganz oben im C1-CPU-Cluster steht mit der neuen Lumex CSS Platform der C1-Ultra als Prime-Core. Für diesen CPU-Kern gibt Arm eine zweistellige Verbesserung der IPC im Vergleich zum Cortex-X925 an (Geekbench, ISO Frequency und Memory Subsystem). Die IPC-Leistung habe Arm seit dem Cortex-X1 um über 75 Prozent steigern können. Arm gibt die relative IPC-Leistung gegenüber der „2024 Premium Android Competition“, bei der es sich um den Oryon-Prime-Core des Qualcomm Snapdragon 8 Elite handeln dürfte, mit dem Faktor 1,2 an, also mit 20 Prozent mehr Leistung – bei jeweils gleichem Takt. Gegenüber dem Cortex-X925 liegt der IPC-Vorteil dem Diagramm zufolge bei 11 Prozent.
Front-End, Core und Back-End überarbeitet
Für die Zugewinne des C1-Ultra hat Arm abermals das Front-End, den Core und das Back-End überarbeitet. Das Front-End ist bei einem Prozessor für die Sprungvorhersage, das Fetching aus dem Speicher und das Decoding zuständig. Arm gibt unter anderem für das Fetching eine um 33 Prozent erweiterte Bandbreite für den L1-Instruction-Cache an, nachdem diese letztes Jahr verdoppelt wurde. Erneut gibt es abgeleitet von einer höheren Genauigkeit Leistungs- und Effizienzverbesserungen für bedingte Branches, die in Abhängigkeit von einer Kondition ausgeführt oder eben nicht ausgeführt werden.
Der Core bleibt beim „10-wide-Design“, aber mit 25 Prozent größerem Out-of-Order-Fenster und bis zu ~2K Instruktionen „in flight“. Maschinensprachen-Befehle wie Move-Instruktionen wurden vor die Core-Pipeline gesetzt, was Leistung und Effizienz zugutekommen soll. Im Back-End hat Arm den L1-Data-Cache auf 128 KB verdoppelt, das Out-of-Order-Fenster um 25 Prozent vergrößert und die Data-Prefetcher optimiert.
C1-Premium ist ein Sub-Flagship-Core
Unterhalb des C1-Ultra sitzt der C1-Premium, den Arm mit „Premium-Leistung für neue Marktsegmente“ beschreibt. Das Unternehmen gibt Flächeneinsparungen über die Vektor-Einheiten, den L2-Cache und eine optimierte physische Umsetzung gegenüber dem C1-Ultra an. Eine DynamIQ Shared Unit (DSU) mit zwei C1-Premium und sechs C1-Pro falle 35 Prozent kleiner aus als eine DSU mit zwei C1-Ultra und sechs C1-Pro. In diesem „Sub-Flagship-Tier“ unterhalb der Lösung für Flaggschiffe werde im Vergleich zum „Mainstream-Tier“ mit vier C1-Pro und vier C1-Nano aber eine 35 Prozent höhere Single-Thread-Leistung geboten. Für C1-Ultra und C1-Premium wirbt Arm mit der CPU-IPC-Führung, höchsten Flächeneffizienz und gesteigerten Effizienz für eine hohe anhaltende Leistung.
C1-Pro ist das Arbeitstier im Cluster
Den C1-Pro bezeichnet Arm als das Arbeitstier im Cluster mit zwei ausgeprägten Einsatzgebieten: in Kombination mit dem C1-Ultra oder C1-Premium für das Flaggschiff- und Sub-Flaggschiff-Segment sowie in Kombination mit dem C1-Nano in allen niedrigeren Preisklassen. Der C1-Pro liefere in einer Auswahl von Apps und Spielen bis zu 16 Prozent mehr Leistung bei gleicher Frequenz wie der Cortex-A725 oder sei bei gleicher Leistung bis zu 12 Prozent effizienter. Der Core bleibt unverändert, im Front-End gibt es für die Sprungvorhersage einen gesteigerten Durchsatz und eine höhere Genauigkeit. Im Back-End hat Arm den Durchsatz gesteigert und die Latenz reduziert. In einer ISO-Konfiguration erreiche der C1-Pro im Geekbench 6.3 eine 11 Prozent höhere Leistung pro Watt oder verbrauche bei gleicher Leistung 26 Prozent weniger.
Area Optimized Configuration des C1-Pro
Analog zum Cortex-A720 und Cortex-A725 bietet Arm den C1-Pro auch wieder in einer „Area Optimized Configuration“ an, um bei gleicher Fläche eines älteren Cortex-A78 ein verhältnismäßig günstiges ISA-Upgrade von der alten Armv8 auf die Armv9 zu ermöglichen. Diese Version des C1-Pro behält die Fläche des Cortex-A720 bei, bietet aber 10 Prozent mehr Leistung im Geekbench 6.1 und 19 Prozent mehr im SPECint2017.
C1-Nano hebt E-Core auf neues Niveau
Der C1-Nano folgt auf den Cortex-A520 (Refresh) und ist damit der neue E-Core respektive kleinste Kern im C1-CPU-Cluster. Nach wie vor handelt es sich um ein In-Order-Design, während C1-Pro, Premium und Ultra erneut Out-of-Order-Designs sind. Durch reduzierten Traffic zum L3-Cache und DRAM soll der C1-Nano unter Verwendung der gleichen Fertigung 26 Prozent effizienter als der Cortex-A520 sein. 5,5 Prozent mehr Leistung in SPECint2017 innerhalb von 2 Prozent mehr Fläche gibt Arm für den C1-Nano an.
Im Front-End hat Arm die Pipelines für die Sprungvorhersagen und das Fetching voneinander getrennt, was die Leistung steigern, Instruktionen früher in den L1-I-Cache bringen und Stalls reduzieren soll. Für den Core nennt Arm Verbesserungen an den Vektor-Einheiten sowohl bei der Leistung als auch Effizienz sowie eine zusätzliche Weiterleitung der Ergebnisse aus Vektor-Operationen für die direkte Nutzung in der nächsten Instruktion, ohne über die Register oder den Speicher gehen zu müssen.
C1-DSU ist schneller und effizienter
Zusammengeführt werden die unterschiedlichen Kerne über die DynamIQ Shared Unit (DSU), die bei der Arm Lumex CSS Platform von der bisherigen Bezeichnung DSU-120 zur neuen C1-DSU wechselt. Nach wie vor lassen sich in einer DSU bis zu 14 CPU-Kerne unterbringen. Und erneut kann ein SoC auch mehr als eine DSU für somit mehr als 14 CPU-Kerne nutzen, in der Praxis ist diese Erweiterung aber kaum von Relevanz. Ausnahmen wie der Nvidia GB10 mit 20 CPU-Kernen von Arm bestätigen die Regel.
Quick Nap für einzelne RAM-Bänke
Die C1-DSU lässt sich erneut mit bis zu 32 MB L3-Cache konfigurieren, die FPGA-Referenzplattform von Arm kommt hingegen mit 16 MB aus. Arm taktet die DSU neuerdings aber mit 2,0 GHz statt 1,8 GHz. Erweitert hat Arm den letztes Jahr eingeführten „Quick Nap“ des L3, bei dem sich der RAM jetzt in kleinere Bänke unterteilen lässt. „L3 Quick Nap Mode“ bedeutet, dass der Cache-Inhalt gehalten werden kann, sich während dieses kurzzeitigen Energiesparmodus aber nicht mehr in den Cache schreiben oder daraus lesen lässt. Dieser Modus lässt sich jetzt für einzelne RAM-Bänke definieren, sodass mehr vom RAM im Energiesparmodus verbleiben kann.
SI L1 und MMU L1
Arm wechselt mit der Lumex CSS Platform zu einer neuen Interconnect-Architektur, die den neuen System Interconnect L1 (SI L1) und die neue Memory Management Unit L1 (MMU L1) mit sich bringt. CPU und GPU sind direkt am zusammengelegten SI L1 angebunden, nachdem die CPU bislang an den CI-700 und die GPU an den NI-700 angebunden war. Der NI-700 war als Network-on-Chip für die Anbindung von Beschleunigern wie GPUs, SoC-Konnektivität und Peripherie zuständig und sitzt jetzt innerhalb des SI L1 mit direkter Anbindung an die integrierten Memory Controller Nodes (MCN) mit deren zugewiesenem System Level Cache (SLC), der bei der Referenzplattform von Arm auf abermals 16 MB kommt.
Vorbereitet für LPDDR6
Die Anzahl der MCN-Slices (bis zu 8) und deren SLC-Größe (bis zu 4 MB) können die Chip-Anbieter eigenständig konfigurieren. Der neue Aufbau soll die statische Interconnect-Latenz um bis zu 75 Prozent reduzieren und den Energiebedarf verringern. Arm hat den SI L1 und die MMU L1 mit entsprechender Bandbreite für den Einsatz von LPDDR6 vorbereitet, wenngleich LPDDR5X erst einmal die Norm darstellen wird.
Referenzplattform mit 2+6 Kernen und 4,1 GHz
Das alles mündet mit der Arm Lumex CSS Platform in einer Gesamtlösung, für die Arm eine FPGA-basierte Referenzplattform entwickelt hat, die sich aus zwei C1-Ultra mit 4,1 GHz, sechs C1-Pro mit 3,5 GHz, zwei SME2-Einheiten mit 2,0 GHz, einer C1-DSU mit 2,0 GHz und 16 MB L3, dem SI L1 mit 16 MB SLC, der neuen Grafikeinheit Mali G1-Ultra mit 14 Kernen und 4 MB L2, LPDDR5X-9600 und Android 15 zusammensetzt. Es ist davon auszugehen, dass Partner ähnlich gestaltete SoC-Designs vorstellen werden. Arm visiert mit der Plattform die Fertigung in 3 nm an.
Für diese Referenzplattform gibt Arm im Vergleich zur vorherigen eine 45 Prozent höhere Multi-Thread-Leistung, 25 Prozent höhere Single-Thread-Leistung, 24 Prozent höhere Browser-Leistung, 15 Prozent schnellere App-Launches, 24 Prozent mehr Leistung im GFXBench 5, 28 Prozent mehr Leistung im 3DMark, 37 Prozent mehr Leistung im Basemark GPUScore und 18 Prozent mehr Leistung im AnTuTu 3DBench an.
Erste Prozessoren auf Basis der Arm Lumex CSS Platform mit C1-CPU-Cluster sollen Gerüchten zufolge noch dieses Quartal angekündigt werden. Arm kann und darf zwar nicht für Partner sprechen, doch könnte MediaTek schon bald den ersten Schritt machen. Die passenden Smartphones dürften nur wenige Wochen später folgen.
ComputerBase hat Informationen zu diesem Artikel von Arm im Rahmen einer Veranstaltung des Herstellers in Cambridge, UK erhalten. Die Kosten für An-, Abreise und zwei Hotelübernachtungen wurden vom Unternehmen getragen. Eine Einflussnahme des Herstellers oder eine Verpflichtung zur Berichterstattung bestand nicht.
Apps & Mobile Entwicklung
Gefahren für Kinder in VR: Meta soll eigene Untersuchungen unterbunden haben
Meta soll Untersuchungen und Erkenntnisse über die Gefahren von Virtual Reality bei Kindern und Jugendlichen unterdrückt haben. Diese Vorwürfe erheben zwei ehemalige Mitarbeiter gegen ihren früheren Arbeitgeber vor einem Unterausschuss des US-Senats und gaben an, die Forschung sei bewusst eingeschränkt worden.
Das Social-Media-Unternehmen soll einem Bericht der Washington Post nach laut Jason Sattizahn, einem früheren Sicherheitsforscher für virtuelle Realität, und Cayce Savage, einem ehemaligen Jugendforscher, kritische Ergebnisse über die Risiken unterdrückt haben, denen Kinder bei der Nutzung der Virtual-Reality-Geräte und -Apps des Konzerns ausgesetzt seien. Beide erklärten im Ausschuss, dass Meta zwar intern Gefahren untersuchte, diese Ergebnisse jedoch regelmäßig überprüfte, redigierte und teilweise sogar mit einem Veto belegte.
Die beiden ehemaligen Mitarbeiter sowie noch bei Meta tätige Forscher übergaben dem Kongress dafür Tausende von Seiten interner Nachrichten, Memos und Präsentationen aus dem vergangenen Jahrzehnt zu Metas Virtual-Reality-Dienst, um die Versäumnisse des Unternehmens im Umgang mit Risiken zu dokumentieren.
Forschungsarbeit massiv kontrolliert
Dabei soll Meta seine Forschungsarbeit stark kontrolliert haben. Savage berichtete, ihm sei ein juristischer Mitarbeiter zugeteilt worden, der detailliert vorgab, welche Forschung er betreiben dürfe und welche nicht. Dadurch sollte seiner Aussage nach sichergestellt werden, dass seine Berichte bei einer Veröffentlichung kein Risiko für Meta darstellten würden. Ebenso sei festgelegt worden, welche Arten von Schäden bei Kindern in der virtuellen Realität er nicht untersuchen solle. „Man gab mir das Gefühl, dass ich meinen Job riskieren würde, wenn ich die Angelegenheit vorantrieb“, erklärte Savage vor dem Kongress.
Als Grund für die Unterbindung der Forschung nannten Sattizahn und Savage die Angst Metas vor negativer Berichterstattung, Gerichtsverfahren oder behördlichen Maßnahmen. Aus Unterlagen gehe zudem hervor, wie Meta auf gemeldete Risiken reagierte: Schon 2017 hätten Mitarbeiter davor gewarnt, dass Kinder unter 13 Jahren die Altersbeschränkungen bequem umgehen könnten, um die Virtual-Reality-Dienste zu nutzen. Eine zusätzliche Sicherung sei erst eingeführt worden, als die Federal Trade Commission prüfte, ob Meta den „Children’s Online Privacy Protection Act“ einhalte, ein Gesetz zum Schutz der Privatsphäre von Kindern. Bei einem Verstoß hätten erhebliche Probleme für das Unternehmen gedroht. „Das ist die Art von Dingen, die irgendwann Schlagzeilen machen – und zwar auf eine wirklich schlimme Art und Weise“, schrieb ein Mitarbeiter damals.
Mit „Project Salsa“ startete Meta zwar eine Initiative, die spezielle „Tween“-VR-Headset-Konten für Kinder im Alter von zehn bis zwölf Jahren mit elterlicher Kontrolle vorsah. Doch schon damals äußerten Mitarbeiter Zweifel daran, ob die Maßnahmen ausreichend seien.
Sattizahn erklärte, Metas unmittelbare Reaktion auf die Bedenken des Kongresses habe nicht darin bestanden, das Richtige zu tun, sondern Prozesse und Richtlinien einzuführen, um Daten zu manipulieren, zu kontrollieren und zu löschen. „Wir Forscher wurden angewiesen, wie wir Berichte schreiben sollten, um das Risiko für Meta zu begrenzen“, so der ehemalige Mitarbeiter vor dem Ausschuss.
VR-Nutzer in vielen Räumen überwiegend Kinder
Im selben Jahr äußerten Mitarbeiter laut einem Dokument weitere Bedenken, nachdem sie beobachtet hätten, dass viele Nutzer, die wie Kinder aussahen, gegen die Regeln des Unternehmens verstießen, um Zugang zu den VR-Produkten zu erhalten. Ein Beitrag auf einem internen Nachrichtenbrett wies darauf hin: „Wir haben ein Kinderproblem und es ist wahrscheinlich an der Zeit, darüber zu sprechen“. Der Verfasser schätzte, dass in manchen virtuellen Räumen 80 bis 90 Prozent der Nutzer minderjährig gewesen seien.
Forscher gewarnt, Daten gelöscht
Die Dokumente sollen zudem zeigen, dass Mitarbeiter auch in den folgenden Jahren wiederholt in internen Memos auf die Problematik hingewiesen haben sollen. Laut Sattizahn und Savage habe sich Metas Haltung erst 2021 und nicht freiwillig geändert, sondern nachdem die frühere Produktmanagerin Frances Haugen interne Studien und Unterlagen an Medien weitergegeben hatte. Interne Anwälte warnten Forscher der VR-Abteilung Reality Labs daraufhin davor, „sensible“ Themen zu untersuchen. Um dies zu umgehen, sollten Untersuchungen entweder unter Anwaltsgeheimnis erfolgen oder es sollte besonders darauf geachtet werden, wie Studien gestaltet und Ergebnisse präsentiert würden.
Den Aussagen zufolge habe Meta auch nicht davor zurückgeschreckt, brisante Aufzeichnungen und Daten zu löschen. Selbst Befragungen seien während laufender Gespräche unterbunden worden, weil die Ergebnisse dem Unternehmen nicht gefallen hätten. Meta erklärte, dass ein Löschen von Daten nur im Einklang mit Datenschutzbestimmungen erfolgt sei, die das Sammeln persönlicher Daten ohne Zustimmung untersagen. In einem dokumentierten Fall, bei dem es um die Erfahrungen eines Teenagers aus Deutschland ging, habe jedoch die anwesende Mutter ausdrücklich eingewilligt, dass über die Erlebnisse ihres Sohnes gesprochen werde. Auch diese Daten sollen laut dem Artikel gelöscht worden sein.
Meta spricht von falscher Darstellung
Meta widersprach den Vorwürfen und ließ durch Unternehmenssprecherin Dani Lever mitteilen, dass die Anschuldigungen „auf selektiv durchgesickerten internen Dokumenten beruhen, die speziell ausgewählt wurden, um eine falsche Darstellung zu erwecken“. Laut Lever habe es nie ein generelles Verbot gegeben, mit jungen Menschen zu forschen. Meta führe weiterhin Untersuchungen zur Sicherheit und zum Wohlbefinden von Jugendlichen durch. Zudem erklärte sie, dass die Virtual-Reality-Geräte des Unternehmens seit langem über Sicherheitsfunktionen verfügten, darunter das Blockieren problematischer Nutzer, und dass Meta die Forschung genutzt habe, um im Laufe der Zeit zusätzliche Schutzmaßnahmen für junge Menschen zu entwickeln.
Apps & Mobile Entwicklung
QuietComfort Ultra 2 Kopfhörer von Bose: Der AirPods Max-Killer?
Bose brachte seine Ultra-Serie 2023 auf den Markt und positionierte sie als Flaggschiff über der klassischen QuietComfort-Serie. Jetzt stellt das Unternehmen mit dem Bose QuietComfort Ultra 2, der auf der IFA 2025 vorgestellt wurde, die nächste Generation seiner Over-Ear-Kopfhörer vor. Das neue Modell bietet ein verfeinertes Design und deutliche Verbesserungen bei der Klangqualität und der Akkulaufzeit, ohne jedoch den Preis zu erhöhen.
Bose QC Ultra 2 bekommt ein schickeres Design
Der QuietComfort Ultra 2 sieht ähnlich aus wie der ursprüngliche QC Ultra Over-Ear-Kopfhörer (Testbericht) von vor ein paar Jahren. Er hat einen dicken, mit Kunstleder gepolsterten Kopfbügel und große Ohrmuscheln, die die Ohren vollständig umschließen. Neu sind die glänzenden Metallbügel, die die Ohrmuscheln mit dem Kopfbügel verbinden und den Kopfhörern ein hochwertigeres Finish verleihen.
Bose passt die Bügel jetzt farblich an die Kopfhörer an, allerdings in einem etwas anderen Farbton. Zwei neue Farben, Driftwood Sand und Midnight Violet, ergänzen die klassischen Farben Schwarz und Weiß. Das restliche Design, einschließlich der Tasten und des Schnittstellenlayouts, bleibt unverändert. Mit 250 Gramm haben die QC Ultra 2 immer noch einen Gewichtsvorteil gegenüber den AirPods Max, die 385 Gramm wiegen.

Lossless Audio und Spatial Audio
Die aufregendsten Neuerungen gibt es in den Bereichen Sound und ANC. Bose unterstützt jetzt verlustfreies Audio über eine kabelgebundene USB-C-Verbindung und bietet eine 16-Bit-Wiedergabe mit einer Abtastrate von 44,1 kHz oder 48 kHz. Bose verspricht hier außerdem eine geringere Latenzzeit mit USB-C. Und ja, die 3,5-mm-Audiobuchse ist immer noch dabei.
Bose führt darüber hinaus einen neuen Kinomodus ein, der räumliches bzw. 360-Grad-Audio ermöglicht, ohne dass spezielle Inhalte erforderlich sind. Durch das Lokalisieren und Ausbalancieren des Klangs verbessert dieser Modus die Klarheit der Dialoge, was ideal für Podcasts und Hörbücher sowie für Filme und Fernsehsendungen ist.
Besserer Klang und längere Akkulaufzeit
Die Audioausgabe wurde für tiefere Bässe, klarere Höhen bei höherer Lautstärke und natürlichere Höhen optimiert. Der Kopfhörer unterstützt außerdem Bluetooth 5.4 für eine stabilere und effizientere kabellose Verbindung.
Auch die aktive Geräuschunterdrückung (ANC) wurde dank eines neuen Algorithmus verbessert, der das Erlebnis in leiseren Umgebungen natürlicher macht. Das gilt auch für den Aware- oder Transparenzmodus, der jetzt eine sanftere Aussteuerung bietet. Du kannst ANC manuell einstellen oder ganz deaktivieren.
Die Akkulaufzeit hat sich durchweg verbessert. Mit aktiviertem ANC bietet der QC Ultra 2 eine Akkulaufzeit von bis zu 30 Stunden (vorher 24 Stunden). Ohne ANC sind es sogar 45 Stunden. Sogar mit aktiviertem Immersive Mode beträgt die Akkulaufzeit 23 Stunden, was eine Steigerung gegenüber den vorherigen 18 Stunden bedeutet.
Vorbestellungen für den Bose QC Ultra 2 sind ab sofort für 499,95 Euro möglich, die Auslieferung beginnt in vielen Ländern am 9. September. I
Apps & Mobile Entwicklung
Intel-Konferenz-Aussagen: Management halbiert, Arrow/Nova Lake und Intel 14A im Plan
Im Rahmen der Goldman Sachs Communacopia hat Intel einige interessante Aussagen zum aktuellen Umbau des Konzerns preisgegeben. Diese betreffen nicht nur das Personal, sondern auch die Auswirkungen auf Produkte und deren Zeitpläne. Arrow Lake erhält 2026 seinen Refresh, Nova Lake startet, Intel 14A soll alles anders machen.
Es war im Frühjahr nicht nur eine überraschende Erkenntnis im Konzern, sondern wurde auch außerhalb mit Verwunderung aufgenommen. Intel bestätigte zur Konferenz, dass das Unternehmen bisher mit rund elf Layern im Management gearbeitet hat. Bereits jetzt seien diese effektiv halbiert worden, im Zuge dessen mussten viele Leute das Unternehmen verlassen. Auch das Programm „zurück ins Büro“ sei seit rund einer Woche in Kraft, Angestellte müssen den Großteil der Zeit wieder ins Büro zurückkehren.
Arrow Lake Refresh und Nova Lake in 2026
Intel bestätigte außerdem, dass es aktuell einige Lücken im Produktportfolio habe, speziell im Desktop. Diese sollen im Jahr 2026 mit Arrow Lake Refresh und zum Ende nächsten Jahres mit Nova Lake geschlossen werden. Im Notebook soll wie angekündigt Panther Lake ab Ende dieses Jahres ausgeliefert werden. Sowohl für Panther Lake aber auch Intel Nova Lake gilt dann jedoch, dass sie den großen Durchbruch erst im Jahr darauf haben werden – Panther Lake also 2026 und Nova Lake entsprechend 2027.
Komplett neuer Ansatz bei Intel 14A
Intel hat bei 18A erneut den Fehler gemacht, diesen Prozess zuerst für Intel zu entwickeln, danach dann versucht, ihn für Foundry-Kunden schmackhaft zu machen. Das kann in gewissen Fällen funktionieren, in anderen jedoch nicht. Unterm Strich ging diese Rechnung aber nicht auf, kein Großkunde wird Intel 18A im größeren Umfang nutzen. Qualcomms CEO erklärte dazu kürzlich, dass Intel aktuell keine Option sei.
Bei Intel 14A wird das dem Unternehmen zufolge ganz anders. Hier steht nicht Intel an erster Stelle, sondern der externe Kunde. Der Node wird in die Richtung entwickelt, den sich die externen Kunden vorstellen und wünschen, in der Hoffnung, dass diese dann auch einen Großauftrag unterschreiben, den Intel braucht, damit sich das milliardenschwere Programm wirtschaftlich betreiben lässt.
Intel 18A soll trotzdem bereits den finanziellen Umschwung der Fertigungssparte ermöglichen. Denn Wafer und Chips nur extern gefertigt einzukaufen, wie es bei Lunar Lake und Arrow Lake aktuell der Fall ist, sei sehr teuer. Und so wird Panther Lake bereits wieder eigene Chips nutzen, auch für Nova Lake sei dies geplant. Und dann gibt es natürlich noch Clearwater Forest und Diamond Rapids im Server-Segment, die dann entsprechend die Marge wieder deutlicher nach oben ziehen sollen.
Bis 2027 soll die Foundry aus der Verlustzone geführt werden. Zwar steigen die Kosten bei der Fertigung für Intel 18A an, aber die viel höheren Preise sollen dies mehr als ausgleichen können.
We’ve been pretty transparent that the Intel 7 node just was not a cost competitive node. And as you look at it through the lens of Intel Foundry, the move from Intel 7 to Intel 18A, ASPs per wafer for them will go up 3x faster than their cost. And so just driving more volume through the fab on 18A is a pretty profitable sort of dynamic for Intel Foundry. And it’s mainly on the back of Intel products. We don’t need to see a lot of external foundry revenue to get the op profit breakeven exiting 2027, and that’s still the goal that Naga and his team are driving towards.
Intel
-
Datenschutz & Sicherheitvor 3 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
UX/UI & Webdesignvor 3 Wochen
Der ultimative Guide für eine unvergessliche Customer Experience
-
Apps & Mobile Entwicklungvor 3 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
UX/UI & Webdesignvor 2 Wochen
Adobe Firefly Boards › PAGE online
-
Social Mediavor 3 Wochen
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Online Marketing & SEOvor 3 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Entwicklung & Codevor 3 Wochen
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 1 Woche
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events