Künstliche Intelligenz
Das Metaverse muss sparen: Echte Kündidungen bei der virtuellen Realität
Der Abgesang auf das Metaverse geht in den zweiten Akt: Meta Platforms soll noch diese Woche zehn Prozent der Belegschaft der Metaverse-Abteilung Reality Labs feuern, vielleicht sogar mehr. Dies berichtet die Zeitung New York Times unter Berufung auf drei Eingeweihte. Auf Anfrage heise onlines dementierte Meta Platforms den Bericht nicht und lehnte lediglich jeden Kommentar ab.
Weiterlesen nach der Anzeige
Die Reality Labs haben demnach rund 15.000 Mitarbeiter, Meta Platforms insgesamt rund 78.000. Andrew Bosworth, Technikchef Metas und Leiter der Reality Labs, hat für Mittwoch zu einem Abteilungstreffen der gesamten Reality Labs eingeladen. Aber nicht irgendein Treffen, sondern das angeblich wichtigste des Jahres. Laut einem Bericht Business Insiders drängt er die Mitarbeiter dazu, unbedingt persönlich zu erscheinen. Für ein der Virtual Reality verschriebenen Organisation ist schon das alleine eine Niederlage.
Doch zwölf Jahre voller Milliardenverluste des Metaverse haben Spuren hinterlassen. Oder wie viel Reklame haben Sie in den Horizon Worlds schon angeklickt? Eben. Meta Platforms hat seit 2014 über 100 Milliarden US-Dollar für das Metaverse springen lassen und alleine in den letzten sechs Jahren um 73 Milliarden US-Dollar mehr ausgegeben als Umsatz gemacht. Das kann sich Meta nicht länger leisten, schüttet es doch jetzt enorme Summen in das Rennen um die erste superintelligente KI.
Business Insider zitiert zudem aus einem anderen Rundschreiben Bosworths von vor knapp einem Jahr. Damals bezeichnete der Manager 2025 als das „entscheidendste” Jahr seines Wirkens als Chef der Reality Labs: 2025 „wird wahrscheinlich bestimmen, ob das gesamte Unterfangen als die Arbeit von Visionären in die Geschichte eingeht oder als legendäres Missgeschick.”
VR wird gekürzt, AR wohl nicht
Im April folgten Kündigungswellen beim konzerneigenen VR-Spielestudio Oculus Games und der VR-Fitness-Anwendung Supernatural. Das war die Ouvertüre. Im Dezember verfügte Konzernchef Mark Zuckerberg einen generellen Sparkurs: Alle Abteilungen, außer der KI-Sparte TBD Labs, sollten ihre Budgets für das neue Jahr um zehn Prozent kürzen.
Nur die Reality Labs müssen gleich 30 Prozent kürzen. Der erste Akt schloss mit dem Jubel der Börse über diese Kursänderung weg von VR hin zu KI. Der zweite Akt dürfte am Mittwoch mit der Kündigungswelle beginnen.
Sie wird aber nicht alle Teile der Reality Labs gleichermaßen treffen. Während Virtual Reality weiterhin auf der Suche nach dem Massenmarkt ist, wofür Preiserhöhungen bei der VR-Brille Meta Quest nicht förderlich sind, rechnet sich Zuckerberg mit Augmented Reality (AR) bessere Chancen aus. Jener Teil der Reality Labs, der vernetzte Brillen und am Körper getragene Computer entwickelt, wird von den Stellenstreichungen voraussichtlich weitgehend verschont bleiben. Schließlich sollen sich die Ray-Ban-Sonnenbrillen mit Kamera und KI-Assistent besser verkaufen als VR-Kopfaufsätze. Entsprechend schärfer werden die Einschnitte in die VR-Belegschaft.
Weiterlesen nach der Anzeige
(ds)
Künstliche Intelligenz
Holpriger Start: OpenZFS 2.4.0 mit schneller Verschlüsselung – und Problemen
Noch im Dezember veröffentlichten die Entwickler von OpenZFS die Version 2.4.0 ihres selbstheilenden Dateisystems, das aus dem vor über 20 Jahren für Solaris entwickelten ZFS von Sun Microsystems hervorgegangen ist. Explizit werden Linux-Kernel 4.18 bis 6.18 sowie FreeBSD 14, das aktuelle Production-Release 15 und die in rund zwei Jahren kommende Version 16 („-current“) unterstützt.
Weiterlesen nach der Anzeige
Ein Patch von Ameer Hamza führt Standard-Quotas für Benutzer, Gruppen und Projekte in OpenZFS ein – inklusive Objekt-Quotas – und sorgt so für eine konsistente Begrenzung, auch wenn keine individuellen Limits gesetzt sind. Dazu werden Kernel- und Userspace-Werkzeuge (zfs {user|group|project}space) unter FreeBSD und Linux angepasst, so dass Standard-Quotas angezeigt werden, falls keine individuellen Quotas konfiguriert wurden.
Eine Änderung von Alexander Motin erweitert die ZIL-Allokation so, dass bei fehlendem SLOG auch Special-vdevs (typischerweise SSDs) für ZIL-Blöcke genutzt werden, um unlogische Zuordnungen mit höheren Latenzen auf HDDs zu vermeiden. Damit können HDD-Pools mit einem schnellen Special-vdev synchrone Workloads besser bedienen. Das geht dann ohne zusätzliches SLOG und erlaubt in gewissen Grenzen den Verschleiß von SSDs zu minimieren.
Joel Low hat bereits im Februar letzten Jahres Code von Googles BoringSSL nach OpenZFS portiert, was angeblich eine bis zu 80 Prozent schnellere Verschlüsselung bringen soll. Dazu verwendeten die Entwickler bei Google eine Vector-AES-optimierte AES-GCM-Implementation (Galois/Counter Mode), bei der auf AMD Zen3-CPUs das schnelle AVX2 statt AVX512/AVX10 eingesetzt wird.
Drei neue Befehle
Wer OpenZFS 2.4.0 einsetzt, sollte sich mit drei neuen Befehlen vertraut machen: „zfs rewrite -P“ versucht beim erneuten Schreiben von Blöcken die Birth Time beizubehalten und so Zeit und Ressourcen einzusparen, da sich die eigentlichen Daten ja nicht ändern. Mit „zpool scrub -S -E“ kann das Scrubbing auf bestimmte Zeiträume (basierend auf Transaction Groups / TXG) begrenzt werden – im Commit [ werden aber einige Probleme gemeldet. Mit „zpool prefetch -t brt“ schließlich sollen die Metadaten der BRT (Block Reference Table) vorab in den ARC (Adaptive Replacement Cache) eingelesen werden, um Block Cloning und das Freigeben von Blöcken zu beschleunigen (dazu unten mehr).
Die Mehrheit der Commits kommen von Rob Norris (229 Commits) und Alexander Motin (119 Commits), beide arbeiten für das auf FreeBSD, ZFS und ARM spezialisierte Unternehmen Klara. Acht Entwickler haben Commits im zweistelligen Bereich, der überwiegende Teil beschränkt sich auf genau einen Commit.
Weiterlesen nach der Anzeige
Ohne Cache schneller schreiben und Ärger mit den „Gang Blocks“
Während obige Neuerungen aus einzelnen Commits bestehen, bestehen vier Bereiche des neuen OpenZFS 2.4.0 aus einer ganzen Reihe von zusammengefassten Detailverbesserungen: Uncached I/O, Gang Blocks, Deduplication und Block Cloning. Alexander Motin arbeitet an der Optimierung von Uncached I/O-Operationen, die von der Performance her zwischen dem schnellen Direct I/O (mit Beschränkungen wie page alignment) und dem regulären Cached I/O liegen. Scheidet Direct I/O in bestimmten Szenarien aus, soll es einen Fallback auf Uncached I/O statt wie bisher auf das noch langsamere Cached I/O geben.
Mehrere Fixes sollen den Einsatz von „Gang Blocks“ verbessern. Gang Blocks sind eine Art Notfallmechanismus von ZFS, der greift, wenn für einen großen Daten- oder Metadatenblock kein zusammenhängender freier Speicherplatz mehr verfügbar ist. In diesem Fall zerlegt ZFS den Block in mehrere kleinere physische Blöcke und speichert zusätzlich mindestens zwei redundante Gang Block Header, die auf diese Teilblöcke verweisen, sodass der Block logisch weiterhin als Einheit behandelt werden kann. Eine der Verbesserungen ist, die Größe der Gang Block Header von fixen 512 Byte auf eine beliebige dynamische Größe zu verändern.
Die ins Gigantische wachsende Datensammelwut von Konzernen und Regierungen macht Optimierungen bei der Deduplizierung von OpenZFS besonders notwendig. Alleine acht Commits sollen OpenZFS 2.4.0 dabei helfen, Speicherplatz zu sparen.
Sorgenkind Block Cloning gefixt – oder doch nicht?
Wie Alexander Motin klarstellt, wurde bei der ursprünglichen Implementation des Block Clonings ein struktureller Fehler gemacht, der die „BRT ZAP Entries“ betrifft, nun aber korrigiert ist. Block-Cloning erlaubt es, Dateien oder Teile davon zu kopieren, indem nur Referenzen zu bestehenden Blöcken angelegt werden, statt Daten zu duplizieren. Das spart Platz und Zeit, weil die Daten nicht erneut geschrieben werden müssen.
Die Block Reference Table (BRT) ist ein neues Metadaten-Objekt in OpenZFS (eingeführt in 2.2), das Block-Cloning beziehungsweise „Reflinks“ unterstützt. OpenZFS speichert die BRT-Einträge in einem ZAP-Objekt. ZAP (ZFS Attribute Processor) ist eine flexible On-Disk-Struktur für Schlüssel/Wert-Daten, beispielsweise Verzeichnisse, Eigenschaften oder eben Referenztabellen. Weitere Fixes sollen das Block Cloning von OpenZFS stabiler und weniger fehleranfällig machen. Fehlerhaftes Block Cloning sorgte bereits bei OpenZFS 2.2.0 für Datenverluste.
Ist manche NVMe-Hardware nicht OpenZFS-kompatibel?
Neben den Problemen durch Block Cloning scheint OpenZFS auch mit NVMe-Pools ein wenig auf Kriegsfuß zu stehen. Neben Kommentaren bei OpenZFS-Postings oder Foreneinträgen gibt es auch lange Diskussionen, beispielsweise auf Github. In fast allen diesen Diskussionen wird auf Probleme insbesondere mit NVMe-Laufwerken hingewiesen, SATA- und SAS-HDDs/SSDs scheinen weniger betroffen zu sein. Ob der Fehler dabei im OpenZFS zu suchen ist, oder ob es sich um Hardware-Probleme handelt, ist nicht immer klar und sorgt für teilweise hitzige Auseinandersetzungen.
Eine weitere Möglichkeit wäre, dass manche NVMe-Hardware von OpenZFS unter hoher Last einfach überfordert ist. Wenn diese Hardware mit anderen Dateisystemen oder sogar älteren ZFS-Varianten funktioniert, und wenn auch das aktuelle OpenZFS auf anderen Systemen fast überall sauber läuft – ist dann die spezielle Kombination das Problem? Vielleicht ist auch ein genauer Blick auf die eingesetzte NVMe-Controller-Hardware und dessen Firmware sinnvoll? Vor allem Consumer-Hardware wird oft hart an der Spezifikationsgrenze gebaut und könnte dann unter härteren Bedingungen von OpenZFS zu Fehlern neigen. Das Problem sollte genau analysiert werden, da vor allem leistungsfähige OpenZFS-Installationen gerne auf NVMe-Hardware aufbauen.
OpenZFS ist verfügbar für GNU/Linux, FreeBSD, NetBSD, macOS, OpenSolaris, Illumos und OpenIndiana. Der Quellcode von OpenZFS 2.4.0 liegt zusammen mit einer ausführlichen Liste aller Neuerungen und Änderungen auf Githuv.
(axk)
Künstliche Intelligenz
Chip-Weltmarkt wuchs 2025 um über 20 Prozent – dank KI-Hype
Laut den Marktbeobachtern von Gartner wuchs der weltweite Umsatz mit Halbleiterbauelementen 2025 um 21 Prozent auf rund 793 Milliarden US-Dollar. Rund ein Viertel davon entfiel auf Chips, die für künstliche Intelligenz genutzt werden, also vor allem KI-Beschleuniger und RAM. Mehr als 200 Milliarden US-Dollar erzielten Chipfirmen mit derartigen Bauteilen.
Weiterlesen nach der Anzeige
Mit dem superschnellen und sehr teuren High Bandwidth Memory (HBM) für KI-Beschleuniger erzielten die drei großen DRAM-Hersteller Samsung Electronics, SK Hynix und Micron demnach rund 23 Prozent ihrer gesamten RAM-Einnahmen.
Nvidia weit oben
Mit einem phänomenalen Umsatzwachstum um fast 64 Prozent auf 125,7 Milliarden US-Dollar hängt Nvidia alle anderen Chipfirmen noch weiter ab. Nvidia setzte fast 74 Prozent mehr um als Samsung Electronics auf Rang zwei. Bei den Koreanern betrug das Wachstum lediglich etwa 10 Prozent. Daher rückte SK Hynix mit 37 Prozent Wachstum dichter an Samsung heran und verdrängte Intel von Rang drei.
Weil Intel mangels geeigneter Chips vom KI-Boom bisher nicht stark genug profitieren kann, fällt das Unternehmen weiter zurück.
| Die zehn umsatzstärksten Chipfirmen weltweit im Jahr 2026 | |||||
| Rang | Firma | Chip-Umsatz 2025 | Marktanteil 2025 | Wachstum | |
| 2025 | 2024 | [Mrd. US-$] | [%] | Jahresvergleich | |
| 1 | 1 | Nvidia | 125,70 | 15,8 % | 63,9 % |
| 2 | 2 | Samsung Electronics | 72,54 | 9,1 % | 10,4 % |
| 3 | 4 | SK Hynix | 60,64 | 7,6 % | 37,2 % |
| 4 | 3 | Intel | 47,88 | 6,0 % | -3,9 % |
| 5 | 7 | Micron Technology | 41,49 | 5,2 % | 50,2 % |
| 6 | 6 | Qualcomm | 37,05 | 4,7 % | 12,3 % |
| 7 | 6 | Broadcom | 34,28 | 4,3 % | 23,3 % |
| 8 | 8 | AMD | 32,48 | 4,1 % | 34,6 % |
| 9 | 9 | Apple | 24,60 | 3,1 % | 19,9 % |
| 10 | 10 | MediaTek | 18,47 | 2,3 % | 15,9 % |
| sonstige | 298,32 | 37,6 % | 10,3 % | ||
| Gesamt | 793,45 | 21,0 % | |||
| Quelle: Gartner, Januar 2026 | |||||
Das US-Unternehmen Micron hingegen konnte auch dank HBM-Speicher seinen Umsatz im Jahresvergleich sogar um 50 Prozent steigern.
Weiterlesen nach der Anzeige
Der Umsatz von Qualcomm auf Rang fünf wuchs solide um 12 Prozent. Das war aber deutlich weniger Wachstum als bei jenen Chipfirmen, die stärker von KI profitieren. Im Geschäftsjahr 2025, das bei Qualcomm im September 2025 endete, entfielen mehr als 75 Prozent der gesamten Umsätze auf Chips für Smartphones und Lizenzeinnahmen. Die Geschäfte mit Chips für Autos und IoT wachsen zwar deutlich stärker, machen aber nur den kleineren Teil der Qualcomm-Umsätze aus.
KI-Profiteure
Broadcom und AMD auf den Plätzen sechs und sieben wuchsen um 23 respektive 35 Prozent – auch dank KI. Broadcom hilft anderen Firmen als Dienstleister bei der Entwicklung von KI-Beschleunigern, offiziell bekannt ist das bei OpenAI. Aber Broadcom entwickelt etwa auch für Google (TPU) und ByteDance sowie bald wohl auch für Anthropic.
Bei AMD wuchs der Umsatzanteil der KI-Beschleuniger deutlich, das Unternehmen machte aber auch sehr gute Geschäfte mit x86-Prozessoren.
Auf Rang neun steht Apple, wo der Umsatz des Jahres 2025 um rund 20 Prozent höher lag als 2024.
MediaTek liegt mit knapp 18,5 Milliarden US-Dollar Umsatz auf Rang zehn und verkauft vor allem ARM-Chips für Smartphones, TV-Geräte und auch Autos. Aber MediaTek betätigt sich wohl ebenfalls als KI-Entwicklungsdienstleister.
Firmen nicht auf der Liste
Der größte europäische Chiphersteller Infineon erzielte in seinem Geschäftsjahr 2025 einen Umsatz von 14,66 Milliarden Euro, was derzeit rund 17,1 Milliarden US-Dollar entspricht; das dürfte ungefähr Rang 11 oder 12 entsprechen und in diesem Bereich liegt auch Texas Instruments (TI).
Wesentlich kleiner ist der NAND-Flash-Spezialist Sandisk, dessen Umsätze aber vor allem im Bereich Rechenzentren zuletzt stark wuchsen. In Erwartung stark steigender NAND-Flash-Preise vervielfachte sich der Preis der Sandisk-Aktie seit dem Herbst 2025.
Der reine Chip-Auftragsfertiger TSMC befindet sich nicht auf der Gartner-Liste, weil er keine eigenen Chips verkauft, sondern beispielsweise an Nvidia, Intel und AMD zuliefert. Der Umsatz von TSMC stieg 2025 um 31,6 % auf 3,81 Billionen neue Taiwan-Dollar (NTD), das entspricht derzeit rund 120 Milliarden US-Dollar.
(ciw)
Künstliche Intelligenz
KI-Modell „Eden“: Hoffnung auf Heilung von Krebs und seltenen Krankheiten
Mit dem KI-Modell „Eden“ erhoffen sich die Wissenschaftler, neue Gentherapien und Medikamente zu erschaffen, die die schlimmsten Krankheiten heilen können, berichtet die Financial Times. Das KI-Modell soll die Therapien aus der Evolution ableiten und dadurch erkennen können, welche Enzyme für die Gentherapie geeignet sind. Beobachter sehen allerdings noch viele offene Fragen, die es zu beantworten gilt.
Weiterlesen nach der Anzeige
Schon der Name „Eden“ ist als Anspielung auf den paradiesischen Garten in der Bibel ein Statement: Das internationale Team greift bei seinem KI-Modell auf einen riesigen Datensatz zurück. Zu diesem gehören über zehn Milliarden Gene von mehr als 1,03 Millionen Spezies, wovon die meisten von Mikroben stammen. Die britische Firma Basecamp Research hat den Datenbestand beigetragen. Das Trainingsmaterial habe es bislang so nicht in öffentlichen Datenbanken gegeben. Nvidia tritt über seinen Venture-Capital-Arm NVentures als Investor und Partner auf, ebenso Microsoft.
Therapie soll defekte Gene ergänzen
Doch nicht nur der Umfang des Datenmaterials hat die Forscher offenbar dazu ermutigt, beim Namen des KI-Modells auf die christliche Schöpfungslehre anzuspielen. Auch der Ansatz, wie Menschen mit den Erkenntnissen geholfen werden soll, klingt ambitioniert. Mit KI-designten Enzymen sollen präzise große Gen-Insertionen beim Menschen vorgenommen werden.
Neben der Gen-Addition gibt es auch die Methoden des Umschreibens von DNA (Gen-Editing) und das Stilllegen von problematischen Genen (Gen-Silencing). Das KI-erzeugte Gen kann mit umgebauten, harmlosen Viren in die Zelle transportiert werden. Alternativ können auch Lipid-Nanopartikel wie bei mRNA-Impfstoffen oder direkte Injektionen eingesetzt werden.
An über 10.000 krankheitsrelevanten Stellen im menschlichen Genom seien diese Ergänzungen von Genen bereits vorgenommen worden. Sie ergänzen defekte Gene. In Labortests sei es so bereits gelungen, Krebszellen abzutöten. Gegenüber früheren Methoden sei dieses Einfügen ohne DNA-Schädigung gelungen und für größere DNA-Abschnitte. Dadurch werde unter anderem Veränderungen an falschen Stellen (Off-Target-Effekte) vorgebeugt.
Weiterlesen nach der Anzeige
Mittel gegen multiresistente Bakterien?
Die Forschung soll aber zum Beispiel auch dabei helfen, Peptide gegen multiresistente Bakterien zu generieren. Mit dem KI-Modell als einheitliche Grundlage könnte es auch möglich werden, schneller und günstiger als bisher Medizin für seltene Krankheiten zu entwickeln.
Forscher wie Fyodor Urnov von der UC Berkeley geben zu bedenken, dass es nicht mit einem neuen Werkzeug alleine getan ist. Dass die Technologie tatsächlich klinisch angewendet werden kann, hänge auch von Faktoren wie Regulierung, Herstellung und Versicherung ab. Omar Abudayyeh von Harvard Medical School zeigte sich ebenfalls skeptisch: Sicherheit und Effizienz der Methode müssten erst noch nachgewiesen werden.
(mki)
-
UX/UI & Webdesignvor 3 MonatenIllustrierte Reise nach New York City › PAGE online
-
Künstliche Intelligenzvor 3 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 3 MonatenSK Rapid Wien erneuert visuelle Identität
-
Entwicklung & Codevor 2 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 3 MonatenNeue PC-Spiele im November 2025: „Anno 117: Pax Romana“
-
Apps & Mobile Entwicklungvor 3 MonatenCPU-Z und HWMonitor: Tools nennen Intel Panther Lake beim Namen
-
Künstliche Intelligenzvor 3 MonatenDonnerstag: Deutsches Flugtaxi-Start-up am Ende, KI-Rechenzentren mit ARM-Chips
-
UX/UI & Webdesignvor 3 MonatenArndt Benedikt rebranded GreatVita › PAGE online
