Künstliche Intelligenz
Muse Spark: Meta präsentiert neues KI-Modell
Der US-Konzern Meta hat am Mittwoch sein neues Flaggschiff-KI-Modell Muse Spark präsentiert. Es ist das erste Modell der neu aufgebauten KI-Abteilung Meta Superintelligence Labs. In deren Aufbau hat Konzernchef Mark Zuckerberg Milliarden investiert, um den Rückstand auf die Konkurrenz aufzuholen.
Weiterlesen nach der Anzeige
Muse Spark ist das erste Modell von Metas neuer Muse-Serie. Aktuell treibt das neue KI-Modell bereits die Meta-KI-App und -Website an, die zugleich ein Upgrade und ein neues Design erhalten. In den kommenden Wochen wird Muse Spark zudem für WhatsApp, Instagram, Facebook, Messenger und KI-Brillen eingeführt, kündigt das Unternehmen in einem Blogbeitrag an. Dieses erste KI-Modell sei, so Meta, bewusst klein und schnell, aber dennoch leistungsfähig genug, um komplexe Fragestellungen in Wissenschaft, Mathematik und Gesundheit zu lösen. „Es bildet ein solides Fundament, und die nächste Generation ist bereits in Entwicklung.“
Einsatz im Alltag
Man habe Muse Spark mit einer multimodalen Wahrnehmung ausgestattet, so Meta. „So kann Meta AI sehen und verstehen, was Sie betrachten, und nicht nur lesen, was Sie tippen. Fotografieren Sie ein Snackregal am Flughafen, und Meta AI erkennt und sortiert die proteinreichsten Snacks – ganz ohne mühsames Entziffern der Etiketten“, beschreibt das Unternehmen ein Beispiel. Auch könne Meta AI mit Muse Spark Nutzer künftig bei Gesundheitsfragen mit detaillierteren Antworten unterstützen, auch bei Fragen mit Bildern und Diagrammen, verspricht Meta.
Der Konzern setze darauf, schreibt die Nachrichtenagentur Reuters, dass der Einsatz von KI bei alltäglichen Aufgaben die Interaktion mit den über 3,5 Milliarden Nutzern auf seinen Social-Media-Plattformen steigert und ihm so einen potenziellen Wettbewerbsvorteil gegenüber Konkurrenten verschaffe. Anders als bisherige KI-Modelle von Meta wird Muse Spark nicht vollständig als Open Source veröffentlicht. Gerade erst kündigte das Unternehmen an, zwar Teile seiner kommenden KI-Modelle unter Open-Source-Lizenzen herauszubringen; einige Komponenten des Codes aus Sicherheitsgründen aber proprietär zu halten.
Meta will aufholen
Die US-Tageszeitung New York Times verweist darauf, dass nach den von Meta bereitgestellten Daten Muse Spark in Tests zu Schreib- und Denkfähigkeiten deutlich besser abschneidet als bisherige KI-Modelle des Unternehmens. Muse Spark erreichte demnach fast die Leistung der Topmodelle von Konkurrenten wie Google, OpenAI oder Anthropic. Bislang blieben die KI-Modelle von Meta, wie die Llama-Serie, weit hinter der Leistungsfähigkeit der Modellfamilien der Wettbewerber zurück. Muse Spark hinke jedoch weiterhin bei den Programmierfähigkeiten hinterher, die für die Wettbewerber im KI-Wettlauf in den Fokus gerückt sind, so das Blatt weiter.
Metas Ankündigung erfolgt einen Tag, nachdem Anthropic mitgeteilt hat, dass sein neuestes KI-Modell Mythos zu leistungsfähig und damit zu gefährlich für die Öffentlichkeit sei. Stattdessen soll Claude Mythos Preview zunächst ausschließlich einer Reihe von Firmen zur Verfügung gestellt werden, die an IT-Sicherheit arbeiten. Die sollen die KI-Technik nutzen, um die „kritischste Software der Welt“ abzusichern.
Weiterlesen nach der Anzeige
Milliardeninvestitionen im KI-Wettbewerb
Die US-amerikanischen Tech-Konzerne investieren seit geraumer Zeit Milliardensummen in die Entwicklung von KI-Modellen und den Ausbau der KI-Infrastruktur. Meta versucht, im KI-Wettbewerb eine führende Rolle einzunehmen. Zentraler Baustein dieser Strategie ist die im Sommer 2025 gegründete Einheit Meta Superintelligence Labs. Zu Metas Chief AI Officer wurde der 29-jährige Co-Gründer und ehemalige CEO von Scale AI, Alex Wang, der im Rahmen eines 14,3 Milliarden US-Dollar schweren Deals zu Meta wechselte. Die Übernahme der Unternehmensanteile von Scale AI ist Teil von Metas kostspieliger KI-Offensive, in deren Zuge das Unternehmen gezielt Top-KI-Experterten von OpenAI, Anthropic, Apple und Safe Superintelligence anwirbt.
Mitte Februar vereinbarte Meta eine Partnerschaft mit dem Chipkonzern Nvidia, in deren Zuge der Facebook-Konzern GPUs und CPUs verschiedener Generationen für dutzende Milliarden US-Dollar einkauft. Zudem kündigte der Konzern-Chef Zuckerberg an, 600 Milliarden US-Dollar in neue Rechenzentren zu investieren.
(akn)
Künstliche Intelligenz
Durchblick bei Technik & Features moderner Monitore | c’t uplink
Monitore sind preiswert wie nie zu haben – oder extrem hochauflösend, kontrast- und farbstark und auch flexibel in Sachen Anschlussmöglichkeiten. Wer einen Monitor kaufen will oder muss, steht daher vor allerhand Abkürzungen von WQHD, 4K, 16:10 und 21:9 über HDMI, Displayport und USB-C mit PD bis hin zu sRGB, DCI-P3, AdobeRGB und HDR1000. Und hat möglicherweise ein paar Fragezeichen überm Kopf schweben.
Weiterlesen nach der Anzeige

Den wöchentlichen c’t-Podcast c’t uplink gibt es …
Angelehnt an unseren vor kurzem erschienenen Vergleichstest von 5K- und 6K-Monitoren mitsamt Kaufberatung sprechen wir in dieser Folge des c’t uplink über all diese Features – und welche davon überhaupt für welche Zielgruppen wichtig, essenziell oder völlig egal sind.
Zu Gast im Studio: Benjamin Kraft, Ulrike Kuhlmann
Host: Jan Schüßler
Produktion: Tobias Reimer
► Mehr zu hochauflösenden Monitoren lesen Sie bei heise+ (€).
Im Newsletter c’t Open Source Spotlight ordnen Keywan und Niklas aktuelle Entwicklungen rund um freie Software ein und stellen innovative Open-Source-Anwendungen vor. Jetzt anmelden und an jedem zweiten Freitag eine neue Ausgabe erhalten.
Weiterlesen nach der Anzeige
c’t Open Source Spotlight abonnieren
Innovative Software, spannende Projekte: Erweitern Sie Ihre Möglichkeiten und werden Sie Teil der Open Source Community.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
► c’t Magazin
► c’t auf Mastodon
► c’t auf Instagram
► c’t auf Facebook
► c’t auf Bluesky
► c’t auf Threads
► c’t auf Papier: überall, wo es Zeitschriften gibt!
(jss)
Künstliche Intelligenz
Amazons neue Fire TV Sticks verhindern Sideloading
Sideloading wird mit Amazons neuer Generation von Fire TV Sticks für die allermeisten Nutzer Geschichte sein, das kommuniziert Amazon nun offiziell auch an Kunden. Denen wird auf Amazons Produktseite für den neuen Fire TV Stick HD ein entsprechender Hinweis angezeigt. Davor hatte es bereits Hinweise gegeben, dass Sideloading unter dem neuen Fire-TV-Stick-Betriebssystem Vega OS erheblich strenger behandelt wird.
Weiterlesen nach der Anzeige
Vega OS ist ein Linux OS, welches bei den Fire TV Sticks das auf Androids Open-Source-Variante aufgebaute Fire OS ablöst. Amazon verspricht mit Vega OS eine bis zu 30 Prozent schnellere Performance. Allerdings hatte das Unternehmen auch schon lange im Vorfeld betont, dass unter Vega OS nur offiziell unterstützte Anwendungen laufen – was bereits ein Hinweis war, dass Sideloading, also das manuelle Installieren von Apps aus inoffiziellen Quellen, schwieriger werden könnte. Auf der deutschen Produktseite der neuesten Generation des Fire TV Sticks HD, welcher in Deutschland noch nicht verfügbar ist, ist jetzt zu lesen:
„Für mehr Sicherheit verhindert dieses Gerät das Sideloading oder die Installation von Apps aus unbekannten Quellen. Nur Apps aus dem Fire TV Amazon Appstore stehen zum Download zur Verfügung.“

Kein Sideloading: Hinweis an Kunden auf der deutschen Produktseite des neuen Amazon Fire TV Stick HD.
(Bild: Screenshot Amazon.de)
Medienberichten zufolge ist dieser Hinweis auch für US-Nutzer auf der US-Seite zu sehen, allerdings nicht für alle – das könnte hierzulande auch der Fall sein. In den USA startet der Verkauf des Fire TV Sticks HD Ende April.
Sideloading: Amazon bestätigt Heise das Aus für reguläre Vega-Nutzer
Gegenüber heise online hatte Amazon den neuen Kurs beim Sideloading bereits im Herbst klargemacht. Hintergrund waren massive Probleme mit Piraterie-Apps, die in der Regel nur per Sideloading installieren lassen. Amazon geriet deswegen immer wieder unter Beschuss, bis sich das Unternehmen im Herbst entschied, gezielt gegen eine ganze Reihe solcher Apps vorzugehen und diese in Fire OS zu blockieren. Heise online erfuhr zu diesem Zeitpunkt auf Nachfrage von Amazon, dass sich die Maßnahmen unter Fire OS nur auf Piraterie-Apps beschränken würden und Sideloading grundsätzlich weiter möglich bleiben sollte. Vega OS hingegen sollte Sideloading für reguläre Nutzer nicht erlauben. Entwickler sollten laut Amazon aber auch unter Vega OS weiterhin Sideloading betreiben können.
Dafür müssen sie ihr Gerät laut Arstechnica bei Amazon entsprechend registrieren. Sideloading-Fans, die das nicht tun oder nicht tun können, könnten mit der gesamten neuen Generation von Fire TV Sticks indes wenig Freude haben. Auf seinen Entwicklerseiten gab Amazon bekannt, dass künftig alle Modelle mit Vega OS ausgestattet sein werden. Wer einen alten Stick mit Fire OS hat, unter dem das Sideloading noch geht, muss zumindest nicht damit rechnen, per Systemupdate auf Vega OS und damit ins neue, strenge Sideloading-Regime gezogen zu werden – im Herbst betonte das Unternehmen gegenüber heise online, dass es entgegen anderslautender Gerüchte keine Pläne gebe, bestehende Fire-TV-Geräte mit Fire OS als Betriebssystem auf Vega OS umzurüsten.
Weiterlesen nach der Anzeige
(nen)
Künstliche Intelligenz
HUDIMM: billigere Speichermodule für Intel-Mainboards
Der taiwanische Hersteller Asrock hat für seine Desktop-Mainboards das neue DRAM-Konzept „HUDIMM“ angekündigt. Dabei handelt es sich um Speichermodule für den herkömmlichen DDR5-Steckplatz mit 288 Kontakten. Der interne Aufbau der „half unbuffered DIMMs“ – daher der Name– unterscheidet sich jedoch. Daher soll vorerst nur Teamgroup die HUDIMMs herstellen. Das Konzept hat den Segen von Intel und soll mit Chipsätzen der Serien 600, 700 und 800 laufen, also mit allen aktuellen Prozessoren von Intel.
Weiterlesen nach der Anzeige
Das Ziel sind günstigere Speichermodule mit DDR5. Die Preise für herkömmliche DIMMs haben sich in den letzten sieben Monaten teils vervierfacht, weil für KI-Rechenzentren riesige Mengen an DRAM zu fast jedem Preis aufgekauft werden. Asrock und Co. wollen dem begegnen, indem für die gleiche Kapazität nur halb so viele DRAM-Bausteine auf einem HUDIMM verbaut werden.
Nur ein 32-Bit-Kanal in einem HUDIMM
Dazu wird einer der beiden Subkanäle weggelassen. Anders als bei DDR4 mit einem uniformen 64-Bit-Kanal für jeden DRAM-Kanal – üblicherweise mit bis zu zwei Steckplätzen – sieht DDR5 zwei Kanäle mit je 32 Bit vor. Das passt besser zu den Datenstrukturen von x86-Prozessoren und erlaubt unter anderem auch kurze Pausen gegen Überhitzung bei Schreib- und Lesevorgängen. Der Nachteil: Damit die beiden 32-Bit-Subkanäle genutzt werden können, muss dieselbe Zahl von Chips für jeden Subkanal auf dem DIMM verbaut werden. Auch die Platinen der DIMMs werden komplexer.
Teamgroup kann nun die ohnehin in der Produktion wegen des KI-Hypes bevorzugten DRAM-Bausteine mit größeren Kapazitäten zu einem Kanal zusammenfassen. Das ergibt in der Theorie HUDIMMs mit vergleichbarer Speichermenge als bei herkömmlichen DIMMs, aber mit weniger Chips, Leiterbahnen und damit Kosten. Konkrete Preisangaben machten die beteiligten Unternehmen jedoch noch nicht.
Seltsamer Vergleich bei der Leistung
Weiterlesen nach der Anzeige
Bei nur einem statt zwei Subkanälen stellt sich die Frage nach der Performance. Asrock legte dazu einen etwas kruden Vergleich mit einer Mischbestückung vor. Da HUDIMMs logisch und mechanisch kompatibel zu bisherigen DDR5-DIMMs sind, ist das folgende Konstrukt möglich: ein HUDIMM mit 8 GByte (ein Subkanal) und ein DIMM mit 16 GByte (zwei Subkanäle). Diese Kombination, mit also drei Subkanälen, soll nach Asrocks Messungen minimal schneller sein als ein einzelnes DIMM mit zwei Subkanälen. Verglichen wird also eine aus Sicht des Mainboards Dual-Channel-Bestückung mit einer Single-Channel-Konfiguration, beide mit 24 GByte. Zudem handelt es sich bei AIDA64 um einen synthetischen Benchmark, nicht einen mit echten Anwendungen.

Minimal schneller: Zwei DIMMs gegen eines ist auch ein bisschen unfair.
(Bild: Asrock)
Wenn aber die Speicherperformance für den konkreten Anwendungsfall gar nicht entscheidend ist, etwa für Büro-PCs, aber die Kapazität wichtiger ist, könnte ein einzelnes HUDIMM wirklich Kostenvorteile bringen. Wie schnell das dann ist, hat Asrock aber noch nicht verraten. HUDIMMs sollen auch im SO-DIMM-Format erscheinen, unter anderem für die Deskmini-Serie an besonders kompakten PCs. Laut Angaben des Unternehmens ist die Technik zum Patent angemeldet, es bleibt daher auch spannend, ob andere Hersteller HUDIMMs unterstützen. Für den Einsatz der neuen Speichermodule brauchen Asrock-Boards ein Firmwareupdate, das künftig hier zu finden sein soll.
(nie)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 1 MonatCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenInterview: Massiver Anstieg der AU‑Fälle nicht durch die Telefon‑AU erklärbar
-
Künstliche Intelligenzvor 2 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 2 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
