Künstliche Intelligenz
Mittwoch: London und Peking gegen Cybercrime, Rekorde für Streaming im Dezember
Ein neues, geheimes Forum soll die Kommunikation zwischen britischen und chinesischen Diensten verbessern. Es könnte das erste seiner Art sein. Bislang seien einschlägige Kontaktaufnahmen oft schwierig gewesen. Nun soll der Austausch formalisiert auf hoher Ebene erfolgen, um IT-Angriffe besser eindämmen und dagegen vorgehen zu können. In den USA war der erste Weihnachtstag 2025 der meistgestreamte Tag aller Zeiten. Das lag an NFL-Spielen und dem Finale von „Stranger Things“, erklären Marktforscher. Der gesamte Dezember hat den Streaming-Anbietern neue Rekorde beschert, wobei Netflix und Prime Video von Sportprogrammen profitiert haben. Derweil hat ein Kölner Gericht entschieden, dass eine schwer zu erkennende Kamera und ein verstecktes Mikro einen Futternapf nicht zur Wanze machen. Damit muss man heute rechnen, denn der Futterautomat ist keine einfache Schale mehr. Damit darf das Gerät in Deutschland verkauft werden, was die Bundesnetzagentur zuvor untersagt hatte – die wichtigsten Meldungen im kurzen Überblick.
Weiterlesen nach der Anzeige
Zum Thema Unterwanderung von IT-Sicherheit tauschen sich fortan hochrangige Vertreter der Sicherheitsapparate der Volksrepublik China und des Vereinigten Königreichs aus. Dafür haben sie einen sogenannten Cyber Dialogue eingerichtet, als Basis für nicht öffentlichen Diskurs. Hintergrund sind laufende IT-Attacken und Spionagecoups. Offiziell ist von dem Cyber Dialogue keine Rede, doch inoffiziell haben Eingeweihte davon erzählt. Ziel sei, die Kommunikation zwischen den Sicherheitsverantwortlichen zu verbessern, damit diese sich insgeheim über Abwehrmaßnahmen austauschen können. Dass die Spione von ihren Verbrechen ablassen und sich fortan an geltendes Recht halten, erwartet niemand. Ziel sei vielmehr, Eskalationen zu vermeiden: Roter Draht zwischen Peking und London zur IT-Sicherheit.
Im Dezember und insbesondere am ersten Weihnachtstag des vergangenen Jahres haben Streaming-Anbieter in den Vereinigten Staaten neue Rekorde aufgestellt. Die Marktforscher von Nielsen haben am 25.12.2025 55,1 Milliarden Sehminuten bei den Streaming-Diensten gemessen, was den bisherigen Rekord vom selben Tag des Vorjahres um 8 Prozent übertroffen hat. Das lag vor allem an drei Spielen der nordamerikanischen Football-Liga NFL sowie dem an diesem Tag erstmals verfügbaren Finale der TV-Serie „Stranger Things“. Gleichzeitig bedeutet dies, dass 54 Prozent aller TV-Geräte in den USA an diesem Tag für Streaming verwendet wurden, ebenfalls ein Rekord für die Streaming-Nutzung eines Tages. Vor allem Netflix und Prime Video konnten zulegen, so die Marktforscher: Streaming-Nutzung erreichte im Dezember 2025 neue Rekordzahlen.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier eine externe Umfrage (Opinary GmbH) geladen.
Ein für „Fernüberwachung“ beworbener, vernetzter Futternapf hat den Argwohn der deutschen Bundesnetzagentur erweckt. Weil er eine nur aus nächster Nähe zu erkennende Kamera und ein von außen gar nicht ersichtliches Mikrofon hat, erkannte die Behörde darin eine missbräuchliche Telekommunikationsanlage. Doch das Verwaltungsgericht Köln (VG) sieht das anders und erlaubt Einfuhr, Vertrieb und Nutzung bis auf Weiteres: Wer den Futterautomaten sehe, rechne „mit einer Überwachungsfunktion desselben.“ Denn das Gesetz setzt voraus, dass der Gegenstand zur Abhörung oder Überwachung getarnt ist. Eine Tarnung sei aber nicht gegeben. Der Futterautomat sehe aus wie ein Futterautomat. Maßgeblich sei die Wahrnehmung durch Dritte, erklärt das Kölner Gericht: Vernetzter Futternapf ist keine heimliche Überwachung.
Gegen Überwachung oder Einmischung ausländischer Kräfte hat die EU-Kommission Dienstag eine Zäsur für den europäischen IT-Markt eingeleitet. Ihr Entwurf für den Cybersecurity Act 2 sucht Lösungen für eine Ära, in der digitale Infrastrukturen zum Schauplatz geopolitischer Machtkämpfe geworden sind. Die Kommission verlässt damit den Pfad unverbindlicher Empfehlungen und will eine Rechtsgrundlage schaffen, um Anbieter mit kritischem Risikoprofil wie Huawei oder ZTE aus China konsequent aus europäischer Infrastruktur verdrängen zu können. Was bisher vor allem für 5G-Netze im Rahmen einer „Toolbox“ galt, soll nun auf insgesamt 18 kritische Sektoren ausgedehnt werden. Ziel ist eine „Festung Europa“ im digitalen Raum und digitale Souveränität: EU bläst zum Halali auf „Hochrisiko-Anbieter“ wie Huawei.
Mit der ersten stabilen Version von Cosmic betritt ein neuer Linux-Desktop die Bühne: Die Desktopumgebung von System76 ist komplett neu in Rust programmiert und setzt auf das moderne Display-Server-Protokoll Wayland. Der einsteigerfreundliche Desktop lässt sich mit grafischen Tools leicht an eigene Vorstellungen anpassen und schnell mit Tastenkürzeln bedienen. Das Besondere an Cosmic Epoch 1 ist sein eingebauter Tiling-Manager, der Fenster automatisch auf ein Raster verteilt und so den vorhandenen Platz optimal nutzt. Der ist kein Muss und lässt sich ganz nach Bedarf an- und abschalten oder mit schwebenden Fenstern kombinieren. Die erste stabile Version lässt sich blitzschnell bedienen: Flexibler Linux-Desktop Cosmic Epoch 1 mit einfachem Tiling-Modus im Test.
Weiterlesen nach der Anzeige
Auch noch wichtig:
- Trotz des geringen Angebots sind gebrauchte E-Autos eher billig. Die Preise dürften durch die Förderung weiter sinken, schätzt die Deutsche Automobil Treuhand: Wertverlust gebrauchter Elektroautos ist höher als bei Verbrennern.
- Im Iran sind nicht nur Mobilfunk- und Festnetze gestört, sondern auch Starlink. Wir erklären, wie das trotz Tausender Satelliten vermutlich erreicht wird bei Starlink im Iran: Wie das Regime den Dienst stört und was dagegen hilft.
- Peking weist inländische Firmen an, fortan auf Sicherheitsdienste bestimmter Firmen aus den USA, Israel und Frankreich zu verzichten. Das berichtet Reuters: Viele westliche Sicherheits-Anbieter in China nicht mehr willkommen.
- In der Nacht zu Dienstag hat ein heftiger Sonnensturm für Polarlichter bis weit in den Süden gesorgt. In ganz Deutschland war das Himmelsphänomen zu bestaunen, denn es war ein heftiger Sonnensturm bei perfektem Wetter: Polarlichter über ganz Deutschland.
- KI soll die große Produktivitätsrevolution entfachen. Aber bisher sind die Ergebnisse in den Unternehmen durchwachsen, die Mehrheit sieht keinen Effekt. Man sieht kaum Mehrwert in Firmen: Ist KI doch eine Enttäuschung?
- Das neue Jahr läuft – und Apples Pipeline ist gut gefüllt. Es dürfte zu einigen Änderungen im Angebot kommen. Ein Überblick und eine Produktvorschau: Diese Hardware plant Apple wohl für 2026.
- Microsofts Januar-Sicherheitsupdates für Windows 11 stören offenbar auch Outlook. Microsoft untersucht Probleme mit POP-Mail-Konten nach den Windows-Updates: Weitere Nebenwirkungen auf klassisches Outlook.
- Tests und Ankündigungen gab es bereits, nun stellt das Let’s-Encrypt-Projekt 6-Tage- und IP-Zertifikate für alle zur Verfügung: Mit Let’s Encrypt 6-Tage- und IP-Zertifikate für alle.
- Die VR-Mod von Luke Ross für „Cyberpunk 2077“ ist offline. Der Publisher duldet keine Paywalls für Fanprojekte und zieht rechtliche Konsequenzen: CD Projekt stoppt VR-Mod für „Cyberpunk 2077“ wegen Paywall auf Patreon.
- Mitsubishi stellt einen Ableger des Renault Scenic vor, der ganz gute Chancen haben dürfte, ordentliche Verkaufszahlen zu erreichen. Das E-Auto Mitsubishi Eclipse Cross ist eine Renault-Kopie mit üppiger Reichweite.
(fds)
Künstliche Intelligenz
Sexuelle Deepfakes: Erster Staat gibt Zugriff auf Grok wieder frei
Das KI-Unternehmen xAI hat die zuständige Behörde der Philippinen überzeugt, dass der KI-Chatbot Grok ausreichend geändert werden kann, um dort sexualisierte Deepfakes zu verhindern. Im Gegenzug wurde eine vor einer Woche verhängte Sperre für die KI-Software beendet, berichtet die Finanznachrichtenagentur Bloomberg unter Berufung auf das zuständige Cybercrime-Zentrum. xAI habe zugesagt, das Werkzeug dahingehend zu ändern, weswegen man den Zugriff darauf wieder freigegeben habe. Die Philippinen waren vorige Woche der dritte Staat aus Südostasien, der den Zugriff auf Grok gesperrt hat. Indonesien und Malaysia haben diese Entscheidung noch nicht rückgängig gemacht.
Weiterlesen nach der Anzeige
Unterschiedliche Reaktionen
Der Schritt der Behörde aus Manila zeigt, dass es xAI gelingen kann, der teils massiven Kritik an Grok den Wind aus den Segeln zu nehmen. Das scheint aber nicht überall zu klappen, hat sich in dieser Woche angedeutet. Am Montag hat das Handelsblatt berichtet, dass die EU-Kommission Maßnahmen gegen Grok ergreifen will. Sollte es nicht gelingen, die Generierung nicht genehmigter sexualisierter Deepfakes von Personen komplett zu verhindern, könnte der Dienst in Europa gesperrt werden, hat die Zeitung zitiert. Dabei hatte xAI da schon angekündigt, dass eine technologische Sperre solche KI-Bilder verhindern soll. Das hat aber anfangs nicht durchgehend funktioniert.
Hintergrund der staatlichen Reaktionen sind KI-Bilder, die Grok Anfang des Jahres teilweise zu tausenden pro Stunde generiert hat. Auf denen wurden primär reale Frauen und teilweise auch Minderjährige in Unterwäsche oder Bikinis dargestellt. Nach der ersten heftigen Kritik hat xAI die Technik dahingehend eingeschränkt, dass Bildgenerierung nur noch in direkten Chats oder gegen Bezahlung möglich war. Das wurde aber vielfach so interpretiert, dass die problematische Funktion einfach als Premiumangebot vermarktet wurde. Deshalb hat xAI vorige Woche noch einmal nachgelegt und zugesagt, diese Art der Bildgenerierung komplett zu stoppen.
(mho)
Künstliche Intelligenz
Bixby bekommt neues Leben eingehaucht – mit KI von Perplexity
Totgeglaubte leben länger. Das neueste Beispiel für dieses Sprichwort ist die Ankündigung von Samsung, seinen Sprachassistenten Bixby mit der KI von Perplexity zu versehen. Der neue KI-Assistent soll mit dem Update auf One UI 8.5 auf Galaxy-Smartphones landen und offenbar neben Googles Gemini existieren. Entsprechende Gerüchte kursieren bereits seit Mitte 2025.
Weiterlesen nach der Anzeige
Bixby soll mithilfe von Perplexity schlauer werden
Samsungs Voice-Assistent Bixby diente seit dem Einzug von Google Gemini in Galaxy-Smartphones in erster Linie als eine Art Schnittstelle zwischen Googles KI und Samsungs One UI, um Systemeinstellungen wie etwa die Helligkeit des Bildschirms oder ähnliche Dinge per Sprache durchzuführen. Das soll sich mit One UI 8.5 ändern, wie der südkoreanische Hersteller in einer Pressemitteilung ankündigte. Diese ist zwar schon wieder von der Webseite entfernt worden, jedoch haben sowohl Droid Life als auch Sammobile den Inhalt gesichert.
Lesen Sie auch
Der neue Bixby-Assistent soll laut Samsung künftig dazu in der Lage sein, viele Abläufe auf einem Galaxy-Gerät zu steuern, indem Nutzerinnen und Nutzer in natürlicher Sprache mit ihm sprechen. So sei es möglich, bestimmte Einstellungen zu ändern, ohne dass man genau weiß, wie die entsprechende Systemeinstellung heißt oder zu finden ist. In ähnlicher Form hatte Samsung dies schon für das Galaxy S25 im Zusammenspiel mit Gemini angekündigt. Mit One UI 8.5 kooperiert der Hersteller nun aber zusätzlich mit Perplexity.
Ähnlich wie bei Siri
Während einfache Anfragen offenbar von Bixby selbst vorgenommen werden können, springt für komplexere Aufgaben Perplexity AI ein, um danach im Internet zu suchen: Als Beispiel nennt Samsung die Anfrage: „Finde Hotels in Seoul, die Swimmingpools für Kinder haben.“ Bixby verarbeitet die Anfrage und liefert mithilfe von Perplexity relevante Web-Suchergebnisse direkt in der Bedienoberfläche.
Die Perplexity-Integration in Bixby erinnert an die aktuelle Funktionsweise von Apples Siri. Einfache Aufgaben kann Siri direkt auf dem Gerät selbst ausführen. Bei anspruchsvolleren Dingen, die eine KI-Recherche erfordern, holt Siri Hilfe von ChatGPT.
Weiterlesen nach der Anzeige
Samsung ist nicht das erste Unternehmen, das auf seinen Android-Geräten auf mehrere KI-Assistenten setzt. Denn in Motorolas aktuellen Modellen ist Perplexitys KI-gestützte Suche direkt in Moto AI integriert, außerdem kann auf Microsofts Copilot zugegriffen werden, wobei Gemini der Standardassistent ist. Die Partnerschaft mit dem größten Android-Smartphone-Hersteller dürfte für Perplexity jedoch einen massiven Wachstumsschub bedeuten.
Sanktionen oder Einschränkungen irgendwelcher Art durch die Integration von Perplexity in Bixby vonseiten Google dürfte Samsung nicht erfahren. Denn gemäß einer Vereinbarung mit Google dürfen Samsung und andere Hersteller alternative generative KI-Dienste neben Gemini installieren.
Wohl zuerst im Galaxy S26
Was die Verfügbarkeit des neuen Bixby-Assistenten angeht, heißt es seitens Samsung lediglich, dass er in „ausgewählten Märkten“ in der stabilen Version One UI 8.5 verfügbar sein wird, eine breitere Einführung soll später folgen. Derzeit bietet Samsung die neue One-UI-Version unter anderem für das Galaxy S25 als Betaversion an. Das fertige Update auf One UI 8.5 wird mit hoher Wahrscheinlichkeit jedoch zuerst auf der Galaxy-S26-Serie verfügbar sein, die gegen Ende Februar erwartet wird. Erst danach dürfte Samsung die neue Version auf Bestandsgeräte verteilen. Diese Strategie verfolgte Samsung zumindest bei seinen bisherigen Versionen.
(afl)
Künstliche Intelligenz
Model-Schau 2: Neue Architekturansätze bei den Sprachmodellen
Das neue Jahr ist noch jung, aber die Sprachmodell-Community hat sich keine Pause gegönnt. So geht es munter mit neuen Modellen, aber auch mit neuen Architekturansätzen ins Jahr 2026, auch wenn einige der vorgestellten Neuerungen noch aus den letzten Wochen von 2025 stammen.
Weiterlesen nach der Anzeige

Prof. Dr. Christian Winkler beschäftigt sich speziell mit der automatisierten Analyse natürlichsprachiger Texte (NLP). Als Professor an der TH Nürnberg konzentriert er sich bei seiner Forschung auf die Optimierung der User Experience.
Gedächtnis-Titan von Google
Bisher kämpfen fast alle Sprachmodelle mit Amnesie. Sobald sie lange Texte verarbeiten sollen, vergessen sie entscheidende Details. Diese Tendenz verstärkt sich mit längerem Kontext. Besonders die Teile in der Mitte gehen dann verloren (lost in the middle). Es gibt zahlreiche Ansätze, Modelle in dieser Hinsicht zu verbessern. Einige Modelle setzen beispielsweise alternierend sogenannte Mamba-Layer (oder State Space Models) ein, die besonders bei langen Sequenzen besser skalieren und weniger Speicherplatz benötigen, dafür aber nicht so präzise arbeiten wie Transformer. Andere Modelle setzen auf rekurrente neuronale Netze (RNNs), die man nach der Erfindung der Transformer eigentlich schon fast abgeschrieben hatte.
(Bild: Golden Sikorka/Shutterstock)

Die Online-Konferenz LLMs im Unternehmen zeigt am 19. März, wie KI-Agenten Arbeitsprozesse übernehmen können, wie LLMs beim Extrahieren der Daten helfen und wie man Modelle effizient im eigenen Rechenzentrum betreibt.
Google hat nun zwei neue Forschungsartikel dazu veröffentlicht. Der erste nennt sich „Titans“ und führt eine Architektur ein, die nach ihren eigenen Worten „die Geschwindigkeit von RNNs mit der Genauigkeit von Transformern zusammenbringt“. Google erreicht das durch den Einsatz von Transformern und dem Attention-Mechanismus für das Kurzzeitgedächtnis, für das Langzeitgedächtnis verwendet der Ansatz tiefe neuronale Netze (und nicht etwa RNNs). Eine sogenannte Überraschungs-Metrik soll sich besonders auf die Textteile konzentrieren, die nicht erwartete Wörter enthalten. Mit einem adaptiven Verfallmechanismus vergisst das Modell dann die Informationen, die es nicht mehr benötigt.
Google stellt mit „MIRAS“ auch gleich einen Blueprint zur Implementierung vor. Das dahinterliegende KI-Modell fokussiert sich auf eine Memory-Architektur, den Attention-Bias (mit dem es wichtige von unwichtigen Informationen unterscheidet) und die Mechanismen zum Vergessen beziehungsweise zum Aktualisieren des Gedächtnisses. Statt des mittleren quadratischen Fehlers oder des Skalarprodukts optimiert Google nichteuklidische Metriken und nennt dafür drei Beispielmodelle, die auf dem Huber-Loss, generalisierten Normen oder einer Wahrscheinlichkeitsabbildung basieren.
Das klingt äußerst mathematisch, aber Google kann damit in ersten Demos bessere Ergebnisse als mit einer reinen Mamba-Architektur erzielen. Den am Schluss erklärten Extrem Long-Context Recall vergleicht der Artikel allerdings nur mit Modellen wie GPT-4 oder Qwen2.5-72B, die schon mindestens ein Jahr alt sind. Diese Ergebnisse sollte man also mit Vorsicht genießen. Spannend wird es, wenn Google damit richtig große Modelle trainiert und zur Verfügung stellt.
Weiterlesen nach der Anzeige
Liquid Foundation Models
Eine ganz andere Architektur setzen die Liquid Foundation Models ein. Lange waren die Liquid Models schon mit Demos präsent, in denen sie mit kleinen Modellen erstaunliche Fähigkeiten entwickeln konnten. Der Durchbruch kam dann mit LFM2. Teile der Modelle setzen die Transformer-Architektur mit Attention ein, andere nutzen Multiplikations-Gates und Konvolutionen mit kurzen Sequenzen. Allerdings war bisher die Performance der darauf aufbauenden Modelle noch nicht gut genug.
Geändert hat sich das mit LFM2.5, einer ganzen Serie von kleinen Modellen mit nur gut einer Milliarde Parametern. Vorerst sind die Modelle für Edge-Devices gedacht, sie lassen sich aber auch mit hoher Geschwindigkeit auf üblicher Hardware ausführen. Die in Abbildung 1 dargestellten Ergebnisse sind mit Vorsicht zu genießen, da sie vom Anbieter stammen. Unabhängig davon machen die Modelle für ihre Größe einen hervorragenden Eindruck. Für viele Anwendungen wie Retrieval-Augmented Generation (RAG) könnten diese gut zum Einsatz kommen, weil das Wissen dafür nicht in den Modellen selbst stecken muss, die hier nur zum Feinabgleich und für Formulierungen eingesetzt werden. Mit einer kleinen GPU lassen sich die Modelle extrem schnell ausführen. Auf einer performanten CPU arbeiten sie immer noch schnell.

Beim Erdbeertest kann LFM 2.5 ebenso wenig überzeugen (Abb. 1) …

wie mit der Erklärung von heise (Abb. 2).
Neben den Modellen zur Textgenerierung gibt es auch ein hybrides Modell, das gesprochenen Text sowohl verstehen, als auch erzeugen kann. Gerade für mobile Endgeräte kann die Funktion sinnvoll sein, damit man auch ohne Internet- und Cloud-Zugriff Sprache in Text und umgekehrt umwandeln kann.

Performance von LFM2.5-1.2B-Instruct im Vergleich zu ähnlich großen Modellen (Abb.3)
(Bild: Hugging Face)
Schlanke Coding-Modelle erobern Benchmarks
Bei IQuest-Coder handelt es sich um ein neues Modell mit 40 Milliarden Parametern, das insbesondere in der Loop-Variante interessante Ideen mit einbringt. Der Transformer arbeitet rekurrent, verarbeitet also die Tokens mehrfach – zunächst doppelt in zwei Iterationen. IQuestLab verspricht damit deutlich höhere Performance. Seine Entwickler behaupten, in den einschlägigen Benchmarks wesentlich bessere Ergebnisse erzielen zu können als vergleichbar große Modelle. Trotz anfänglicher Euphorie scheint das Modell aber nicht besonders populär zu sein.
Einen anderen Weg geht NousResearch. Es nutzt Qwen-14B als Basismodell, um mit modernen Methoden daraus ein Coding-Modell zu erzeugen. Auch wenn es nicht mit den deutlich größeren Modellen konkurrieren kann, erzielt es für seine Größe gute Ergebnisse und zeigt einen möglichen weiteren Weg für Coding-Modelle auf.
Chinesische Modelle mit offenen Gewichten
Die seit Kurzem an der Börse in Hong Kong notierte Firma Z.ai hat mit GLM-4.7 ein lang erwartetes Modell veröffentlicht, das sich in vielen Benchmarks an die Spitze der Modelle mit offenen Gewichten gesetzt hat. Mit 355 Milliarden Parametern verfügt es zwar über eine stattliche Größe, ist aber immer noch viel kleiner als die Modelle von DeepSeek oder Kimi. Laut Benchmarks ist GLM 4.7 besonders gut bei Coding-Aufgaben und bei komplexen Denkaufgaben.
Im Vergleich zum Vorgänger GLM 4.6 ist es praktisch in allen Dimensionen besser, außerdem hat Z.ai die Kontextlänge auf 200.000 Token erhöht. Das führt zu einem sehr großen Modell mit 335 Milliarden Parametern. Das Modell verfügt dazu über 160 Experten, von denen immer acht (und ein geteilter) aktiv sind. Zusammen mit den ersten dichten Layern ergeben sich damit 32 Milliarden Parameter, die bei jedem Aufruf aktiv sind. Um den RAM-Bedarf der (quantisierten) Modelle etwas zu verkleinern, haben einige User versucht, die Experten zu eliminieren, die häufig schlechte Antworten erzeugen. Das Verfahren dazu nennt sich REAP (Reflection, Explicit Problem Deconstruction, and Advanced Prompting) und produziert schlankere Modelle, deren Ausgabe sich kaum von der des vollen Modells unterscheiden lässt.

Den Erdbertest besteht GLM-4.7 (Abb. 4).

Die heise-Erklärung ist im Vergleich zu vielen anderen Modellen auffällig stimmig, auch wenn sie ausgerechnet bei Heise Developer etwas dazu erfindet. (Abb. 5)

Bei Taiwan gibt sich GLM-4.7 recht offen (Abb. 6).

Auch zu Tiananmen hält sich das Modell kaum zurück (Abb. 7).

Und erklärt sogar die Unterdrückung durch die chinesische Parteiführung (Abb. 8).
Bei MiniMax 2.1 handelt es sich um ein weiteres Modell aus China, das sich ebenso wie GLM 4.7 auf Coding, Nutzung von Werkzeugen und agentische Workflows fokussiert. Der Anbieter veröffentlicht wesentlich weniger Informationen als Z.ai, aber in den entsprechenden Dateien lässt sich einiges finden. Wenig überraschend handelt es sich auch bei MiniMax 2.1 um ein MoE-Modell, allerdings mit 256 Experten, von denen immer acht befragt werden. Von den insgesamt 230 Milliarden Parametern sind dann jeweils immer 10 Milliarden aktiv. Auch MiniMax kann wie GLM 4.7 mit knapp 200.000K Token umgehen.
Die Community ist sich nicht einig, ob GLM 4.7 oder MiniMax 2.1 sich besser für Programmieraufgaben eignet. Zweifellos sind beides sehr starke Modelle, die dank (relativ) weniger aktiver Parameter auch noch verhältnismäßig schnell ausgeführt werden können.

Auch Minimax-M2.1 zählt beim Erdbeertest richtig (Abb. 9).

Bei der heise-Erklärung gibt es eine Mischung aus korrekten und erfundenen Informationen (Abb. 10).

Bei der Taiwan-Frage gibt es eine differenzierte, aber recht knappe Antwort (Abb. 11).

Die Tiananmen-Ereignisse verharmlost das Modell (Abb. 12).

Und es äußerst sich zur Zensur, auch wenn es hier den Bezug zu dem zuvor als Referenz genannten Tiananmen auslässt (Abb. 13).
Modelle von LG aus Südkorea
Aus Südkorea hat man bisher wenige Modelle gesehen. Das hat sich nun geändert, mit K-EXAONE stellt LG ein entsprechendes Modell zur Verfügung. Wie nicht anders zu erwarten, ist es vor allem auf englische und koreanische Texte trainiert, spricht aber auch Spanisch, Deutsch, Japanisch und Vietnamesisch. Mit 236 Milliarden Parametern ist es sehr groß, auch wenn nur jeweils immer 23 Milliarden Parameter aktiv sind. Es nutzt Sliding Window Attention und kann damit lange Kontexte von bis zu 256K Token verarbeiten. In den Benchmarks performt das Modell ähnlich gut wie das (deutlich kleinere) gpt-oss-120b oder das (ebenso große) Qwen-235B-A22B-Thinking.
Spannende Zeiten
Es hat sich in den letzten Wochen einiges getan – in ganz unterschiedlichen Richtungen. Ob sich Googles Ideen umsetzen lassen und durchsetzen können, wird sich erst in einer ganzen Weile zeigen. Unstrittig dürfte hingegen sein, dass die Liquid Foundation Models für ihre Größe wirklich Beachtliches leisten. Das trifft auch für die (scheinbar wenig zensierten) großen chinesischen Modelle zu, die sich sehr gut für agentische Aufgaben eignen. Schließlich taucht auch erstmals ein großes koreanisches Modell auf, das konkurrenzfähig ist. Das lässt auf eine weitere Diversifizierung in der Zukunft hoffen.
(rme)
-
Entwicklung & Codevor 2 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
UX/UI & Webdesignvor 3 MonatenArndt Benedikt rebranded GreatVita › PAGE online
-
Künstliche Intelligenzvor 3 WochenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Entwicklung & Codevor 1 MonatKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGoogle „Broadwing“: 400-MW-Gaskraftwerk speichert CO₂ tief unter der Erde
-
Apps & Mobile Entwicklungvor 2 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Social Mediavor 1 MonatDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Apps & Mobile Entwicklungvor 2 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
