Connect with us

Künstliche Intelligenz

GLM-4.5: Offenes Sprachmodell für schlanke Hardware


Ein neues Sprachmodell aus China ist da: Das jüngst unter der MIT-Lizenz veröffentlichte Modell GLM-4.5 vom Anbieter Z.ai (ehemals Zhipu) funktioniert richtig gut und lässt sich auch in der kleineren Version auf moderater Hardware flott betreiben. Es handelt sich um ein hybrides Modell, das sowohl Reasoning beherrscht – also den Weg zu seinen Schlussfolgerungen zeigt –, aber auch als Non-Reasoning-Modell agieren kann. Interessanterweise geht Qwen, das Sprachmodell von Alibaba, genau den umgekehrten Weg und hat aus den hybriden Modellen wieder zwei unterschiedliche (Instruct, Thinking) gebaut.

GLM-4.5 ist ein großes Modell mit 335 Milliarden Parametern. Die genutzte Mixture-of-Experts-Architektur führt dazu, dass bei der Inferenz immer nur 32 Milliarden Parameter aktiv sind. Die somit kleinere Anzahl von Berechnungen erlaubt eine Beschleunigung in der Generierung der Tokens. Das Modell hat 160 Experten, davon werden jeweils immer acht (und ein Shared Expert, der immer gefragt wird) gleichzeitig verwendet. Es verfügt über 96 Attention-Heads und 92 Transformer-Schichten – und ist damit deutlich tiefer als etwa DeepSeek R1 oder Kimi K2. Obwohl Z.ai die Gewichte auch als FP8-Werte bereitstellt, ist GLM-4.5 trotzdem ein riesiges Modell, das man nicht einfach auf Consumer-GPUs betreiben kann, auch in einer quantisierten Version ist es für die meisten CPUs zu groß.

Deswegen hat Z.ai noch eine kleinere Version des Modells in petto und nennt es GLM-4.5-Air. Es ist in fast allen Belangen dem GLM-4.5-Modell unterlegen, aber nicht drastisch. Dafür ist es mit 106 Milliarden Parametern (12 Milliarden aktiv) viel kleiner und kann zum Beispiel mit 64 GByte RAM auf CPUs in einer Vier-Bit-Quantisierung betrieben werden – oder auch auf einer A100-GPU. Die Architektur ist sehr ähnlich, nur in vielen Dimensionen kleiner (128 Experten, 46 Layer). Leider schweigt sich Z.ai über die genauen Verwandtschaftsverhältnisse von GLM-4.5 und GLM-4.5-Air aus. Auch sonst sind technische Informationen auf dem Blog eher spärlich zu finden.

Relativ genau beschreibt Z.ai den Trainingsprozess und hat dazu die neue Methode „slime“ entwickelt und als Open-Source-Software zur Verfügung gestellt. Das Verfahren legt besonderen Wert auf agentenorientiertes Design, was sich auch in den Ergebnissen widerspiegelt. Dazu nutzt man unterschiedliche Phasen des Reinforcement Learnings, die von Reasoning über agentisches bis zum allgemeinen Training reichen. Z.ai konzentriert sich auf die möglichst flexible Nutzung von Infrastruktur, das Training kann auch asynchron stattfinden und stellt sicher, dass alle GPUs immer optimal genutzt werden.

Benchmarks zu den Modellen gibt es noch wenige, in der LMarena ist es noch nicht zu finden. Die Informationen im Blog-Artikel von Z.ai sehen vielversprechend aus, besonders im Bereich der Agenten-KI scheint es den (viel größeren) State-of-the-Art-Modellen nicht sehr unterlegen zu sein.

Wegen der frei verfügbaren Gewichte kann man das Modell auch selbst ausprobieren. Einen Dialog des Autors mit GLM-4.5-Air finden interessierte Leser hier. Leider nicht ganz so einfach kann man die Funktion testen, mit der GLM-4.5 Folien erstellen kann. Das geht auf der Website von Z.ai selbst und ist beeindruckend.

GLM-4.5 ist ein richtig starkes Modell. Ob es wirklich die entsprechende Wertschätzung erfährt, bleibt abzuwarten. Denn: Aktuell ist es nicht ganz einfach, bei der Flut von neu veröffentlichten Modellen den Überblick zu bewahren. Alleine Qwen hat innerhalb weniger Tage viele Modelle veröffentlicht, darunter Qwen3-Coder-30B-A3B, das mit nur drei Milliarden aktiven Parametern lokal beim Programmieren unterstützen kann. Dabei scheint es eine ausgezeichnete Figur zu machen – die zwar sicher nicht an das nur zehn Tage früher veröffentlichte Qwen3-Coder-480B-A35B-Instruct herankommt, aber das hat auch 16-mal so viele Parameter. Spannend daran ist, dass es sich bei diesen Modellen nicht um Reasoning-Modelle handelt, die aber dennoch in der gleichen Liga spielen, die bisher den reinen Reasoning-Modellen vorbehalten war. Die deutlich schnelleren Antworten (durch viel weniger generierte Tokens wegen des nicht notwendigen Reasonings) führen zu deutlichen Effizienzgewinnen bei der Programmierung.

Aber auch methodisch hat sich in wenigen Tagen viel getan. Der neue „slime“-Trainingsprozess kann als Open-Source-Software auch von anderen Anbietern genutzt werden. Qwen hat das GRPO-Verfahren verfeinert und GSPO genannt. Kimi K2 nutzt zur Optimierung der Gewichte nicht AdamW, sondern Muon und erreicht damit eine schnellere Konvergenz. Fügt man all diese Puzzlestücke zusammen, kann man erwarten, dass sich die Frequenz der neu verfügbaren und besseren Modelle bald sicher noch erhöht.


(fo)



Source link

Künstliche Intelligenz

Last Call: c’t-Webinar – Sprachmodelle verstehen statt nur verwenden


Ob in Redaktion, Kundenservice oder Verwaltung – KI-Sprachmodelle schreiben längst mit. Sie fassen Texte zusammen, übersetzen Inhalte und erstellen Transkripte in Sekunden. Das spart Zeit, wenn man weiß, wie man die Werkzeuge richtig nutzt. Doch die neuen Werkzeuge werfen auch Fragen auf: Wie zuverlässig sind ihre Ergebnisse? Welches Modell eignet sich für welchen Zweck? Und was gilt es rechtlich zu beachten?

Weiterlesen nach der Anzeige

Denn wer ihre Grenzen nicht kennt, tappt schnell in die KI-Falle: überzogene Erwartungen, unklare Zuständigkeiten, falsche Ergebnisse – und am Ende mehr Aufwand statt Entlastung.

Das Webinar bietet eine kompakte, praxisnahe Einführung in den produktiven Einsatz von Sprach-KI. Die c’t-Redakteure Hartmut Gieselmann und Jo Bager erklären, wie große Sprachmodelle funktionieren, welche Aufgaben sie übernehmen können und wo ihre Grenzen liegen. Dabei gehen sie auch auf alternative Modelle zu ChatGPT ein, etwa Llama oder Mistral.

Die Referenten zeigen anhand konkreter Szenarien, wie sich Sprach-KI in unterschiedlichen Branchen sinnvoll einsetzen lässt. Sie beleuchten technische Grundlagen, Kostenfaktoren und den Ressourcenbedarf der Systeme.

c’t-Redakteur Holger Bleich gibt einen kompakten Überblick über die rechtlichen Rahmenbedingungen beim Einsatz von Sprach-KI: Datenschutz, Urheberrecht und die neue EU-KI-Verordnung, die seit August 2025 strengere Transparenzpflichten vorschreibt.

Weiterlesen nach der Anzeige

Das Webinar richtet sich an alle, die Sprachmodelle bereits in ihre Arbeitsprozesse integriert haben oder den Einsatz planen. Auch erfahrene Nutzer, die die Systeme besser verstehen und souverän einsetzen wollen, finden hier wertvolle Orientierung. Ziel ist es, ein realistisches Verständnis der Möglichkeiten und Grenzen aktueller Sprachmodelle zu vermitteln und Sicherheit im produktiven Umgang mit den Systemen zu schaffen.

  • Termin: 6. November 2025
  • Uhrzeit: 10 bis 13 Uhr
  • Kosten: 69,00 Euro

Weitere Informationen und die Anmeldung finden Sie auf der Seite zum c’t-Webinar von heise academy.


(abr)



Source link

Weiterlesen

Künstliche Intelligenz

Samsung macht Kühlschrank-Displays zur Werbefläche


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Samsung hat ein Software-Update für die smarten Kühlschränke der Family-Hub-Baureihe angekündigt. Dazu gehören unter anderem eine verbesserte KI-basierte Erkennung von Lebensmitteln, die Bedienoberfläche One UI sowie eine neue Bildschirmoberfläche. Diese enthält jedoch eine weniger schöne Funktion.

Weiterlesen nach der Anzeige

Cover nennt Samsung das neue Bildschirm-Widget, das erscheint, wenn der Kühlschrank nicht genutzt wird. Das Widget zeige „nützliche Informationen für den Alltag“ an, teilte Samsung mit. Dazu gehören „Nachrichten, Kalender und Wettervorhersagen“.

Allerdings wird auf den Bildschirmen, die je nach Modell eine Diagonale von 21,5 oder 32 Zoll haben, auch Werbung ausgespielt. Diese Anzeigen seien „sorgfältig ausgewählt“. Die Werbung soll kontextbasiert und nicht personalisiert sein. Die Werbung wird zunächst nur auf Geräten in den USA ausgespielt. Einen entsprechenden Testlauf gab es im September.

Immerhin bietet Samsung in den Einstellungen die Möglichkeit, die Werbung komplett zu deaktivieren. Stattdessen werden dann Bilder gezeigt. Daneben können auch gezielt einzelne Anzeigen blockiert werden.

Allerdings gibt es da einen Haken: Die Werbung abzuschalten bedeutet, das ganze Cover-Widget zu deaktivieren. Das heißt, dann auch auf die Nachrichten, den Kalender und die Wettervorhersagen zu verzichten.

Samsung plane zunächst Werbung für eigene Produkte anzuzeigen, sagte Shane Higby, Leiter der Haushaltsgerätesparte von Samsung in den USA, dem US-Onlinenachrichtenangebot The Verge. Allerdings berichtet The Verge von einer Präsentation eines Samsung-Managers, nach der Samsung es in Zukunft auch Drittanbietern ermöglichen will, auf seinen smarten Haushaltsgeräten zu werben.

Weiterlesen nach der Anzeige

Zu den praktischen Funktionen hingegen gehört das System AI Vision Inside, das helfen soll, die Verschwendung von Lebensmitteln zu verhindern. Es erkennt jetzt mehr Lebensmittel, nämlich „37 frische Lebensmittel, darunter Äpfel, Kirschen, Gurken, Mangos, Kiwis“ sowie „bis zu 50 verpackte Lebensmittel“.

Der Sprachassistent Bixby bekommt neue Voice-ID-Funktionen: Er erkennt, wer mit ihm spricht und bietet so beispielsweise Zugang zum eigenen Kalender oder zu Fotos. Zudem soll Bixby helfen, ein verlegtes Smartphone zu finden.

Schließlich bringt das Update, wie auf der IFA angekündigt, die One-UI-Plattform auf die Kühlschränke. Dadurch sind von deren Samsung-Geräten bekannte Apps und Dienste auch auf den Haushaltsgeräten verfügbar.

Laut The Verge steht die neue Software-Version ab dem 3. November zur Verfügung. Laut Samsung werden die Besitzer benachrichtigt, wenn es für das je eigene Gerät bereitsteht. Es gibt die Möglichkeit, es abzulehnen.

Die genannten Family-Hub-Kühlschränke kosten zwischen 1900 US-Dollar und 3500 US-Dollar.


(wpl)



Source link

Weiterlesen

Künstliche Intelligenz

Nach Epic-Urteil: Google öffnet den Play Store in den USA


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Google hat die Änderungen in seinem Android-Ökosystem, die auf ein Gerichtsurteil von Ende 2023 zurückgehen, umgesetzt. Damit sind App-Anbieter und Entwickler unter anderem nicht mehr dazu verpflichtet, Googles Abrechnungssystem zu verwenden, sie können auch auf Apps außerhalb des Play Stores verlinken. Allgemein erhalten sie mehr Flexibilität bei der Werbung für Angebote und der Abwicklung von In-App-Zahlungen.

Weiterlesen nach der Anzeige

Wie Google in einem Support-Dokument schreibt, wird Google Entwicklern nicht mehr verbieten, mit Nutzern über die Verfügbarkeit oder gegebenenfalls günstigere Preise ihrer Apps außerhalb des Play Stores zu kommunizieren. Zudem wird die Firma Entwicklern nicht untersagen, einen Link zum Herunterladen der App oder einen Link zur Bezahlung außerhalb des Stores bereitzustellen.

Zudem verlange der Konzern nicht mehr die Verwendung von Googles Play Billing in Apps, die im Play Store angeboten werden, ebenso verbietet Google auch nicht mehr die Verwendung anderer In-App-Zahlungsmethoden. Ferner untersagt der Konzern App-Anbietern nicht mehr, mit Nutzern über die Verfügbarkeit anderer Zahlungsmethoden als Googles eigene zu kommunizieren. Verwenden Entwickler ihre eigenen Bezahlmethoden, müssten sie in diesem Fall keine Provisionen mehr an Google abtreten.

Lesen Sie auch

Die Änderungen treten ab dem 29. Oktober 2025 im US-Play Store in Kraft. Allerdings sind sie zunächst nur temporär und gelten nur so lange, wie die Anordnung des US-Bezirksgerichts in Kraft ist, also bis zum 1. November 2027.

Weiterlesen nach der Anzeige

Google erklärt im Dokument weiter, dass „das Vertrauen und die Sicherheit der Nutzer weiterhin im Mittelpunkt unseres Handelns stehen“ und dass das Unternehmen auch bei der Umsetzung der Anordnungen der einstweiligen Verfügung weiterhin seine Sicherheitsgrundsätze befolgen werde.

In „naher Zukunft“ will Google weitere Programmanforderungen und Änderungen am eigenen Geschäftsmodell bekannt geben, „um das Vertrauen und die Sicherheit der Nutzer im Ökosystem zu wahren, basierend auf dem Feedback der Entwickler- und Nutzergemeinschaft“, erklärte der Konzern.

Mit den weiteren Änderungen dürfte Google komplexere Anpassungen meinen, die der Hersteller noch erfüllen muss. Denn gemäß dem Urteil muss Google seinen Play Store für alternative Stores öffnen; Android-Apps können auch in alternativen Stores verfügbar sein, solange die Entwickler das nicht aktiv ausschlagen. Der Umweg über die Installation via APK-Dateien wäre damit nicht mehr erforderlich.

Der Konzern stellt sich derweil auf den drohenden Kontrollverlust über sein Ökosystem ein: Denn ab Herbst 2026 können nur noch Apps auf zertifizierten Android-Geräten installiert werden, deren Herausgeber sich zuvor bei Google registriert und dann die jeweilige Anwendung signiert haben. Für Installationen über den Google Play Store gilt das schon seit 2023; künftig soll die Anonymität auch für Sideloading, also für direkt am Gerät, ohne Nutzung des Play Stores installierte Programme und alternative App-Stores abgeschafft werden. Der Betreiber des alternativen App-Stores F-Droid kritisiert das scharf.


(afl)



Source link

Weiterlesen

Beliebt