Connect with us

Künstliche Intelligenz

GLM-4.5: Offenes Sprachmodell für schlanke Hardware


Ein neues Sprachmodell aus China ist da: Das jüngst unter der MIT-Lizenz veröffentlichte Modell GLM-4.5 vom Anbieter Z.ai (ehemals Zhipu) funktioniert richtig gut und lässt sich auch in der kleineren Version auf moderater Hardware flott betreiben. Es handelt sich um ein hybrides Modell, das sowohl Reasoning beherrscht – also den Weg zu seinen Schlussfolgerungen zeigt –, aber auch als Non-Reasoning-Modell agieren kann. Interessanterweise geht Qwen, das Sprachmodell von Alibaba, genau den umgekehrten Weg und hat aus den hybriden Modellen wieder zwei unterschiedliche (Instruct, Thinking) gebaut.

GLM-4.5 ist ein großes Modell mit 335 Milliarden Parametern. Die genutzte Mixture-of-Experts-Architektur führt dazu, dass bei der Inferenz immer nur 32 Milliarden Parameter aktiv sind. Die somit kleinere Anzahl von Berechnungen erlaubt eine Beschleunigung in der Generierung der Tokens. Das Modell hat 160 Experten, davon werden jeweils immer acht (und ein Shared Expert, der immer gefragt wird) gleichzeitig verwendet. Es verfügt über 96 Attention-Heads und 92 Transformer-Schichten – und ist damit deutlich tiefer als etwa DeepSeek R1 oder Kimi K2. Obwohl Z.ai die Gewichte auch als FP8-Werte bereitstellt, ist GLM-4.5 trotzdem ein riesiges Modell, das man nicht einfach auf Consumer-GPUs betreiben kann, auch in einer quantisierten Version ist es für die meisten CPUs zu groß.

Deswegen hat Z.ai noch eine kleinere Version des Modells in petto und nennt es GLM-4.5-Air. Es ist in fast allen Belangen dem GLM-4.5-Modell unterlegen, aber nicht drastisch. Dafür ist es mit 106 Milliarden Parametern (12 Milliarden aktiv) viel kleiner und kann zum Beispiel mit 64 GByte RAM auf CPUs in einer Vier-Bit-Quantisierung betrieben werden – oder auch auf einer A100-GPU. Die Architektur ist sehr ähnlich, nur in vielen Dimensionen kleiner (128 Experten, 46 Layer). Leider schweigt sich Z.ai über die genauen Verwandtschaftsverhältnisse von GLM-4.5 und GLM-4.5-Air aus. Auch sonst sind technische Informationen auf dem Blog eher spärlich zu finden.

Relativ genau beschreibt Z.ai den Trainingsprozess und hat dazu die neue Methode „slime“ entwickelt und als Open-Source-Software zur Verfügung gestellt. Das Verfahren legt besonderen Wert auf agentenorientiertes Design, was sich auch in den Ergebnissen widerspiegelt. Dazu nutzt man unterschiedliche Phasen des Reinforcement Learnings, die von Reasoning über agentisches bis zum allgemeinen Training reichen. Z.ai konzentriert sich auf die möglichst flexible Nutzung von Infrastruktur, das Training kann auch asynchron stattfinden und stellt sicher, dass alle GPUs immer optimal genutzt werden.

Benchmarks zu den Modellen gibt es noch wenige, in der LMarena ist es noch nicht zu finden. Die Informationen im Blog-Artikel von Z.ai sehen vielversprechend aus, besonders im Bereich der Agenten-KI scheint es den (viel größeren) State-of-the-Art-Modellen nicht sehr unterlegen zu sein.

Wegen der frei verfügbaren Gewichte kann man das Modell auch selbst ausprobieren. Einen Dialog des Autors mit GLM-4.5-Air finden interessierte Leser hier. Leider nicht ganz so einfach kann man die Funktion testen, mit der GLM-4.5 Folien erstellen kann. Das geht auf der Website von Z.ai selbst und ist beeindruckend.

GLM-4.5 ist ein richtig starkes Modell. Ob es wirklich die entsprechende Wertschätzung erfährt, bleibt abzuwarten. Denn: Aktuell ist es nicht ganz einfach, bei der Flut von neu veröffentlichten Modellen den Überblick zu bewahren. Alleine Qwen hat innerhalb weniger Tage viele Modelle veröffentlicht, darunter Qwen3-Coder-30B-A3B, das mit nur drei Milliarden aktiven Parametern lokal beim Programmieren unterstützen kann. Dabei scheint es eine ausgezeichnete Figur zu machen – die zwar sicher nicht an das nur zehn Tage früher veröffentlichte Qwen3-Coder-480B-A35B-Instruct herankommt, aber das hat auch 16-mal so viele Parameter. Spannend daran ist, dass es sich bei diesen Modellen nicht um Reasoning-Modelle handelt, die aber dennoch in der gleichen Liga spielen, die bisher den reinen Reasoning-Modellen vorbehalten war. Die deutlich schnelleren Antworten (durch viel weniger generierte Tokens wegen des nicht notwendigen Reasonings) führen zu deutlichen Effizienzgewinnen bei der Programmierung.

Aber auch methodisch hat sich in wenigen Tagen viel getan. Der neue „slime“-Trainingsprozess kann als Open-Source-Software auch von anderen Anbietern genutzt werden. Qwen hat das GRPO-Verfahren verfeinert und GSPO genannt. Kimi K2 nutzt zur Optimierung der Gewichte nicht AdamW, sondern Muon und erreicht damit eine schnellere Konvergenz. Fügt man all diese Puzzlestücke zusammen, kann man erwarten, dass sich die Frequenz der neu verfügbaren und besseren Modelle bald sicher noch erhöht.


(fo)



Source link

Künstliche Intelligenz

Tickets für den ersten c’t slam in Köln


Komplizierte Themen aus der Tech-Welt kompakt und unterhaltsam erklärt – das ist die Herausforderung beim ersten c’t slam am 19. November in Köln. An diesem Abend treten sechs Redakteure der Computermagazine c’t und iX auf die Bühne, um Ihnen ihr Fachgebiet näherzubringen. Das müssen sie so verständlich und unterhaltsam wie möglich machen – und haben dafür nur 10 Minuten Zeit! Das Publikum kürt am Ende den Sieger. Die Idee orientiert sich am bekannten Science Slam, bei dem Wissenschaftlerinnen und Wissenschaftler ihre Forschung allgemeinverständlich präsentieren.

Weiterlesen nach der Anzeige

Der erste c’t slam findet im Rahmen der Entwicklerkonferenz c’t am 19. November um 18 Uhr im Veranstaltungszentrum KOMED in Köln statt. Teilnehmende der c’t sind herzlich zum Event eingeladen. Aber auch externe Gäste haben die Möglichkeit, den Slam zu besuchen. Ein Ticket kostet 39 Euro und beinhaltet Catering sowie die Möglichkeit, die Redakteurinnen und Redakteure nach dem Event persönlich zu treffen. Die Veranstaltung findet in englischer Sprache statt.

Die c’t hat sich seit ihrer Premiere 2018 als wichtige Konferenz für Webentwickler etabliert. Die vollständig englischsprachige Veranstaltung richtet sich an Web-Profis, Entwickler, Architekten und Tech-Enthusiasten. Sie bietet Vorträge und Workshops zu aktuellen Themen wie Frontend- und Backend-Entwicklung, JavaScript-Frameworks, Web-Performance, KI im Frontend und Web-Sicherheit.


(spa)



Source link

Weiterlesen

Künstliche Intelligenz

Fire TV: Amazon sperrt künftig Piraterie-Apps


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Weiterlesen nach der Anzeige

Wer auf seinem Fire-TV-Fernseher oder -Zuspieler eine App installiert hat, mit der sich illegal auf urheberrechtlich geschützte Inhalte zugreifen lässt, muss damit rechnen, diese künftig nicht mehr nutzen zu können. Hintergrund ist, dass Amazon ab dem heutigen Freitag aktiv gegen derartige Piraterie-Apps vorgeht.

Dafür gleicht der Hersteller die auf den Geräten installierten Anwendungen mit einer Blacklist ab, die von der Antipiraterie-Koalition ACE (Alliance for Creativity and Entertainment) gepflegt wird. Der gehören zahlreiche Medien- und Streamingunternehmen an, darunter neben Amazon auch Apple TV+, BBC Studios, Canal+, Comcast, Fox, HBO, Hulu, Netflix, Paramount Global, Sony Pictures und The Walt Disney Company.

Auf Nachfrage erklärte Amazon, man habe stets daran gearbeitet, Piraterie aus seinem App Store zu verbannen. Im Rahmen eines erweiterten Programms unter der Leitung der ACE blockiere man nun Apps, die nachweislich Zugang zu raubkopierten Inhalten böten – einschließlich solcher, die außerhalb des App Stores heruntergeladen worden seien. Dies baue auf Amazons laufenden Bemühungen auf, Urheber zu unterstützen und Kunden zu schützen, da Piraterie Nutzer auch Malware, Viren und Betrug aussetzen könne.

Amazon sperrt die betreffenden Apps nicht sofort, sondern weist den Nutzer zunächst über einen gewissen Zeitraum darauf hin, dass es sich um Anwendungen handelt, die nicht genutzt werden dürfen. Das Unternehmen äußerte sich bislang nicht dazu, wie lange die User den Hinweis erhalten, bevor die Anwendung gesperrt wird.

Auf Nachfrage erklärte Amazon, dass es auch weiterhin möglich sein werde, Apps über das sogenannte Sideloading aus einer anderen Quelle als dem offiziellen App Store zu installieren. Man verstehe, dass es sich hierbei um ein wertvolles Tool für Entwickler handele. Folglich sollen sich die neuen Maßnahmen auch auf Piraterie-Apps beschränken.

Weiterlesen nach der Anzeige

Die Sideloading-Option bleibt auch bei Fire-TV-Geräten bestehen, auf denen Amazons neues Betriebssystem Vega OS läuft. Sie ist hier aber generell auf Developer beschränkt. In diesem Zusammenhang betonte das Unternehmen, dass es entgegen anderslautender Gerüchte keine Pläne gebe, bestehende Fire-TV-Geräte mit Fire OS als Betriebssystem auf Vega OS umzurüsten.

Im Internet werden immer wieder Fire-TV-Zuspieler mit Piraterie-Apps angeboten, die einen kostenfreien Zugriff auf IPTV- beziehungsweise VoD-Inhalte ermöglichen sollen. Bei Recherchen der c’t zum Titelthema Streaming und Piraterie stellte sich heraus, dass dabei in mehreren Fällen Apps vorinstalliert waren, die ohne Kenntnis des Nutzers empfangene Inhalte über Bittorrent weiterverbreiteten – mit dem Ergebnis, dass den Anwendern eventuell unerwartet Abmahnungen der Filmindustrie ins Haus geflattert wären.


(nij)



Source link

Weiterlesen

Künstliche Intelligenz

iX-Workshop Softwarearchitektur für KI-Systeme – skalierbare Lösungen entwickeln


KI-Projekte scheitern selten an der Technik, oft aber an fehlender Struktur. Wer KI sicher und nachhaltig im Unternehmen verankern will, braucht ein solides architektonisches Fundament.

Weiterlesen nach der Anzeige

Im Workshop Softwarearchitektur für KI-Systeme – skalierbare, sichere und wartbare Lösungen entwickeln erfahren Sie praxisnah, wie Sie KI-Architekturen konzipieren, die den Anforderungen an Skalierbarkeit, Sicherheit und Wartbarkeit gerecht werden. Sie lernen, Machine Learning und Generative KI in bestehende IT-Landschaften zu integrieren, robuste Datenpipelines zu erstellen und regulatorische Anforderungen, wie die des EU AI Acts, zu erfüllen. Auch ethische Fragestellungen und bewährte Design Patterns sind Teil des Workshops.

Der Workshop ist praxisnah aufgebaut. Sie arbeiten an einer Fallstudie und entwickeln reale Szenarien für KI-Architekturen. Dabei üben Sie, Daten zu akquirieren und zu verarbeiten, skalierbare Design Patterns anzuwenden und Sicherheitskonzepte umzusetzen.

Dezember
08.12. – 11.12.2025
Online-Workshop, 09:00 – 17:00 Uhr
10 % Frühbucher-Rabatt bis zum 09. Nov. 2025

Der Workshop richtet sich an Softwarearchitekten und KI-Interessierte, die skalierbare KI-Lösungen in ihre IT-Strukturen integrieren und zukunftssichere Lösungen entwickeln möchten.

Durchgeführt wird der Workshop von Dimitri Blatner, einem anerkannten Experten für Softwarearchitektur, IT-Beratung und digitales Innovationsmanagement. Er verfügt über langjährige Erfahrung in der Entwicklung komplexer IT-Systeme, insbesondere in den Bereichen KI, Cloud und DevOps.


Upgrade for Skills

Upgrade for Skills


(ilk)



Source link

Weiterlesen

Beliebt