Connect with us

Künstliche Intelligenz

GLM-4.5: Offenes Sprachmodell für schlanke Hardware


Ein neues Sprachmodell aus China ist da: Das jüngst unter der MIT-Lizenz veröffentlichte Modell GLM-4.5 vom Anbieter Z.ai (ehemals Zhipu) funktioniert richtig gut und lässt sich auch in der kleineren Version auf moderater Hardware flott betreiben. Es handelt sich um ein hybrides Modell, das sowohl Reasoning beherrscht – also den Weg zu seinen Schlussfolgerungen zeigt –, aber auch als Non-Reasoning-Modell agieren kann. Interessanterweise geht Qwen, das Sprachmodell von Alibaba, genau den umgekehrten Weg und hat aus den hybriden Modellen wieder zwei unterschiedliche (Instruct, Thinking) gebaut.

GLM-4.5 ist ein großes Modell mit 335 Milliarden Parametern. Die genutzte Mixture-of-Experts-Architektur führt dazu, dass bei der Inferenz immer nur 32 Milliarden Parameter aktiv sind. Die somit kleinere Anzahl von Berechnungen erlaubt eine Beschleunigung in der Generierung der Tokens. Das Modell hat 160 Experten, davon werden jeweils immer acht (und ein Shared Expert, der immer gefragt wird) gleichzeitig verwendet. Es verfügt über 96 Attention-Heads und 92 Transformer-Schichten – und ist damit deutlich tiefer als etwa DeepSeek R1 oder Kimi K2. Obwohl Z.ai die Gewichte auch als FP8-Werte bereitstellt, ist GLM-4.5 trotzdem ein riesiges Modell, das man nicht einfach auf Consumer-GPUs betreiben kann, auch in einer quantisierten Version ist es für die meisten CPUs zu groß.

Deswegen hat Z.ai noch eine kleinere Version des Modells in petto und nennt es GLM-4.5-Air. Es ist in fast allen Belangen dem GLM-4.5-Modell unterlegen, aber nicht drastisch. Dafür ist es mit 106 Milliarden Parametern (12 Milliarden aktiv) viel kleiner und kann zum Beispiel mit 64 GByte RAM auf CPUs in einer Vier-Bit-Quantisierung betrieben werden – oder auch auf einer A100-GPU. Die Architektur ist sehr ähnlich, nur in vielen Dimensionen kleiner (128 Experten, 46 Layer). Leider schweigt sich Z.ai über die genauen Verwandtschaftsverhältnisse von GLM-4.5 und GLM-4.5-Air aus. Auch sonst sind technische Informationen auf dem Blog eher spärlich zu finden.

Relativ genau beschreibt Z.ai den Trainingsprozess und hat dazu die neue Methode „slime“ entwickelt und als Open-Source-Software zur Verfügung gestellt. Das Verfahren legt besonderen Wert auf agentenorientiertes Design, was sich auch in den Ergebnissen widerspiegelt. Dazu nutzt man unterschiedliche Phasen des Reinforcement Learnings, die von Reasoning über agentisches bis zum allgemeinen Training reichen. Z.ai konzentriert sich auf die möglichst flexible Nutzung von Infrastruktur, das Training kann auch asynchron stattfinden und stellt sicher, dass alle GPUs immer optimal genutzt werden.

Benchmarks zu den Modellen gibt es noch wenige, in der LMarena ist es noch nicht zu finden. Die Informationen im Blog-Artikel von Z.ai sehen vielversprechend aus, besonders im Bereich der Agenten-KI scheint es den (viel größeren) State-of-the-Art-Modellen nicht sehr unterlegen zu sein.

Wegen der frei verfügbaren Gewichte kann man das Modell auch selbst ausprobieren. Einen Dialog des Autors mit GLM-4.5-Air finden interessierte Leser hier. Leider nicht ganz so einfach kann man die Funktion testen, mit der GLM-4.5 Folien erstellen kann. Das geht auf der Website von Z.ai selbst und ist beeindruckend.

GLM-4.5 ist ein richtig starkes Modell. Ob es wirklich die entsprechende Wertschätzung erfährt, bleibt abzuwarten. Denn: Aktuell ist es nicht ganz einfach, bei der Flut von neu veröffentlichten Modellen den Überblick zu bewahren. Alleine Qwen hat innerhalb weniger Tage viele Modelle veröffentlicht, darunter Qwen3-Coder-30B-A3B, das mit nur drei Milliarden aktiven Parametern lokal beim Programmieren unterstützen kann. Dabei scheint es eine ausgezeichnete Figur zu machen – die zwar sicher nicht an das nur zehn Tage früher veröffentlichte Qwen3-Coder-480B-A35B-Instruct herankommt, aber das hat auch 16-mal so viele Parameter. Spannend daran ist, dass es sich bei diesen Modellen nicht um Reasoning-Modelle handelt, die aber dennoch in der gleichen Liga spielen, die bisher den reinen Reasoning-Modellen vorbehalten war. Die deutlich schnelleren Antworten (durch viel weniger generierte Tokens wegen des nicht notwendigen Reasonings) führen zu deutlichen Effizienzgewinnen bei der Programmierung.

Aber auch methodisch hat sich in wenigen Tagen viel getan. Der neue „slime“-Trainingsprozess kann als Open-Source-Software auch von anderen Anbietern genutzt werden. Qwen hat das GRPO-Verfahren verfeinert und GSPO genannt. Kimi K2 nutzt zur Optimierung der Gewichte nicht AdamW, sondern Muon und erreicht damit eine schnellere Konvergenz. Fügt man all diese Puzzlestücke zusammen, kann man erwarten, dass sich die Frequenz der neu verfügbaren und besseren Modelle bald sicher noch erhöht.


(fo)



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Künstliche Intelligenz

Elektronische Fußfessel: Gesetzentwurf soll nach der Sommerpause kommen


Elektronische Fußfesseln nach „spanischem Modell“ für Gewalttäter könnten laut Bundesjustizministerin Stefanie Hubig (SPD) schon im kommenden Jahr in ganz Deutschland eingeführt werden. Das erklärte sie gegenüber der Süddeutschen Zeitung. Durch das „spanische Modell“ sollen insbesondere Femizide, Stalking, Gewalt und Bedrohungen etwa durch Ex-Partner verhindert werden. Die Innenministerinnen und Innenminister der Länder hatten die Einführung einer bundeseinheitlichen Regelung auf ihrer Frühjahrskonferenz im Juni gefordert.

Für das spanische Modell sind nicht feste Verbotszonen wie beim bisherigen Einsatz der Elektronischen Aufenthaltsüberwachung (EAÜ) für die Täter ausschlaggebend, sondern der Abstand zwischen Täter und Opfer ist maßgeblich. Feste Verbotszonen können beispielsweise den Wohnort oder den Arbeitsplatz von Opfern betreffen. Für das spanische Modell führt das Opfer eine GPS-Einheit mit sich und wird darüber informiert, wenn sich der Täter mit Fußfessel absichtlich oder auch unabsichtlich in seiner Nähe befindet. Sowohl das Opfer als auch die Polizei erhalten dann einen Warnhinweis. Hubig will dies Opfern aber nicht vorschreiben. Ihnen werde es „offengelassen, ob sie selbst ein Empfangsgerät bei sich führen wollen oder nicht.“

Hubig kündigte an, nach der Sommerpause einen Gesetzentwurf vorzulegen und skizzierte den weiteren zeitlichen Ablauf: „Realistisch ist, dass wir damit im Laufe des nächsten Jahres anfangen können. Das Gesetz muss nach seiner Verabschiedung noch durch die Länder in die Praxis umgesetzt werden. Die Länder arbeiten derzeit bereits mit Hochdruck an den Vorbereitungen der Umsetzung und dem Ausbau der notwendigen Kapazitäten. Es gibt schon die gemeinsame Überwachungsstelle der Bundesländer in Hessen.“

Nicht nur die Fußfesseln sollen Opfer besser schützen, auch sollen Gewaltschutzanordnungen im Kindschaftsrecht verankert werden, um auch Kinder „besser vor einem Gewalt ausübenden Elternteil zu schützen“. Und der Strafrahmen für Verstöße gegen das Gewaltschutzgesetz soll erhöht werden: „Von einer Geldstrafe oder höchstens zwei Jahren Freiheitsstrafe wie bislang auf eine Geldstrafe oder bis zu drei Jahre Freiheitsstrafe, damit die Anordnungen mehr Wirksamkeit bekommen.“ Zusätzlich soll „zum Beispiel die Teilnahme an einem Anti-Gewalt-Training verpflichtend angeordnet werden können“, sagte Hubig der SZ.

Seit Anfang dieses Jahres wird eine Fußfessel nach spanischen Modell bereits in einem Fall in Deutschland angewandt. Das Justizministerium Hessen berichtete im Januar, dass die Ex-Frau eines Täters, der bereits eine Haftstrafe verbüßt hat, in Sachsen auf diese Weise geschützt wird. Dem hessischen Justizminister Christian Heinz (CDU) und der sächsischen Justizministerin Constanze Geiert (CDU) zufolge, „[sprechen] die Erfolge in Spanien für sich“. Hessen hat Fußfesseln der neuen Generation, mit der das spanische Modell umsetzbar ist, 2024 eingeführt. In dem westdeutschen Bundesland ist auch die Gemeinsame elektronische Überwachungsstelle der Länder (GÜL) angesiedelt. Ihre Aufgabe ist die Überwachung der Fußfesselträger. Sie nimmt die Ereignismeldungen rund um die Uhr entgegen und bewertet sie im Hinblick auf möglicherweise notwendige Maßnahmen der Gefahrenabwehr oder der Führungsaufsicht. Die GÜL soll zukünftig mehr Mittel erhalten, um für die geplanten Gesetzesänderungen gewappnet zu sein. Auch das erklärten die Innenministerinnen und Minister im Juni in Bremerhaven auf ihrer Frühjahrskonferenz.


(kbe)



Source link

Weiterlesen

Künstliche Intelligenz

Vier Raumfahrer an der ISS angekommen


Vier Raumfahrer sind an der Internationalen Raumstation ISS angekommen. Die Dragon-Kapsel der Crew dockte an der ISS an, wie die US-Raumfahrtbehörde Nasa berichtete. Kommandantin der Mission ist die US-Amerikanerin Zena Cardman. Weitere Crew-Mitglieder sind Michael Fincke (USA), der japanische Raumfahrer Kimiya Yui und der russische Kosmonaut Oleg Platonow.

Die sogenannte „Crew 11“ war am Vortag mit einer Falcon-9-Rakete des Raumfahrtunternehmens SpaceX von Tech-Milliardär Elon Musk vom Weltraumbahnhof Cape Canaveral im US-Bundesstaat Florida gestartet. Die Mission ist die elfte reguläre bemannte SpaceX-Mission zur ISS.

Die vier Raumfahrer sollen die Angehörigen der „Crew 10“ auf der ISS ablösen, die in wenigen Tagen zurück zur Erde fliegen soll. Die „Crew 11“ soll dann mehrere Monate an Bord der Raumstation rund 400 Kilometer über der Erde bleiben und verschiedene wissenschaftliche Experimente durchführen.

Für Cardman und Platonov wird es der erste ISS-Einsatz sein, während Fincke und Yui ihren vierten, beziehungsweise zweiten Einsatz an Bord der Station antreten.

Die Angehörigen der Crew 10 werden nach einer kurzen Übergabezeit mit ihren Nachfolgern an Bord der ISS zur Erde zurückkehren – die NASA plant den Rückflug in der kommenden Woche, wenn die Technik und das Wetter mitspielen. Der Start der „Crew 11“ war bereits wetterbedingt um einen Tag verschoben worden.


(nen)



Source link

Weiterlesen

Künstliche Intelligenz

Titanic: VR-Erfahrung zeigt Untergang aus Passagiersicht


Auf dem Bootsdeck drängen sich Passagiere der 1. Klasse. Es ist 1:10 Uhr und die Evakuierung verläuft nur schleppend. Ein Crewmitglied beruhigt einen besorgten Passagier mit dem Hinweis, es handle sich lediglich um eine Übung. Doch die Anspannung ist greifbar.

Direkt vor einem spielen sich dramatische Szenen ab: Beim Besteigen der Rettungsboote wird eine Familie getrennt. Nur Frauen und Kinder dürfen an Bord, sagt ein Offizier. Der Vater und der 16-jährige Sohn müssen zurückbleiben, während die Tochter weinend ins Rettungsboot 6 gehoben wird.


VR-Szene: Offizier hebt Kind in rotem Mantel ins Rettungsboot, Passagiere und Crew auf nächtlichem Titanic-Deck.

VR-Szene: Offizier hebt Kind in rotem Mantel ins Rettungsboot, Passagiere und Crew auf nächtlichem Titanic-Deck.

Ein Bild aus der älteren PC-VR-Fassung.

(Bild: Engage XR)

Wenige Momente später sitzt man bei jenen, die als Erste ins Wasser gelassen werden. Der Ernst der Lage ist vielen nicht klar: Einige Passagiere beklagen sich, dass sie mitten in der Nacht aus den Betten geholt wurden, andere sprechen scherzhaft von einem „Abenteuer“. Beim Herablassen des Boots wird die Größe des Schiffes erkennbar – und die Panik, die auf den unteren Decks herrscht.

Als sich das Rettungsboot langsam von der Titanic entfernt, hat das Schiff bereits Schlagseite. „Das ist unmöglich“, sagt eine Frau. „Die Titanic ist unsinkbar.“ Wenige Minuten später geschieht das Undenkbare. Margaret Brown, die direkt neben einem sitzt und als „die Unsinkbare“ in die Geschichte eingehen sollte, fordert den Steuermann Robert Hichens auf, zurückzurudern und Ertrinkende aufzunehmen. Doch er weigert sich, wie vielfach überliefert.

Die 15-minütige VR-Erfahrung stützt sich auf Augenzeugenberichte und historische Recherchen. Freiheiten nahm sich das Studio bei der zeitlichen Gestaltung: Die dargestellten Ereignisse dauerten in Wirklichkeit rund 70 Minuten. Man kann sich in der Simulation frei bewegen, aber echte Interaktionen gibt es nicht. Das VR-Erlebnis ist ein historisches Schauspiel, keine Überlebenssimulation. Das tut der Eindringlichkeit der VR-Erfahrung allerdings keinen Abbruch, im Gegenteil. Die Ohnmacht der Passagiere wird dadurch umso spürbarer.

Die „Lifeboat Experience“ ist Teil des umfangreicheren VR-Spiels „Titanic VR“, in dem man in der Rolle eines Tiefseeforschers und U-Boot-Piloten das Wrack der Titanic erkundet, dieses fotografiert und Gegenstände daraus birgt. Neben dieser narrativen Kampagne enthält das Spiel geführte Wracktouren sowie die Möglichkeit, eine virtuelle Gedenkstätte mit Überresten des verunglückten Titan-Tauchboots in der Nähe der Titanic aufzusuchen.

Titanic VR erschien erstmals 2018 für PC-VR-Brillen und geriet seither weitgehend in Vergessenheit. Mit der Veröffentlichung für Meta Quest 3 und 3S im April wurde es einer neuen Generation und einem breiteren Publikum zugänglich gemacht.

Die Lifeboat Experience erschien diese Woche mit mehrmonatiger Verspätung, weil die Entwickler sie zuerst für die Standalone-Headsets optimieren mussten. Ältere Quest-Geräte werden von Titanic VR nicht unterstützt: Sie können die grafisch anspruchsvollen Szenen mit ihren zahlreichen menschlichen Figuren sowie dynamischen Licht- und Schatteneffekten nicht flüssig darstellen. Das Gleiche gilt für die virtuellen Tauchfahrten zum Wrack.

Titanic VR wurde vom Studio Immersive VR Education entwickelt, das Geschichte mit Virtual Reality erlebbar machen möchte und mit „Apollo 11“ sowie „1943: Berlin Blitz“ zwei weitere sehenswerte VR-Erfahrungen schuf. Das Studio firmiert seit 2021 unter neuem Namen und betreibt die VR-Lernplattform Engage.


(tobe)



Source link

Weiterlesen

Beliebt