Künstliche Intelligenz
Ukraine will den Verbündeten Drohnenvideos für KI-Training zur Verfügung stellen
Die Ukraine will es verbündeten Staaten ermöglichen, KI-Modelle mit den immensen Mengen an Daten zu trainieren, die unter anderem von ukrainischen Drohnen im Zuge des Verteidigungskriegs gesammelt werden. Das berichtet die Nachrichtenagentur Reuters unter Berufung auf Äußerungen des neuen ukrainischen Verteidigungsministers Mychajlo Fedorow. Der ist seit vergangener Woche im Amt und war vorher Digitalminister. Die Ukraine hat demnach Millionen Stunden an Videomaterial, das unter anderem die Front aus der Perspektive von Drohnen zeigt und deshalb vor dem Hintergrund des zunehmenden KI-Einsatzes bei der Kriegsführung als extrem wertvolle Ressource gilt.
Weiterlesen nach der Anzeige
Kooperation mit Palantir
„Wenn du KI trainieren willst, dann gib ihr zwei Millionen Stunden Videomaterial und sie wird übernatürlich werden“, hat Reuters erst vor wenigen Wochen den Gründer einer ukrainischen Organisation zitiert, die die täglich zusammenkommenden fünf bis sechs Terabyte an Daten von Drohnen sammelt und analysiert. Dieses wertvolle KI-Training soll den Verbündeten nun ermöglicht werden, erklärte Fedorow. Bei der Umsetzung möchte sein Land laut der Financial Times mit dem umstrittenen US-Unternehmen Palantir zusammenarbeiten. Das soll bei der Einrichtung eines Datenzentrums helfen, in dem die KI-Modelle trainiert werden sollen. Die sollen dabei etwas über Kampftaktiken und die Zielerkennung lernen.
Gegenüber Reuters hat Fedorow zudem angekündigt, dass noch in diesem Monat eine Alternative zu den weitverbreiteten Drohnen des chinesischen Herstellers DJI getestet werden soll. Die werden demnach sowohl von ukrainischen als auch russischen Truppen eingesetzt, um die Front aus der Luft zu erkunden. Wer solche Geräte jetzt in der Ukraine herstellen soll, sagte der Minister nicht. Seine Regierung hat demnach schon vorher darauf verwiesen, dass die hohe Abhängigkeit von DJI ein Problem darstellt, weil China immer enger mit Russland kooperiert. Die Drohne aus eigener Produktion soll laut Fedorow eine genauso gute Kamera, aber eine längere Flugreichweite haben.
Seit Russland Anfang 2022 versucht hat, die ganze Ukraine zu erobern und dabei zurückgeschlagen wurde, spielen Drohnen im Verteidigungskampf eine immer zentralere Rolle. Die Ukraine hat vor allem zu Beginn erhebliche Erfolge mit der neuen Waffentechnik erzielt, danach hat Russland den Einsatz ebenfalls forciert. Entlang der Fronten wurden Drohnen anfangs effektiv eingesetzt, um dem russischen Militär schwere Verluste zuzufügen. Später führte die Ukraine auch im Schwarzen Meer erfolgreiche Angriffe auf die russische Schwarzmeerflotte durch. Russland wiederum setzt unter anderem auf Kamikaze-Drohnen aus iranischer Fertigung. Die Ankündigung zum KI-Training verweist nun darauf, dass die Automatisierung der Geräte zuletzt enorm vorangeschritten ist.
(mho)
Künstliche Intelligenz
Bixby bekommt neues Leben eingehaucht – mit KI von Perplexity
Totgeglaubte leben länger. Das neueste Beispiel für dieses Sprichwort ist die Ankündigung von Samsung, seinen Sprachassistenten Bixby mit der KI von Perplexity zu versehen. Der neue KI-Assistent soll mit dem Update auf One UI 8.5 auf Galaxy-Smartphones landen und offenbar neben Googles Gemini existieren. Entsprechende Gerüchte kursieren bereits seit Mitte 2025.
Weiterlesen nach der Anzeige
Bixby soll mithilfe von Perplexity schlauer werden
Samsungs Voice-Assistent Bixby diente seit dem Einzug von Google Gemini in Galaxy-Smartphones in erster Linie als eine Art Schnittstelle zwischen Googles KI und Samsungs One UI, um Systemeinstellungen wie etwa die Helligkeit des Bildschirms oder ähnliche Dinge per Sprache durchzuführen. Das soll sich mit One UI 8.5 ändern, wie der südkoreanische Hersteller in einer Pressemitteilung ankündigte. Diese ist zwar schon wieder von der Webseite entfernt worden, jedoch haben sowohl Droid Life als auch Sammobile den Inhalt gesichert.
Lesen Sie auch
Der neue Bixby-Assistent soll laut Samsung künftig dazu in der Lage sein, viele Abläufe auf einem Galaxy-Gerät zu steuern, indem Nutzerinnen und Nutzer in natürlicher Sprache mit ihm sprechen. So sei es möglich, bestimmte Einstellungen zu ändern, ohne dass man genau weiß, wie die entsprechende Systemeinstellung heißt oder zu finden ist. In ähnlicher Form hatte Samsung dies schon für das Galaxy S25 im Zusammenspiel mit Gemini angekündigt. Mit One UI 8.5 kooperiert der Hersteller nun aber zusätzlich mit Perplexity.
Ähnlich wie bei Siri
Während einfache Anfragen offenbar von Bixby selbst vorgenommen werden können, springt für komplexere Aufgaben Perplexity AI ein, um danach im Internet zu suchen: Als Beispiel nennt Samsung die Anfrage: „Finde Hotels in Seoul, die Swimmingpools für Kinder haben.“ Bixby verarbeitet die Anfrage und liefert mithilfe von Perplexity relevante Web-Suchergebnisse direkt in der Bedienoberfläche.
Die Perplexity-Integration in Bixby erinnert an die aktuelle Funktionsweise von Apples Siri. Einfache Aufgaben kann Siri direkt auf dem Gerät selbst ausführen. Bei anspruchsvolleren Dingen, die eine KI-Recherche erfordern, holt Siri Hilfe von ChatGPT.
Weiterlesen nach der Anzeige
Samsung ist nicht das erste Unternehmen, das auf seinen Android-Geräten auf mehrere KI-Assistenten setzt. Denn in Motorolas aktuellen Modellen ist Perplexitys KI-gestützte Suche direkt in Moto AI integriert, außerdem kann auf Microsofts Copilot zugegriffen werden, wobei Gemini der Standardassistent ist. Die Partnerschaft mit dem größten Android-Smartphone-Hersteller dürfte für Perplexity jedoch einen massiven Wachstumsschub bedeuten.
Sanktionen oder Einschränkungen irgendwelcher Art durch die Integration von Perplexity in Bixby vonseiten Google dürfte Samsung nicht erfahren. Denn gemäß einer Vereinbarung mit Google dürfen Samsung und andere Hersteller alternative generative KI-Dienste neben Gemini installieren.
Wohl zuerst im Galaxy S26
Was die Verfügbarkeit des neuen Bixby-Assistenten angeht, heißt es seitens Samsung lediglich, dass er in „ausgewählten Märkten“ in der stabilen Version One UI 8.5 verfügbar sein wird, eine breitere Einführung soll später folgen. Derzeit bietet Samsung die neue One-UI-Version unter anderem für das Galaxy S25 als Betaversion an. Das fertige Update auf One UI 8.5 wird mit hoher Wahrscheinlichkeit jedoch zuerst auf der Galaxy-S26-Serie verfügbar sein, die gegen Ende Februar erwartet wird. Erst danach dürfte Samsung die neue Version auf Bestandsgeräte verteilen. Diese Strategie verfolgte Samsung zumindest bei seinen bisherigen Versionen.
(afl)
Künstliche Intelligenz
Model-Schau 2: Neue Architekturansätze bei den Sprachmodellen
Das neue Jahr ist noch jung, aber die Sprachmodell-Community hat sich keine Pause gegönnt. So geht es munter mit neuen Modellen, aber auch mit neuen Architekturansätzen ins Jahr 2026, auch wenn einige der vorgestellten Neuerungen noch aus den letzten Wochen von 2025 stammen.
Weiterlesen nach der Anzeige

Prof. Dr. Christian Winkler beschäftigt sich speziell mit der automatisierten Analyse natürlichsprachiger Texte (NLP). Als Professor an der TH Nürnberg konzentriert er sich bei seiner Forschung auf die Optimierung der User Experience.
Gedächtnis-Titan von Google
Bisher kämpfen fast alle Sprachmodelle mit Amnesie. Sobald sie lange Texte verarbeiten sollen, vergessen sie entscheidende Details. Diese Tendenz verstärkt sich mit längerem Kontext. Besonders die Teile in der Mitte gehen dann verloren (lost in the middle). Es gibt zahlreiche Ansätze, Modelle in dieser Hinsicht zu verbessern. Einige Modelle setzen beispielsweise alternierend sogenannte Mamba-Layer (oder State Space Models) ein, die besonders bei langen Sequenzen besser skalieren und weniger Speicherplatz benötigen, dafür aber nicht so präzise arbeiten wie Transformer. Andere Modelle setzen auf rekurrente neuronale Netze (RNNs), die man nach der Erfindung der Transformer eigentlich schon fast abgeschrieben hatte.
(Bild: Golden Sikorka/Shutterstock)

Die Online-Konferenz LLMs im Unternehmen zeigt am 19. März, wie KI-Agenten Arbeitsprozesse übernehmen können, wie LLMs beim Extrahieren der Daten helfen und wie man Modelle effizient im eigenen Rechenzentrum betreibt.
Google hat nun zwei neue Forschungsartikel dazu veröffentlicht. Der erste nennt sich „Titans“ und führt eine Architektur ein, die nach ihren eigenen Worten „die Geschwindigkeit von RNNs mit der Genauigkeit von Transformern zusammenbringt“. Google erreicht das durch den Einsatz von Transformern und dem Attention-Mechanismus für das Kurzzeitgedächtnis, für das Langzeitgedächtnis verwendet der Ansatz tiefe neuronale Netze (und nicht etwa RNNs). Eine sogenannte Überraschungs-Metrik soll sich besonders auf die Textteile konzentrieren, die nicht erwartete Wörter enthalten. Mit einem adaptiven Verfallmechanismus vergisst das Modell dann die Informationen, die es nicht mehr benötigt.
Google stellt mit „MIRAS“ auch gleich einen Blueprint zur Implementierung vor. Das dahinterliegende KI-Modell fokussiert sich auf eine Memory-Architektur, den Attention-Bias (mit dem es wichtige von unwichtigen Informationen unterscheidet) und die Mechanismen zum Vergessen beziehungsweise zum Aktualisieren des Gedächtnisses. Statt des mittleren quadratischen Fehlers oder des Skalarprodukts optimiert Google nichteuklidische Metriken und nennt dafür drei Beispielmodelle, die auf dem Huber-Loss, generalisierten Normen oder einer Wahrscheinlichkeitsabbildung basieren.
Das klingt äußerst mathematisch, aber Google kann damit in ersten Demos bessere Ergebnisse als mit einer reinen Mamba-Architektur erzielen. Den am Schluss erklärten Extrem Long-Context Recall vergleicht der Artikel allerdings nur mit Modellen wie GPT-4 oder Qwen2.5-72B, die schon mindestens ein Jahr alt sind. Diese Ergebnisse sollte man also mit Vorsicht genießen. Spannend wird es, wenn Google damit richtig große Modelle trainiert und zur Verfügung stellt.
Weiterlesen nach der Anzeige
Liquid Foundation Models
Eine ganz andere Architektur setzen die Liquid Foundation Models ein. Lange waren die Liquid Models schon mit Demos präsent, in denen sie mit kleinen Modellen erstaunliche Fähigkeiten entwickeln konnten. Der Durchbruch kam dann mit LFM2. Teile der Modelle setzen die Transformer-Architektur mit Attention ein, andere nutzen Multiplikations-Gates und Konvolutionen mit kurzen Sequenzen. Allerdings war bisher die Performance der darauf aufbauenden Modelle noch nicht gut genug.
Geändert hat sich das mit LFM2.5, einer ganzen Serie von kleinen Modellen mit nur gut einer Milliarde Parametern. Vorerst sind die Modelle für Edge-Devices gedacht, sie lassen sich aber auch mit hoher Geschwindigkeit auf üblicher Hardware ausführen. Die in Abbildung 1 dargestellten Ergebnisse sind mit Vorsicht zu genießen, da sie vom Anbieter stammen. Unabhängig davon machen die Modelle für ihre Größe einen hervorragenden Eindruck. Für viele Anwendungen wie Retrieval-Augmented Generation (RAG) könnten diese gut zum Einsatz kommen, weil das Wissen dafür nicht in den Modellen selbst stecken muss, die hier nur zum Feinabgleich und für Formulierungen eingesetzt werden. Mit einer kleinen GPU lassen sich die Modelle extrem schnell ausführen. Auf einer performanten CPU arbeiten sie immer noch schnell.

Beim Erdbeertest kann LFM 2.5 ebenso wenig überzeugen (Abb. 1) …

wie mit der Erklärung von heise (Abb. 2).
Neben den Modellen zur Textgenerierung gibt es auch ein hybrides Modell, das gesprochenen Text sowohl verstehen, als auch erzeugen kann. Gerade für mobile Endgeräte kann die Funktion sinnvoll sein, damit man auch ohne Internet- und Cloud-Zugriff Sprache in Text und umgekehrt umwandeln kann.

Performance von LFM2.5-1.2B-Instruct im Vergleich zu ähnlich großen Modellen (Abb.3)
(Bild: Hugging Face)
Schlanke Coding-Modelle erobern Benchmarks
Bei IQuest-Coder handelt es sich um ein neues Modell mit 40 Milliarden Parametern, das insbesondere in der Loop-Variante interessante Ideen mit einbringt. Der Transformer arbeitet rekurrent, verarbeitet also die Tokens mehrfach – zunächst doppelt in zwei Iterationen. IQuestLab verspricht damit deutlich höhere Performance. Seine Entwickler behaupten, in den einschlägigen Benchmarks wesentlich bessere Ergebnisse erzielen zu können als vergleichbar große Modelle. Trotz anfänglicher Euphorie scheint das Modell aber nicht besonders populär zu sein.
Einen anderen Weg geht NousResearch. Es nutzt Qwen-14B als Basismodell, um mit modernen Methoden daraus ein Coding-Modell zu erzeugen. Auch wenn es nicht mit den deutlich größeren Modellen konkurrieren kann, erzielt es für seine Größe gute Ergebnisse und zeigt einen möglichen weiteren Weg für Coding-Modelle auf.
Chinesische Modelle mit offenen Gewichten
Die seit Kurzem an der Börse in Hong Kong notierte Firma Z.ai hat mit GLM-4.7 ein lang erwartetes Modell veröffentlicht, das sich in vielen Benchmarks an die Spitze der Modelle mit offenen Gewichten gesetzt hat. Mit 355 Milliarden Parametern verfügt es zwar über eine stattliche Größe, ist aber immer noch viel kleiner als die Modelle von DeepSeek oder Kimi. Laut Benchmarks ist GLM 4.7 besonders gut bei Coding-Aufgaben und bei komplexen Denkaufgaben.
Im Vergleich zum Vorgänger GLM 4.6 ist es praktisch in allen Dimensionen besser, außerdem hat Z.ai die Kontextlänge auf 200.000 Token erhöht. Das führt zu einem sehr großen Modell mit 335 Milliarden Parametern. Das Modell verfügt dazu über 160 Experten, von denen immer acht (und ein geteilter) aktiv sind. Zusammen mit den ersten dichten Layern ergeben sich damit 32 Milliarden Parameter, die bei jedem Aufruf aktiv sind. Um den RAM-Bedarf der (quantisierten) Modelle etwas zu verkleinern, haben einige User versucht, die Experten zu eliminieren, die häufig schlechte Antworten erzeugen. Das Verfahren dazu nennt sich REAP (Reflection, Explicit Problem Deconstruction, and Advanced Prompting) und produziert schlankere Modelle, deren Ausgabe sich kaum von der des vollen Modells unterscheiden lässt.

Den Erdbertest besteht GLM-4.7 (Abb. 4).

Die heise-Erklärung ist im Vergleich zu vielen anderen Modellen auffällig stimmig, auch wenn sie ausgerechnet bei Heise Developer etwas dazu erfindet. (Abb. 5)

Bei Taiwan gibt sich GLM-4.7 recht offen (Abb. 6).

Auch zu Tiananmen hält sich das Modell kaum zurück (Abb. 7).

Und erklärt sogar die Unterdrückung durch die chinesische Parteiführung (Abb. 8).
Bei MiniMax 2.1 handelt es sich um ein weiteres Modell aus China, das sich ebenso wie GLM 4.7 auf Coding, Nutzung von Werkzeugen und agentische Workflows fokussiert. Der Anbieter veröffentlicht wesentlich weniger Informationen als Z.ai, aber in den entsprechenden Dateien lässt sich einiges finden. Wenig überraschend handelt es sich auch bei MiniMax 2.1 um ein MoE-Modell, allerdings mit 256 Experten, von denen immer acht befragt werden. Von den insgesamt 230 Milliarden Parametern sind dann jeweils immer 10 Milliarden aktiv. Auch MiniMax kann wie GLM 4.7 mit knapp 200.000K Token umgehen.
Die Community ist sich nicht einig, ob GLM 4.7 oder MiniMax 2.1 sich besser für Programmieraufgaben eignet. Zweifellos sind beides sehr starke Modelle, die dank (relativ) weniger aktiver Parameter auch noch verhältnismäßig schnell ausgeführt werden können.

Auch Minimax-M2.1 zählt beim Erdbeertest richtig (Abb. 9).

Bei der heise-Erklärung gibt es eine Mischung aus korrekten und erfundenen Informationen (Abb. 10).

Bei der Taiwan-Frage gibt es eine differenzierte, aber recht knappe Antwort (Abb. 11).

Die Tiananmen-Ereignisse verharmlost das Modell (Abb. 12).

Und es äußerst sich zur Zensur, auch wenn es hier den Bezug zu dem zuvor als Referenz genannten Tiananmen auslässt (Abb. 13).
Modelle von LG aus Südkorea
Aus Südkorea hat man bisher wenige Modelle gesehen. Das hat sich nun geändert, mit K-EXAONE stellt LG ein entsprechendes Modell zur Verfügung. Wie nicht anders zu erwarten, ist es vor allem auf englische und koreanische Texte trainiert, spricht aber auch Spanisch, Deutsch, Japanisch und Vietnamesisch. Mit 236 Milliarden Parametern ist es sehr groß, auch wenn nur jeweils immer 23 Milliarden Parameter aktiv sind. Es nutzt Sliding Window Attention und kann damit lange Kontexte von bis zu 256K Token verarbeiten. In den Benchmarks performt das Modell ähnlich gut wie das (deutlich kleinere) gpt-oss-120b oder das (ebenso große) Qwen-235B-A22B-Thinking.
Spannende Zeiten
Es hat sich in den letzten Wochen einiges getan – in ganz unterschiedlichen Richtungen. Ob sich Googles Ideen umsetzen lassen und durchsetzen können, wird sich erst in einer ganzen Weile zeigen. Unstrittig dürfte hingegen sein, dass die Liquid Foundation Models für ihre Größe wirklich Beachtliches leisten. Das trifft auch für die (scheinbar wenig zensierten) großen chinesischen Modelle zu, die sich sehr gut für agentische Aufgaben eignen. Schließlich taucht auch erstmals ein großes koreanisches Modell auf, das konkurrenzfähig ist. Das lässt auf eine weitere Diversifizierung in der Zukunft hoffen.
(rme)
Künstliche Intelligenz
programmier.bar: Headless Apps mit Marcel Koch
In dieser Podcastfolge der programmier.bar blicken Joachim Böhmer und Dennis Becker gemeinsam mit Marcel Koch, Softwareberater, Coach und Rust-Autor, über den Tellerrand klassischer Cross-Platform-Frameworks. Im Mittelpunkt steht das Konzept sogenannter Headless Apps und die Frage, wie sich Anwendungslogik unabhängig von konkreten UI-Technologien umsetzen lässt.
Weiterlesen nach der Anzeige
Headless Apps mit Rust
Die drei diskutieren, wie sich die Business-Logik einer Anwendung vollständig in Rust kapseln lässt, um sie plattformübergreifend einzusetzen – unabhängig davon, ob die Benutzeroberfläche mit Flutter, SwiftUI oder Jetpack Compose umgesetzt wird. Auch der Einsatz im Web über WebAssembly (Wasm) sowie auf Mikrocontrollern ist Teil der Betrachtung. Es geht um die Trennung von Core-Logik und UI für die Reduktion technologischer Abhängigkeiten.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externer Inhalt geladen.
In dieser Folge gibt es außerdem einen Architektur-Deep-Dive zu Headless Apps sowie zur Rolle von Rust in diesem Kontext, insbesondere mit Blick auf Performance, Memory Safety und Portabilität. Zudem stellt Marcel Koch das Crux-Framework von Red Badger vor, das den Datenaustausch zwischen dem Rust-Core und den jeweiligen UI-Shells automatisiert. Abschließend diskutieren die drei, in welchen Fällen sich der Mehraufwand einer Headless-Architektur lohnt und wann klassische Lösungen wie Flutter oder Kotlin Multiplatform die sinnvollere Wahl sind.
Die aktuelle Ausgabe des Podcasts steht auch im Blog der programmier.bar bereit: „Headless Apps mit Marcel Koch“. Fragen und Anregungen gerne per Mail oder via Mastodon, Bluesky, LinkedIn oder Instagram.
Weiterlesen nach der Anzeige
(mdo)
-
Entwicklung & Codevor 2 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
UX/UI & Webdesignvor 3 MonatenArndt Benedikt rebranded GreatVita › PAGE online
-
Künstliche Intelligenzvor 3 WochenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Entwicklung & Codevor 1 MonatKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGoogle „Broadwing“: 400-MW-Gaskraftwerk speichert CO₂ tief unter der Erde
-
Apps & Mobile Entwicklungvor 2 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Social Mediavor 1 MonatDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Apps & Mobile Entwicklungvor 2 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
