Connect with us

Entwicklung & Code

Model-Schau 1: Schlanke KI-Spezialmodelle im Trend


Beim Blick auf Large Language Models vergeht fast keine Woche ohne neue Modelle, die sich in bestimmten Nischen positionieren oder neue Techniken ausprobieren. Das hat uns dazu bewogen, regelmäßig über diese Updates zu berichten. Bei größeren Neuerungen werden wir den geplanten Zweiwochentakt unterbrechen und neue Modelle direkt untersuchen.

Weiterlesen nach der Anzeige




Prof. Dr. Christian Winkler beschäftigt sich speziell mit der automatisierten Analyse natürlichsprachiger Texte (NLP). Als Professor an der TH Nürnberg konzentriert er sich bei seiner Forschung auf die Optimierung der User Experience.

Dieses erste Update fällt etwas umfangreicher aus. Aktuelle Modelle finden sich bei Hugging Face oder durch konsequentes Mitlesen im sehr aktiven LocalLLaMa-Subreddit. Gerne nehmen wir auch Vorschläge über Modelle entgegen, die wir uns näher anschauen sollen.

Der Trend muss nicht zu immer größeren Modellen gehen. Bei Hugging Face finden sich einige Modelle, die sehr beliebt, aber nicht besonders groß sind.

Ganz vorn steht hier VibeThinker von WeiboAI. Das Reasoning-Modell ist vor allem darauf ausgelegt, mathematische Fragen zu beantworten oder Programmcode zu erzeugen. Für diese Aufgaben ist es sehr gut geeignet. Laut den Benchmarks spielt es in der gleichen Liga wie das (ältere) Gemini 2.5 Flash und überholt teilweise sogar DeepSeek R1.


M3-Logo, Sechsecke

M3-Logo, Sechsecke

(Bild: Bridgman/AdobeStock)

Am 22. und 23. April 2026 findet die Minds Mastering Machines in Karlsruhe statt. Im Mittelpunkt der von iX und dpunkt.verlag veranstalteten Konferenz stehen praxisnahe Themen von klassischem Machine Learning bis zu LLMs und Agentic AI. Das Programm bietet unter anderem Vorträge zu folgenden Themen:

  • Predictive Maintenance in der Praxis
  • Kommunikationsprotokolle für Agentic AI
  • Embeddings richtig verstehen
  • MCP sicher im Unternehmen einsetzen
  • Lokale LLMs in der Praxis

Erstaunlich ist, dass das Modell mit nur 1,5 Milliarden Parametern auskommt. Die anderen genannten Modelle haben 400-mal mehr Gewichte zu verarbeiten und sind dadurch entsprechend langsam. Die Größe spielt besonders bei Coding-Modellen eine entscheidende Rolle: Erstens will man die Modelle möglicherweise auch lokal ausführen, nachdem man sie potenziell feingetunt hat, und zweitens generieren diese Modelle sehr viele Token – je schneller das geht, desto kürzer ist die Wartezeit auf den generierten Code.

Weiterlesen nach der Anzeige

Mit vier Milliarden Parametern etwas größer, aber noch spezialisierter ist AesCoder, das mithilfe von GRPO (Group Relative Policy Optimization) auf die Erledigung von Web-Designaufgaben spezialisiert ist.

Auch wenn man häufig von Open-Source-Modellen spricht, sind meist lediglich die Gewichte der Modelle frei verfügbar. Nur wenige Anbieter veröffentlichen die Trainingsdaten und die Algorithmen, mit denen sie die Modelle trainiert haben. Neben Hugging Face mit SmolLM gibt es offene Trainingsdaten für das Modell Apertus aus der Schweiz und vor allem für die Olmo-Modelle vom Allen AI Institute. Letzteres braucht sich aufgrund der Investitionen durch Microsoft-Mitgründer Paul Allen keine großen Gedanken um die Finanzierung zu machen.

Besonders die jüngsten Olmo-3-Modelle integrieren viele innovative Techniken und machen damit einen gewaltigen Sprung nach vorn. Sie stehen in zwei Größen mit 7 und 32 Milliarden Parametern zur Verfügung. Das größere Modell gibt es in einer Reasoning-Variante, das kleinere zusätzlich noch als Instruction-Following-Modell ohne Reasoning. Für diejenigen, die die Modelle feintunen möchten, stellt Olmo anders als die meisten anderen Anbieter die Basismodelle zur Verfügung.

Im Vergleich zu anderen Modellen wie Qwen3 hat Olmo 3 deutlich weniger Token im Training erhalten: 5,9 Billionen aus dem Datensatz Dolma 3 Mix. Das macht sich leider in der Modellperformance bemerkbar, die nach ersten Tests nicht mit den Qwen3-Modellen in der gleichen Größenordnung mithalten kann. Die Strawberry-Challenge mit der Frage nach der Anzahl der „e“ in „Erdbeere“ (oder „r“ in „strawberry“) beantwortet das Modell konsequent falsch. Auch die deutschen Sprachfähigkeiten der kleineren Modelle sind nicht besonders gut ausgeprägt:


Chatverlauf Olmo 3 7B

Chatverlauf Olmo 3 7B

Bei der Antwort von Olmo 3 7B sind nicht nur die Inhalte falsch, auch die sprachliche Ausführung ist mangelhaft (Abb. 1).

(Bild: datanizing)


Chatverlauf Olmo 3 32B

Chatverlauf Olmo 3 32B

Das Modell Olmo 3 32B macht zwar ebenfalls Fehler, liegt aber häufiger richtig und formuliert deutlich bessere Sätze (Abb. 2).

(Bild: datanizing)

Der Artikel zu Olmo 3 enthält viele Details über die Architektur und das Training des Modells. Das gibt interessante Einblicke in den Trainingsprozess. Insbesondere das Post-Training ist sehr anspruchsvoll, weil Olmo dabei mit unterschiedlichen Datensets arbeitet, um die Qualität zu verbessern. Viele Innovationen gibt es beim Reinforcement Learning des Reasoning-Modells (bei Olmo „Thinking“ genannt).

Einige der GRPO-Optimierungen sind von anderen Modellen bekannt, kommen aber in dieser Kombination erstmals bei Olmo zum Einsatz. Das Modell setzt außerdem die weiterentwickelte Version des Verfahrens Reinforcement Learning with Verifiable Rewards (RLVR) ein, mit dem auch das neue Training von DeepSeek arbeitet. Mit RLVR kann man automatisiert überprüfen, ob Sprachmodelle die richtigen Ergebnisse vorhersagen. Die Besonderheit der weiterentwickelten Version ist, dass man damit Trainingsdaten automatisiert erzeugen kann – in Grenzen und bestimmten fachlichen Domänen.



Source link

Entwicklung & Code

Kuratierte KI-Agenten-Sammlung von JetBrains und Zed


Der IDE-Anbieter JetBrains und das Unternehmen hinter dem Sourcecode-Editor Zed, Zed Industries, haben gemeinsam die ACP Registry veröffentlicht. Diese soll es Entwicklerinnen und Entwicklern vereinfachen, mit dem Agent Client Protocol (ACP) kompatible KI-Coding Agenten bereitzustellen, aufzufinden und in Entwicklungsumgebungen zu installieren.

Weiterlesen nach der Anzeige

In der ACP Registry finden sich derzeit ausschließlich kuratierte KI-Agenten und -Extensions, die Authentifizierung unterstützen. Sie folgen dem Agent Client Protocol (ACP), einem standardisierten, offenen Protokoll für das Zusammenspiel von KI-Agenten und Editoren. ACP wurde von JetBrains und Zed Industries erstmals im Oktober 2025 vorgestellt.

Laut den Herstellern war das Protokoll bereits ein großer Schritt nach vorn, doch die Distribution war bisher fragmentiert. Agenten mussten für jeden Client als Extension verfügbar gemacht oder manuell durch User installiert werden. Hier setzt die ACP Registry an: Entwicklerinnen und Entwickler können ihre geeignete Implementierung eines Agenten oder einer Extension einmal registrieren, und diese wird dann für jeden ACP-kompatiblen Client verfügbar.

Sowohl Zed als auch die Entwicklungsumgebungen von JetBrains besitzen integrierten ACP-Registry-Support, um die Agenten auf einfache Weise zu installieren und ihre jeweils aktuellste Version zu verwenden. In JetBrains-IDEs – ab Version 2025.3.2 und mit JetBrains AI (253.30387.147) – lassen sich Agenten beispielsweise im Agent-Picker-Menü unter „Install From ACP Registry…“ auswählen und installieren. In Zed sieht die ACP-Registry-Seite wie folgt aus:


Zed bietet eine integrierte Anbindung an die ACP Registry.

Zed bietet eine integrierte Anbindung an die ACP Registry.

Zed bietet eine integrierte Anbindung an die ACP Registry.

(Bild: Zed Industries)

Weiterlesen nach der Anzeige

Die kuratierte ACP Registry enthält aktuell die folgenden neun Agenten und Extensions:

  • Auggie CLI
  • Claude Code
  • Codex CLI
  • Factory Droid
  • Gemini CLI
  • GitHub Copilot
  • Mistral Vibe
  • OpenCode
  • Qwen Code

Weitere Informationen zur ACP Registry finden sich auf der offiziellen Website und im GitHub-Repository sowie in den Ankündigungen von JetBrains und Zed Industries.

Lesen Sie auch


(mai)



Source link

Weiterlesen

Entwicklung & Code

Microsofts neues Kommandozeilen-Tool: Windows-Apps ohne Visual Studio entwickeln


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Microsoft hat ein neues Kommandozeilen-Tool für die Windows-App-Entwicklung vorgestellt. winapp CLI soll den Entwicklungsprozess für Anwendungen vereinfachen, die mit Frameworks wie Electron oder Sprachen wie Rust, C++ und .NET erstellt werden. Es verbindet plattformübergreifende Entwicklung mit der nativen Windows-Umgebung. Das Open-Source-Tool befindet sich derzeit in der Public Preview und ist auf GitHub frei verfügbar.

Weiterlesen nach der Anzeige

Das zentrale Versprechen: Was früher zwölf manuelle Schritte erforderte, soll nun ein einziger Befehl erledigen. Der Befehl winapp init lädt die benötigten SDKs wie Windows SDK und Windows App SDK automatisch herunter, generiert Code-Projektionen wie C++/WinRT und konfiguriert Manifeste, Assets, Zertifikate sowie Abhängigkeiten. Das Tool ist bewusst so konzipiert, dass Entwickler ihre gewohnten Editoren – also VS Code genauso wie andere IDEs – weiterverwenden können. Mit winapp restore lässt sich die exakte Entwicklungsumgebung für gemeinsam genutzte Projekte oder in CI/CD-Pipelines wiederherstellen.

Besonders für Cross-Platform-Entwickler interessant ist die Funktion create-debug-identity. Sie fügt einer ausführbaren Datei temporär eine Package Identity hinzu, ohne dass die Anwendung vollständig als MSIX-Paket verpackt werden muss. Das beschleunigt den Entwicklungszyklus erheblich, da moderne Windows-APIs wie die Windows AI APIs, Benachrichtigungen, Shell-Integration oder Hintergrundaufgaben eine solche Identity verwenden.

Für Electron-Entwickler bietet Microsoft ein spezielles npm-Paket an: Mit npm install @microsoft/winappcli --save-dev lässt sich winapp in bestehende Projekte integrieren. Der Befehl winapp node add-electron-debug-identity injiziert die Package Identity direkt in den laufenden Prozess. Zusätzlich stellt das Paket @microsoft/winapp-windows-ai Node.js-Projektionen für Microsofts KI-APIs bereit, etwa für lokale Sprachmodelle oder Text- und Bildverarbeitung.

Das Tool übernimmt auch das Erstellen von MSIX-Paketen für die Distribution über den Microsoft Store oder Sideloading. Mit winapp pack ./my-app-files --cert ./devcert.pfx erzeugt es Store-fähige oder für manuelles Deployment vorbereitete Pakete. Entwicklerzertifikate lassen sich per winapp cert generate erstellen und optional lokal installieren. Auch das Aktualisieren von Manifest-Ressourcen funktioniert über die CLI, etwa mit winapp manifest update-assets C:\images\my-logo.png.

Weiterlesen nach der Anzeige

Für Continuous-Integration-Workflows bietet Microsoft Actions für GitHub Actions und Azure DevOps an. Die setup-WinAppCli-Action installiert winapp automatisch in der Pipeline. Entwickler können damit konsistente Build-Umgebungen schaffen, ohne manuell SDKs oder Tools konfigurieren zu müssen.

winapp CLI ist laut Ankündigung explizit als Ergänzung für Entwickler gedacht, die außerhalb des Visual-Studio-Ökosystems arbeiten. Neben Electron und Rust unterstützt winapp auch C++ mit CMake, .NET, Dart und weitere Sprachen und Frameworks. Guides für diese Technologien sowie Beispielprojekte finden sich im GitHub-Repository.

Die Installation erfolgt wahlweise über WinGet mit winget install Microsoft.winappcli --source winget, als npm-Paket oder manuell über GitHub Releases. Während der Public Preview sammelt Microsoft Feedback über das GitHub-Repository. Welche Features Priorität erhalten und wann eine finale Version erscheint, ist aktuell offen. Für Entwickler, die auf alternative Cross-Platform-Frameworks setzen, bleiben Optionen wie .NET MAUI, Avalonia, Uno Platform oder React Native for Desktop bestehen.


(fo)



Source link

Weiterlesen

Entwicklung & Code

Google-DeepMind-Chef: Der nächste Einstein könnte eine KI sein


Es ist das ewige Versprechen der Branche und das Feigenblatt, um bis dahin das Verbrennen von Milliarden Dollar und Unmengen an Energie zu rechtfertigen: die Suche nach der AGI. Die Artificial General Intelligence (Künstliche allgemeine Intelligenz) gilt als heiliger Gral der KI-Forscher. Wenn die Software lernt, ohne menschliche Hilfe zu lernen, sollen undenkbare Fortschritte möglich sein. Manch einer hat auch Angst, dass sich die KI dann gegen den Menschen wendet. Aber in zunehmendem Maße halten Menschen diese Zukunftsvision für eine Fata Morgana und den Weg dorthin noch für sehr weit.

Weiterlesen nach der Anzeige

Demis Hassabis, Chef von Googles KI-Sparte DeepMind, hält die AGI für erreichbar. Aber erst in fünf bis zehn Jahren. In einem Interview mit Alex Kantrowitz von Big Technology ließ er kein gutes Haar an seinem Mitbewerber OpenAI und dessen Chef Sam Altman. Man dürfe AGI nicht als Marketingbegriff verwenden, mahnt er. Die allgemeine künstliche Intelligenz sei ein System, das alle kognitiven Fähigkeiten zeigen kann, die Menschen haben, sagt er: „Und ich meine alle.“

Aber wo ist der Nutzen für die Menschheit? Den würde diese Form von KI erst haben, wenn sie der Menschheit zu neuen Durchbrüchen verhilft, erklärt Hassabis. Es sei nicht damit getan, eine mathematische Gleichung oder eine Vermutung zu lösen. Bahnbrechende Vermutungen sind gefragt, ein neuer Einstein. Oder im künstlerischen Bereich ein Picasso oder ein Mozart. Und zwar mit Fähigkeiten und einer Schlagzahl, wie sie bei Menschen kaum oder gar nicht möglich wäre.

Und obwohl er die Ansicht vertritt, dass die Fähigkeiten heutiger KI-Modelle noch gar nicht alle erkannt und ausgeschöpft sind, zeigt sich Hassabis überzeugt, dass diese noch weit von einer AGI entfernt sind. Heutige KI habe ein „Goldfischgehirn“. Sie kann das Internet durchsuchen, aber dieses Wissen ändere das Modell nicht und sei nach der Sitzung wieder vergessen. Eine Superintelligenz würde sogar noch weitergehen, sie könnte andere Systeme wie Wettersatelliten integrieren oder in 14 Dimensionen denken – Dinge, zu denen kein Mensch fähig wäre.

Weiterlesen nach der Anzeige

KI brauche auf dem Weg zur AGI noch mehrere Durchbrüche: Neben kontinuierlichem Lernen seien das effizientere Kontextfenster und langfristige Planung. Während das menschliche Gehirn mit selektiver Aufmerksamkeit nur das Wichtige verarbeitet, behandelt KI alle Informationen im Kontext gleich. Dies ist ineffizient und teuer.

In dem Bühnengespräch in Davos ging Hassabis auch auf die Frage ein, ob Google wie OpenAI plane, in seinem Chatbot Werbung zu integrieren. Viel Lob verteilte Hassabis für Start-up Anthropic, in das Google bereits Milliarden Dollar investiert hat. Deren Entwicklungs-Tool Claude Code sei sehr gelungen. Google selbst will die Fähigkeiten seines KI-Modells Gemini mit der neu veröffentlichten IDE Antigravity besser zur Geltung bringen.

Konkret äußerte sich Hassabis zu Smart Glasses: Google arbeitet mit Partnern wie Warby Parker, Gentle Monster und Samsung an einer neuen Generation KI-gestützter Brillen, die „vielleicht bis zum Sommer“ auf den Markt kommen sollen. Anders als beim gescheiterten Google Glass vor gut zehn Jahren seien nun sowohl die Form ausgereift als auch – entscheidend – die „Killer-App“ vorhanden: ein universeller digitaler Assistent, der freihändig im Alltag hilft. Hassabis selbst arbeitet persönlich an dem Projekt mit.


(mki)



Source link

Weiterlesen

Beliebt