Connect with us

Entwicklung & Code

Rust-Entwickler kritisieren Komplexität und mangelnde Unterstützung


Die Ergebnisse der Umfrage „State of Rust Survey 2025“ liegen vor: Immer mehr Entwicklerinnen und Entwickler setzen Rust in ihrem Arbeitsumfeld ein, können zunehmend produktiver damit arbeiten und verwenden dafür fast immer das aktuelle, stabile Release. Allerdings ist nur eine knappe Mehrheit der Teilnehmer mit dem Tempo zufrieden, mit dem sich Rust weiterentwickelt. Befürchtungen gibt es auch dahingehend, dass Rust zu komplex wird, Developer wie Maintainer zu wenig Unterstützung erhalten und sich die Programmiersprache im Unternehmensumfeld nicht durchsetzen kann.

Weiterlesen nach der Anzeige

Mehr als die Hälfte der Befragten meint, dass es sich mit Rust produktiv arbeiten lässt (56,8 Prozent). Damit setzt sich ein Trend fort, denn bei der Vorjahresumfrage stimmten noch 53,5 Prozent dieser Aussage zu, während es im Jahr 2023 nur 47 Prozent waren. Leicht gestiegen, auf 55,1 Prozent, ist auch der Anteil der Entwicklerinnen und Entwickler, die Rust täglich einsetzen. Unter den am häufigsten genannten Alltagsproblemen stehen dabei langsames Kompilieren (27,3 Prozent) und hoher Speicherbedarf für Zielverzeichnisse (22,2 Prozent) an vorderster Stelle.


Infografik Gründe für die Nutzung von Rust

Infografik Gründe für die Nutzung von Rust

Rust ist performant, sicher und erlaubt es, weitgehend Bug-freie Software zu erstellen: Diesen Aussagen stimmt die überwiegende Mehrheit der Umfrage-Teilnehmerinnen und -Teilnehmer zu.

(Bild: PDF-Report der Umfrage)

Mit 89,2 Prozent setzt die große Mehrheit der Rust-Developer auf das aktuelle stabile Release. Sorge vor einem Upgrade hat dabei fast niemand, denn 97,1 Prozent stimmen der Aussage zu, dass der Wechsel auf eine neue stabile Compiler-Version sehr einfach ist und höchstens geringe Code-Anpassungen erfordert.

Vorsichtiger ist man bei Nightly-Upgrades, denn 56,9 Prozent erwarten hier Probleme wie Compiler-Fehler. Warum man diese trotzdem nutzt, beantworten knapp 31 Prozent damit, dass sie ein bestimmtes Feature nutzen wollen, das noch nicht in der stabilen Version zur Verfügung steht. Die Nightly-Version wird auch eingesetzt, weil ein bestimmtes Tool sie erfordert (10,8 Prozent) oder weil eine Crate-Abhängigkeit besteht (8,5 Prozent).


Infografik Rust-Versionen

Infografik Rust-Versionen

Fast 90 Prozent der Rust-Developer setzen auf das aktuelle, stabile Release. Die Nightly-Version kommt beispielsweise dann zum Einsatz, wenn es um spezielle Features oder Abhängigkeiten geht, die sich nicht mit dem stabilen Release abbilden lassen.

(Bild: Rust-Blog)

Weiterlesen nach der Anzeige

Knapp 60 Prozent sind mit dem Tempo zufrieden, mit dem sich Rust weiterentwickelt. Einem Viertel geht es indes zu langsam und 41,6 Prozent meinen sogar, dass Rust zu komplex wird. Die ausbleibende Unterstützung für Developer und Maintainer sehen 38,4 Prozent als Problem an, ein Punkt, der gegenüber dem Vorjahr (35,4 Prozent) sogar in der Umfrage gestiegen ist. Hier spiegelt sich offensichtlich eine allgemeine Überforderung, die viele Projektverantwortliche bemängeln, oft neuerdings auch im Zusammenhang mit zunehmendem AI-Slop.


Infografik Hauptsorgen der Entwickler

Infografik Hauptsorgen der Entwickler

Mangelnde Unterstützung und hohe Komplexität sind aktuell die größten Herausforderungen, mit denen Rust zu kämpfen hat, urteilt die Entwickler-Community.

(Bild: Rust-Blog)

Den Spitzenplatz unter den Zukunftssorgen nimmt aber die Befürchtung ein, dass Rust in der Technologiebranche zu wenig Einsatz findet (42,1 Prozent). Die Umfrage macht allerdings auch einen gegenläufigen Trend sichtbar. Im Unternehmensumfeld wird Rust häufiger für den produktiven Einsatz herangezogen (48,8 Prozent), ein klares Plus gegenüber den Jahren 2023 und 2022, in denen noch 45,5 Prozent beziehungsweise 38,7 Prozent der Befragten diese Beobachtung gemacht haben. Zudem gibt ein Viertel der Teilnehmer an, dass ihr Unternehmen Rust-Developer einstellen will. Vergangenes Jahr waren es 22 Prozent und 2021 noch 19,6 Prozent.

Unter den Stable-Features, die in den letzten 12 Monaten dazugekommen sind, verwenden Entwicklerinnen und Entwickler Let Chains (71,4 Prozent) und Async Closures (55,5 Prozent) am häufigsten. Auf dem dritten Platz landet Trait Upcasting mit 28,1 Prozent. Im Gegensatz dazu werden Features wie Naked Functions, Strict Provenance API und diagnostic::do_not_recommend kaum benötigt.

Für das nächste stabile Release wünschen sich die Teilnehmer, dass noch nicht implementierte oder den Nightly-Versionen vorbehaltene Features wie Generic Const Expressions, Const Trait Methods, Stable ABI und Portable SIMD Aufnahme finden.

Die beliebteste Entwicklungsumgebung für Rust bleibt Visual Studio Code, allerdings mit weiter sinkendem Anteil. Im Jahr 2022 war es für 61,7 Prozent der Entwicklerinnen und Entwickler der Editor der Wahl, jetzt nur noch für 51,6 Prozent. Bei den genutzten Paketmanagern und Crate-Quellen sind die Sympathien klar verteilt. Rust-Developer verwenden fast ausschließlich Cargo (97,5 Prozent) und beziehen ihre Crates überwiegend von crates.io (96,6 Prozent). Einen großen Anteil machen mittlerweile auch die Git-Repositories aus, die 46,2 Prozent der Teilnehmer nutzen.

Linux ist als Rust-Entwicklungsplattform weiterhin das OS der Wahl (75,2 Prozent). macOS und Windows bringen es zusammen auf einen Anteil von 61,4 Prozent. Ein ähnliches Bild zeigt sich bei den Zielplattformen. Hier liegt Linux mit 88,4 Prozent vorn, gefolgt von Windows mit 43,3 Prozent und macOS mit 30,7 Prozent.

Die vom Rust Survey Team durchgeführte Online-Umfrage „State of Rust Survey 2025“ lief 30 Tage lang vom 17. November bis zum 17. Dezember 2025 und war in zehn Sprachen verfügbar. Den kompletten Fragebogen beantworteten 7156 Entwicklerinnen und Entwickler, von denen sich eine Mehrheit von 23,4 Prozent in den USA verortete. Mit 13,4 Prozent folgten Teilnehmer aus Deutschland auf Platz zwei. Frankreich, Großbritannien und China machen mit zusammen etwa 16 Prozent die Plätze drei bis fünf unter sich aus.

Insgesamt unterscheiden sich die Antworten zum großen Teil nur geringfügig von der Umfrage aus dem Jahr 2024, so ihre Urheber. Die gegenüber den Vorjahren leicht gesunkene Beteiligung führt das Survey-Team auf die größere Anzahl von Umfragen zurück, die 2025 über den Rust-Blog lanciert wurden.

Sämtliche Ergebnisse der Umfrage stehen im Rust-Blog bereit. Die Auswertung gibt es auch als 59-seitigen PDF-Report.


(who)



Source link

Entwicklung & Code

Meta kauft zig Millionen AWS Graviton Cores für Agentic AI


Amazon Web Services und Meta haben eine Vereinbarung bekannt gegeben, nach der Meta mehrere zehn Millionen Graviton5-Cores von AWS verwenden wird. Mit dem Deal wird Meta zu einem der größten Graviton-Kunden, und die Vereinbarung sieht eine Erweiterung um weitere Graviton-Kerne vor, wenn Metas Bedarf wächst.

Weiterlesen nach der Anzeige

Meta will die zusätzliche Rechenleistung vor allem für den Bereich Agentic AI nutzen. Für das Training von KI-Modellen sind GPUs besser geeignet als CPUs. Im Bereich Agentic AI müssen autonome Agenten jedoch komplexe Aufgaben planen und ausführen, wofür sich CPUs besser eignen.

Amazon hatte die Graviton5-Chips im Dezember 2025 auf der re:Invent 2025 vorgestellt.



Meta wird zahlreiche Graviton-Chips nutzen.

(Bild: Amazon)

Amazon bezeichnet die Graviton-CPU als Cloudprozessor, der speziell für energieeffiziente Cloudanwendungen konzipiert ist. Graviton setzt wie die Axion-Chips von Google und die Cobalt-Chips von Microsoft auf eine ARM-Architektur. Im März 2026 hat ARM erstmals einen eigenen Prozessor vorgestellt: Die AGI CPU, deren Name an die Artificial General Intelligence angelehnt ist, hat ARM zusammen mit Meta und TSMC entwickelt.

Die Graviton5-Chips haben 192 Kerne und einen deutlich größeren L3-Cache als das Vorgängermodell. Weitere Details lassen sich den offiziellen Ankündigungen von Meta und von Amazon entnehmen.

Weiterlesen nach der Anzeige


(rme)



Source link

Weiterlesen

Entwicklung & Code

DeepSeek v4: Günstige KI-Alternative fordert OpenAI und Anthropic heraus


Vor einem Jahr sorgte das chinesische KI-Start-up DeepSeek für einen Schock in der KI-Branche: Das KI-Modell DeepSeek-R1 zeigte vergleichbare Leistungen wie US-Topmodelle zum deutlich günstigeren Preis und sorgte für ein Börsenbeben. Wie später bekannt wurde, hatte das Training von DeepSeek-R1 weniger als 300.000 US-Dollar gekostet. Jetzt ist mit DeepSeek v4 eine neue Generation als Vorschau erschienen. Das neue Spitzenmodell ist weiterhin kostenlos als Open Source verfügbar und liegt in einer Pro- und einer Flash-Variante vor.

Weiterlesen nach der Anzeige

Der große Schock könnte dieses Mal ausbleiben. Zwar setzt sich DeepSeek erneut an die Open-Source-Spitze, doch Experten verorten das Leistungsvermögen zeitlich etwa drei bis sechs Monate hinter den absoluten Topmodellen am Markt und nicht auf Augenhöhe. Dafür bleibt aber immerhin der große Preisvorteil erhalten. Das Pro-Modell ist zwar deutlich teurer bei den API-Aufrufen als DeepSeek v3.2. Es liegt aber immer noch weit unter den Preisen, die OpenAI und Anthropic aufrufen. So kostet etwa GPT-5.5 von OpenAI laut Benchmark-Angaben des Unternehmens das Doppelte für vergleichbare Coding-Aufgaben. Aus dem Konkurrenz-Sprint könnte jetzt ein Marathon werden. Wie sich die chinesische Open-Source-KI nach dem DeepSeek-Schock insgesamt entwickelt, zeigt ein Überblick zur chinesischen Open-Source-KI.

Unter der Haube hat sich eine Menge getan: V4 ist ein echter Generationswechsel mit komplett neuer Architektur, achtfach längerem Kontextfenster und einem laut den von DeepSeek vorgelegten Unterlagen spürbar besserem Coding- und Mathe-Niveau.

V3.2 hatte 685 Milliarden Parameter; V4-Pro kommt auf 1,6 Billionen – mehr als doppelt so viele. Das neue Modell kann bis zu einer Million Token Kontext verarbeiten – also sehr lange Dokumente, Codebases oder Gespräche – und benötigt dafür nur einen Bruchteil der Rechenleistung früherer DeepSeek-Modelle. Zum Vergleich: V3.2 unterstützte maximal 128.000 Token Kontext. Der Vorgänger führte als wichtigste Neuerung „DeepSeek Sparse Attention“ (DSA) ein – eine effizientere Aufmerksamkeitsarchitektur für lange Texte. V4 baut darauf auf und kombiniert gleich zwei neue Mechanismen.

Schwächen gibt es offenbar beim Allgemeinwissen – hier sollen andere Spitzenmodelle deutlich besser sein. Die Reasoning-Fähigkeiten des Modells können jetzt in drei statt bislang zwei Stufen gesteuert werden: Non-Think, Think High und Think Max statt vorher nur Thinking und Non-Thinking. DeepSeek spekuliert offenbar vor allem auf Entwickler als Kunden: In der Eigendarstellung des neuen Modells rücken vor allem Coding-Benchmarks, Reasoning und agentische Aufgaben in den Vordergrund. Auch OpenAI setzt verstärkt auf Entwickler als Zielgruppe und hat seine ChatGPT-Tarife rund um das Coding-Werkzeug Codex umgebaut. Das mögliche Einsparpotenzial gegenüber US-Modellen dürfte hier sicherlich einige interessieren.

Weiterlesen nach der Anzeige

DeepSeek-V4-Pro kostet 1,74 US-Dollar pro Million Input-Token und 3,48 US-Dollar pro Million Output-Token. Die Flash-Variante schlägt mit 0,14 US-Dollar pro Million Input-Token und 0,28 US-Dollar pro Million Output-Token. Das US-Wirtschaftsmedium Bloomberg berichtet, dass DeepSeek aktuell wegen Rechnerknappheit einen Kapazitätsengpass beim Pro-Modell hat. Im zweiten Halbjahr sollen neue Huawei-Ascend-950-Cluster den Mangel ausbessern. Dann könnten die Preise sinken.


(mki)



Source link

Weiterlesen

Entwicklung & Code

Markdown auf Steroiden: Quarkdown 2.0 ist da


Der Markdown-Dialekt Quarkdown ist in Version 2.0.0 erschienen. Im Mittelpunkt des Updates stehen ein neues Berechtigungssystem, das den Zugriff eines Dokuments während der Kompilierung einschränkt, und eine HTML-Ausgabe, die vollständig offline funktioniert. Hinzu kommen paralleles Rendering, neue HTML-Optionen für Canonical Links und eine sitemap.xml sowie ein public/-Verzeichnis für statische Assets. Mehrere Breaking Changes betreffen außerdem das Standard-Ausgabeverzeichnis, den Namen des Ausgabeverzeichnisses bei --preview und ein umbenanntes Modul der Standardbibliothek.

Weiterlesen nach der Anzeige

Quarkdown erweitert die Auszeichnungssprache um eine Turing-vollständige Funktionssprache. Anders als klassisches Markdown erlaubt das Open-Source-Projekt damit Variablen, Funktionen und Kontrollstrukturen direkt im Dokument. Es zielt auf HTML- und PDF-Ausgaben für Bücher, Fachtexte, Wissenssammlungen und Präsentationen. Wer Markdown kennt, kann sich Quarkdown am ehesten als Markdown mit eingebauter Skript- und Layoutschicht vorstellen.

Die wichtigste Neuerung ist das Berechtigungssystem. Es legt fest, worauf ein Dokument während der Kompilierung zugreifen darf. Versucht der Compiler eine Aktion ohne passende Berechtigung, bricht er mit einem Fehler ab. Freigaben und Verbote setzen Nutzer über --allow und --deny; vorgesehen sind unter anderem project-read, global-read, network, native-content und all. Das Feature wirkt vor allem als Sandbox: Weil Quarkdown-Dokumente dank ihrer Funktionssprache deutlich mehr können als reines Markdown, lässt sich die Ausführung fremder Dokumente damit besser absichern.

Ebenfalls zentral ist die überarbeitete HTML-Ausgabe. Quarkdown liefert Schriften, Code-Highlighting-Themes und optionale Bibliotheken jetzt mit der Installation aus und kopiert sie in die generierten Dokumente, statt sie von CDNs oder Google Fonts nachzuladen. Damit funktioniert die Ausgabe vollständig offline. Laut Release Notes sorgt das zugleich für vorhersagbareres Rendering und schnellere Seitenaufrufe. Lediglich chinesische Schriften bei .doclang {zh} sowie explizit gewählte Google Fonts bleiben remote. Der Preis sind größere Ausgabeverzeichnisse und ein etwas langsamerer Erstlauf; Folgekompilierungen bremsen Prüfsummen-Checks dem Projekt zufolge nicht aus.

Für HTML-Projekte führt Quarkdown außerdem die neue Funktion .htmloptions ein. Mit gesetztem baseurl erzeugt sie Canonical Links im jeder Seite und schreibt eine sitemap.xml mit absoluten URLs für Haupt- und Unterdokumente. Damit rückt Quarkdown näher an typische Static-Site-Generatoren heran, ohne dass Nutzer solche SEO-Metadaten nachträglich ergänzen müssen.

Praktisch für Web-Ausgaben ist auch das neue Verzeichnis public/ im Projektwurzelverzeichnis. Dessen Inhalt – etwa robots.txt, CNAME oder andere statische Dateien – landet unverändert im Wurzelverzeichnis der Ausgabe. Ergänzend versteht Quarkdown beim HTML-Export jetzt das Wurzelpfadsymbol @: Ein Verweis wie @/assets/logo.png zeigt auf die Ausgabewurzel und eignet sich damit für Assets, die mehrere Unterdokumente gemeinsam nutzen. Das Konzept erinnert an die public/-Ordner gängiger Web-Frameworks.

Weiterlesen nach der Anzeige

Neu ist zudem die Primitivfunktion .image, die Bilder feiner konfigurierbar macht, einschließlich eines Opt-outs aus dem Media Storage über mediastorage:{no}. Querverweise per .ref rendert Quarkdown jetzt für alle referenzierbaren Typen als Links – also nicht nur für Überschriften, sondern auch für Abbildungen, Tabellen, Code-Blöcke, Gleichungen und benutzerdefinierte nummerierte Blöcke. In längeren technischen Dokumenten wird die Navigation dadurch deutlich konsistenter.

Zu den kleineren, aber nützlichen Komfortfunktionen zählen mehrzeilige Funktionsaufrufe per Backslash am Zeilenende und die neue Funktion .keybinding für Tastenkürzel. Letztere stellt Shortcuts als stilisierte Tastenbeschriftungen dar und berücksichtigt Plattformunterschiede, etwa mit statt Ctrl auf macOS. Das ist praktisch für Bereiche wie Dokumentation, Wissenssammlungen und UI-nahe Inhalte.

Unter der Haube rendert Quarkdown 2.0 Geschwisterelemente jetzt parallel, was große Dokumente beschleunigen soll. Überarbeitet hat das Projekt auch die Ein- und Ausgabe des Media Storage: Dateien kopiert Quarkdown nun per Referenz statt per Inhalt, ergänzt um Prüfsummen, die unnötige Kopien vermeiden.

Bestehende Setups müssen sich auf einige Inkompatibilitäten einstellen. Das Standard-Ausgabeverzeichnis heißt jetzt ./quarkdown-output statt ./output. Bei --preview ohne --out-name vergibt Quarkdown künftig statische Namen nach dem Muster preview--, statt sich an .docname zu orientieren. Hinzu kommt eine Umbenennung in der Standardbibliothek: Das bisherige Modul Injection heißt nun Html; bestehende Verweise auf die Dokumentation des Moduls und seiner Funktionen müssen daher angepasst werden.

Alle Informationen zu Quarkdown 2.0.0 finden sich in den Release Notes auf GitHub. Das Projekt ist Open Source: Quarkdown und seine Module stehen standardmäßig unter GNU GPLv3; für die Module und Binärpakete von quarkdown-cli und quarkdown-lsp gilt die GNU AGPLv3. Installieren lässt sich die Software per Installationsskript unter Linux, macOS und Windows sowie über Homebrew oder Scoop; alternativ verweist das Projekt auf ein quarkdown.zip aus dem aktuellen Stable-Release oder einen Build via gradlew installDist.

Lesen Sie auch


(fo)



Source link

Weiterlesen

Beliebt