Entwicklung & Code
Markdown auf Steroiden: Quarkdown 2.0 ist da
Der Markdown-Dialekt Quarkdown ist in Version 2.0.0 erschienen. Im Mittelpunkt des Updates stehen ein neues Berechtigungssystem, das den Zugriff eines Dokuments während der Kompilierung einschränkt, und eine HTML-Ausgabe, die vollständig offline funktioniert. Hinzu kommen paralleles Rendering, neue HTML-Optionen für Canonical Links und eine sitemap.xml sowie ein public/-Verzeichnis für statische Assets. Mehrere Breaking Changes betreffen außerdem das Standard-Ausgabeverzeichnis, den Namen des Ausgabeverzeichnisses bei --preview und ein umbenanntes Modul der Standardbibliothek.
Weiterlesen nach der Anzeige
Quarkdown erweitert die Auszeichnungssprache um eine Turing-vollständige Funktionssprache. Anders als klassisches Markdown erlaubt das Open-Source-Projekt damit Variablen, Funktionen und Kontrollstrukturen direkt im Dokument. Es zielt auf HTML- und PDF-Ausgaben für Bücher, Fachtexte, Wissenssammlungen und Präsentationen. Wer Markdown kennt, kann sich Quarkdown am ehesten als Markdown mit eingebauter Skript- und Layoutschicht vorstellen.
Berechtigungssystem als Sandbox
Die wichtigste Neuerung ist das Berechtigungssystem. Es legt fest, worauf ein Dokument während der Kompilierung zugreifen darf. Versucht der Compiler eine Aktion ohne passende Berechtigung, bricht er mit einem Fehler ab. Freigaben und Verbote setzen Nutzer über --allow und --deny; vorgesehen sind unter anderem project-read, global-read, network, native-content und all. Das Feature wirkt vor allem als Sandbox: Weil Quarkdown-Dokumente dank ihrer Funktionssprache deutlich mehr können als reines Markdown, lässt sich die Ausführung fremder Dokumente damit besser absichern.
Ebenfalls zentral ist die überarbeitete HTML-Ausgabe. Quarkdown liefert Schriften, Code-Highlighting-Themes und optionale Bibliotheken jetzt mit der Installation aus und kopiert sie in die generierten Dokumente, statt sie von CDNs oder Google Fonts nachzuladen. Damit funktioniert die Ausgabe vollständig offline. Laut Release Notes sorgt das zugleich für vorhersagbareres Rendering und schnellere Seitenaufrufe. Lediglich chinesische Schriften bei .doclang {zh} sowie explizit gewählte Google Fonts bleiben remote. Der Preis sind größere Ausgabeverzeichnisse und ein etwas langsamerer Erstlauf; Folgekompilierungen bremsen Prüfsummen-Checks dem Projekt zufolge nicht aus.
Für HTML-Projekte führt Quarkdown außerdem die neue Funktion .htmloptions ein. Mit gesetztem baseurl erzeugt sie Canonical Links im jeder Seite und schreibt eine sitemap.xml mit absoluten URLs für Haupt- und Unterdokumente. Damit rückt Quarkdown näher an typische Static-Site-Generatoren heran, ohne dass Nutzer solche SEO-Metadaten nachträglich ergänzen müssen.
Statische Assets und neue Funktionen
Praktisch für Web-Ausgaben ist auch das neue Verzeichnis public/ im Projektwurzelverzeichnis. Dessen Inhalt – etwa robots.txt, CNAME oder andere statische Dateien – landet unverändert im Wurzelverzeichnis der Ausgabe. Ergänzend versteht Quarkdown beim HTML-Export jetzt das Wurzelpfadsymbol @: Ein Verweis wie @/assets/logo.png zeigt auf die Ausgabewurzel und eignet sich damit für Assets, die mehrere Unterdokumente gemeinsam nutzen. Das Konzept erinnert an die public/-Ordner gängiger Web-Frameworks.
Weiterlesen nach der Anzeige
Neu ist zudem die Primitivfunktion .image, die Bilder feiner konfigurierbar macht, einschließlich eines Opt-outs aus dem Media Storage über mediastorage:{no}. Querverweise per .ref rendert Quarkdown jetzt für alle referenzierbaren Typen als Links – also nicht nur für Überschriften, sondern auch für Abbildungen, Tabellen, Code-Blöcke, Gleichungen und benutzerdefinierte nummerierte Blöcke. In längeren technischen Dokumenten wird die Navigation dadurch deutlich konsistenter.
Zu den kleineren, aber nützlichen Komfortfunktionen zählen mehrzeilige Funktionsaufrufe per Backslash am Zeilenende und die neue Funktion .keybinding für Tastenkürzel. Letztere stellt Shortcuts als stilisierte Tastenbeschriftungen dar und berücksichtigt Plattformunterschiede, etwa mit ⌘ statt Ctrl auf macOS. Das ist praktisch für Bereiche wie Dokumentation, Wissenssammlungen und UI-nahe Inhalte.
Mehr Tempo und Bugfixes
Unter der Haube rendert Quarkdown 2.0 Geschwisterelemente jetzt parallel, was große Dokumente beschleunigen soll. Überarbeitet hat das Projekt auch die Ein- und Ausgabe des Media Storage: Dateien kopiert Quarkdown nun per Referenz statt per Inhalt, ergänzt um Prüfsummen, die unnötige Kopien vermeiden.
Bestehende Setups müssen sich auf einige Inkompatibilitäten einstellen. Das Standard-Ausgabeverzeichnis heißt jetzt ./quarkdown-output statt ./output. Bei --preview ohne --out-name vergibt Quarkdown künftig statische Namen nach dem Muster preview-, statt sich an .docname zu orientieren. Hinzu kommt eine Umbenennung in der Standardbibliothek: Das bisherige Modul Injection heißt nun Html; bestehende Verweise auf die Dokumentation des Moduls und seiner Funktionen müssen daher angepasst werden.
Lizenz und Installation
Alle Informationen zu Quarkdown 2.0.0 finden sich in den Release Notes auf GitHub. Das Projekt ist Open Source: Quarkdown und seine Module stehen standardmäßig unter GNU GPLv3; für die Module und Binärpakete von quarkdown-cli und quarkdown-lsp gilt die GNU AGPLv3. Installieren lässt sich die Software per Installationsskript unter Linux, macOS und Windows sowie über Homebrew oder Scoop; alternativ verweist das Projekt auf ein quarkdown.zip aus dem aktuellen Stable-Release oder einen Build via gradlew installDist.
Lesen Sie auch
(fo)
Entwicklung & Code
DeepSeek v4: Günstige KI-Alternative fordert OpenAI und Anthropic heraus
Vor einem Jahr sorgte das chinesische KI-Start-up DeepSeek für einen Schock in der KI-Branche: Das KI-Modell DeepSeek-R1 zeigte vergleichbare Leistungen wie US-Topmodelle zum deutlich günstigeren Preis und sorgte für ein Börsenbeben. Wie später bekannt wurde, hatte das Training von DeepSeek-R1 weniger als 300.000 US-Dollar gekostet. Jetzt ist mit DeepSeek v4 eine neue Generation als Vorschau erschienen. Das neue Spitzenmodell ist weiterhin kostenlos als Open Source verfügbar und liegt in einer Pro- und einer Flash-Variante vor.
Weiterlesen nach der Anzeige
Der große Schock könnte dieses Mal ausbleiben. Zwar setzt sich DeepSeek erneut an die Open-Source-Spitze, doch Experten verorten das Leistungsvermögen zeitlich etwa drei bis sechs Monate hinter den absoluten Topmodellen am Markt und nicht auf Augenhöhe. Dafür bleibt aber immerhin der große Preisvorteil erhalten. Das Pro-Modell ist zwar deutlich teurer bei den API-Aufrufen als DeepSeek v3.2. Es liegt aber immer noch weit unter den Preisen, die OpenAI und Anthropic aufrufen. So kostet etwa GPT-5.5 von OpenAI laut Benchmark-Angaben des Unternehmens das Doppelte für vergleichbare Coding-Aufgaben. Aus dem Konkurrenz-Sprint könnte jetzt ein Marathon werden. Wie sich die chinesische Open-Source-KI nach dem DeepSeek-Schock insgesamt entwickelt, zeigt ein Überblick zur chinesischen Open-Source-KI.
Stärken beim Coding, Schwächen beim Wissen
Unter der Haube hat sich eine Menge getan: V4 ist ein echter Generationswechsel mit komplett neuer Architektur, achtfach längerem Kontextfenster und einem laut den von DeepSeek vorgelegten Unterlagen spürbar besserem Coding- und Mathe-Niveau.
V3.2 hatte 685 Milliarden Parameter; V4-Pro kommt auf 1,6 Billionen – mehr als doppelt so viele. Das neue Modell kann bis zu einer Million Token Kontext verarbeiten – also sehr lange Dokumente, Codebases oder Gespräche – und benötigt dafür nur einen Bruchteil der Rechenleistung früherer DeepSeek-Modelle. Zum Vergleich: V3.2 unterstützte maximal 128.000 Token Kontext. Der Vorgänger führte als wichtigste Neuerung „DeepSeek Sparse Attention“ (DSA) ein – eine effizientere Aufmerksamkeitsarchitektur für lange Texte. V4 baut darauf auf und kombiniert gleich zwei neue Mechanismen.
API-Preise könnten sinken
Schwächen gibt es offenbar beim Allgemeinwissen – hier sollen andere Spitzenmodelle deutlich besser sein. Die Reasoning-Fähigkeiten des Modells können jetzt in drei statt bislang zwei Stufen gesteuert werden: Non-Think, Think High und Think Max statt vorher nur Thinking und Non-Thinking. DeepSeek spekuliert offenbar vor allem auf Entwickler als Kunden: In der Eigendarstellung des neuen Modells rücken vor allem Coding-Benchmarks, Reasoning und agentische Aufgaben in den Vordergrund. Auch OpenAI setzt verstärkt auf Entwickler als Zielgruppe und hat seine ChatGPT-Tarife rund um das Coding-Werkzeug Codex umgebaut. Das mögliche Einsparpotenzial gegenüber US-Modellen dürfte hier sicherlich einige interessieren.
Weiterlesen nach der Anzeige
DeepSeek-V4-Pro kostet 1,74 US-Dollar pro Million Input-Token und 3,48 US-Dollar pro Million Output-Token. Die Flash-Variante schlägt mit 0,14 US-Dollar pro Million Input-Token und 0,28 US-Dollar pro Million Output-Token. Das US-Wirtschaftsmedium Bloomberg berichtet, dass DeepSeek aktuell wegen Rechnerknappheit einen Kapazitätsengpass beim Pro-Modell hat. Im zweiten Halbjahr sollen neue Huawei-Ascend-950-Cluster den Mangel ausbessern. Dann könnten die Preise sinken.
(mki)
Entwicklung & Code
Ruby Central: Neustart nach Sponsorenverlust und Community-Krise
Ruby Central befindet sich seit Beginn dieses Jahres in einer finanziellen Schieflage und reagiert jetzt mit einer Reihe kostensparender und struktureller Maßnahmen. Von der geschäftsführenden Direktorin Shan Cureton hat sich die gemeinnützige Organisation der Ruby-Community genauso getrennt wie vom CFO, der PR-Agentur und mehreren externen Auftragnehmern. Die monetäre Misere begann bereits 2025 durch den Wegfall von Sidekiq, einem der wichtigsten Sponsoren.
Weiterlesen nach der Anzeige
In einem weiteren Sanierungsschritt plant Ruby Central, seinen Verwaltungsrat in ein ehrenamtliches Mitarbeitergremium umzustrukturieren. Damit berichten die Vorstandsmitglieder künftig nicht mehr an einen Geschäftsführer, sondern übernehmen nun gemeinsam mit Teams aus Freiwilligen und angestellten Mitarbeiterinnen und Mitarbeitern direkt Aufgaben und Verantwortlichkeiten.
Die RubyConf soll es auch zukünftig geben
Finanziell konsolidieren will sich Ruby Central auch durch das Neuverhandeln von Verträgen, ausgeweitete Fundraising-Aktivitäten sowie durch den Start der Initiativen Ruby Alliance und Project DREAM (Driving Ruby’s Evolution to AI Maturity). Künftig soll es zudem ein Ausbildungsprogramm geben, um eine neue Generation von Ruby-Mitwirkenden anzulernen. Gleichzeitig habe man dafür gestimmt, die RubyConf beizubehalten, deren Ausrichter Ruby Central ist und die im Juli dieses Jahres das nächste Mal stattfindet.
In der Ruby Alliance will Ruby Central Unternehmen versammeln, die RubyGems, das offizielle Paketsystem für Ruby, sowie das Ruby-Ökosystem durch finanzielle Unterstützung und Entwicklungszeit stärken sollen. Project DREAM zielt unter anderem darauf ab, KI-Tools und -Workflows leichter in Ruby-Anwendungen zu integrieren und Probleme zu identifizieren, die den Einsatz von Ruby in Entwicklungsumgebungen limitieren. Außerdem soll es dazu dienen, die Ruby-Unterstützung in APIs und SDKs auszuweiten.
Friedensangebot an die Ruby-Community
Mit seinem Maßnahmenpaket will Ruby Central auch verlorengegangenes Vertrauen der Ruby-Community zurückgewinnen. Zwischen beiden Parteien bestehen derzeit starke Misstöne. Nach dem Wegfall des Sponsors Sidekiq Anfang 2025 war Ruby Central finanziell praktisch abhängig von Shopify, einem weiteren großen Sponsor. Angeblich auf dessen Drängen übernahm Ruby Central im September 2025 die vollständige Kontrolle über RubyGems und das in Ruby integrierte Abhängigkeitsmanagement-Tool Bundler, beides bis dato von der Community gepflegte Open-Source-Projekte. Nach diesem Vorfall sprach die Community von einer „feindlichen Übernahme“.
Weiterlesen nach der Anzeige
Aktuell legt es Ruby Central nicht auf weitere Konflikte an. Man glaube an das Motto „MINASWAN“ („Matz is nice and so we are nice“), erklären die Vorstandsmitglieder von Ruby Central, Jey Flores und Ran Craycraft, in der offiziellen Mitteilung. Damit spielen sie auf den höflichen Ton des Ruby-Erfinders Yukihiro „Matz“ Matsumoto an und betonen, dass man kein Interesse an einem Dauerstreit habe. Gleichzeitig verstehen sie ihren Statusbericht als Einladung zum Mitmachen und rufen die Ruby-Community zur aktiven Teilnahme auf.
(mro)
Entwicklung & Code
QEMU 11.0.0: AWS Nitro Enclaves jetzt lokal testen
QEMU 11.0.0 ist da: Die neue Version erweitert vor allem die Cloud-Unterstützung, Confidential Computing und verschiedene Hardwarearchitekturen. Zu den wichtigsten Neuerungen zählen ein neuer „nitro“-Accelerator für AWS Nitro Enclaves, zusätzliche Sicherheitsfunktionen für verschlüsselte VMs sowie Verbesserungen am Grafik- und Storage-Stack. QEMU ist ein weit verbreiteter Open-Source-Hypervisor und Emulator. Er beherrscht sowohl vollständige Virtualisierung über KVM, WHPX oder HVF als auch reine CPU-Emulation per TCG.
Weiterlesen nach der Anzeige
Nitro Enclaves lokal ausführen
Ein Schwerpunkt von Version 11.0.0 ist der neue „nitro“-Accelerator. Damit laufen AWS Nitro Enclaves erstmals nativ in QEMU. Diese Enclaves sind stark isolierte Laufzeitumgebungen innerhalb von EC2-Instanzen. Sie haben weder Netzwerkzugriff noch persistenten Speicher und eignen sich für sicherheitskritische Workloads wie Schlüsselverwaltung oder die Verarbeitung sensibler Daten. Entwickler können solche Szenarien in QEMU nun lokal testen, ohne auf AWS-Infrastruktur zurückgreifen zu müssen.
Mehr Schutz für vertrauliche VMs
Im Bereich Confidential Computing baut QEMU die Unterstützung hardwarebasierter Sicherheitsmechanismen aus. Neu ist die Virtualisierung von Intels Control-flow Enforcement Technology (CET), die ROP-, JOP- und COP-Angriffe erschwert. Außerdem kann KVM SEV-SNP- und TDX-VMs nun zurücksetzen. Dafür initialisiert QEMU einen neuen, verschlüsselten Gastkontext. SEV-SNP und TDX schirmen virtuelle Maschinen gegen den Host ab und verschlüsseln deren Speicher.
Auch bei den Hypervisor-Backends gibt es Fortschritte. QEMU verbessert die Unterstützung der Beschleuniger MSHV und WHPX. Auf macOS beschleunigt HVF nun ARM-Workloads mit der Scalable Matrix Extension 2 (SME2), sofern die Host-CPU diese unterstützt.
Grafik und Storage
Weiterlesen nach der Anzeige
Im Grafikstack erweitert QEMU virtio-gpu um den Modus „DRM native context“ für ausgewählte Linux-Grafiktreiber. Zudem lassen sich pro virtuellem Display unterschiedliche Auflösungen festlegen. Das erleichtert Multi-Monitor-Setups in VMs und verbessert die Anbindung moderner Grafik-APIs.
Im Block-Layer unterstützt der NFS-Treiber jetzt libnfs v6, außerdem haben die Entwickler die curl- und FUSE-basierten Blocktreiber überarbeitet. Das ist vor allem für Netzwerk-Storage und Host-seitige Image-Werkzeuge relevant: QEMU verbessert die Anbindung von Images auf NFS-Servern sowie über HTTP(S)/FTP erreichbaren Quellen. Per FUSE lassen sich Images zudem als Raw-Image für Host-Tools bereitstellen.
Der Tiny Code Generator (TCG), QEMUs Backend für reine Software-Emulation, unterstützt nun C++-Plugins direkt im Quellbaum. Das vereinfacht die Entwicklung von Analyse- und Instrumentierungswerkzeugen, etwa für Tracing oder Performance-Profiling.
Erweiterte Architekturunterstützung
Darüber hinaus erweitert QEMU 11.0.0 die Unterstützung zahlreicher Prozessorarchitekturen. Auf ARM kommen die CPU-Features FEAT_ASID2 und FEAT_E2H0 hinzu, außerdem emuliert TCG nun die Scalable Matrix Extension (SME). Für x86 unterstützt QEMU nun Intels kommende Diamond-Rapids-Prozessoren. RISC-V erhält mehrere neue ISA-Erweiterungen sowie eine verbesserte Darstellung der Control and Status Register. Auch LoongArch, HPPA, s390 und PowerPC erhalten neue Funktionen wie erweiterte ISA-Emulation, Snapshot-Support und zusätzliche Boot-Optionen.
Alle Informationen zu QEMU 11 finden sich in den Release Notes auf der Webseite des Projekts.
Lesen Sie auch
(fo)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 1 MonatCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 2 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Social Mediavor 1 MonatVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
