Entwicklung & Code
Ghostty 1.3.0: Terminal-Emulator mit Scrollback-Suche
Der Terminal-Emulator Ghostty ist in Version 1.3.0 erschienen und bringt unter anderem eine Scrollback-Suche, native Scrollbars sowie die Option, den Cursor durch Klick in Shell-Prompts zu positionieren. Außerdem haben die Entwickler eine wichtige Sicherheitslücke geschlossen.
Weiterlesen nach der Anzeige
Ghostty ist ein moderner Terminal-Emulator für macOS und Linux, der auf GPU-Rendering setzt und in der Programmiersprache Zig geschrieben wurde. Entwickelt wird er vom HashiCorp-Gründer Mitchell Hashimoto. In die neue Version sind sechs Monate Arbeit geflossen, 180 Entwickler haben über 2.858 Commits beigetragen. Die Release Notes umfassen hunderte Verbesserungen, Bugfixes und Performance-Optimierungen auf allen unterstützten Plattformen.
Scrollback-Suche mit dediziertem Thread
Die neue Scrollback-Suche gehört zu den am häufigsten gewünschten Features. Sie lässt sich unter macOS mit Cmd+F, unter Linux mit Strg+Umschalt+F aufrufen. Die Implementierung hebt gefundene Treffer hervor und erlaubt die Navigation mit Pfeiltasten oder Cmd+G. Auf macOS lässt sich die Suchleiste zu einer der vier Ecken ziehen, falls sie wichtige Inhalte verdeckt. Die Suche integriert sich zudem in macOS-Komponenten wie der Menüleiste, den systemweiten Shortcuts für „Weitersuchen/Zurücksuchen“ und der System-Zwischenablage für Suchbegriffe. Technisch arbeitet die Suche mit einem dedizierten Thread, der nur kleine Lock-Zeit-Slices benötigt und sich bei Nichtnutzung selbst terminiert, um I/O und Rendering minimal zu beeinträchtigen.
Ebenfalls neu sind native Scrollbars im Overlay-Style, die sich systemkonform in macOS und GTK einfügen. Per Konfigurationsoption scrollbar lässt sich das Verhalten anpassen, standardmäßig übernimmt Ghostty die Systemeinstellung.
Klickbare Prompts und Command-Finished-Benachrichtigungen
Eine weitere Neuerung ist, dass man den Cursor per Klick in Shell-Prompts positionieren kann – wie in einem regulären Textfeld. Das Feature unterstützt hierzu die OSC-133-Extensions click-events und cl=line. Native Unterstützung bieten Fish ab Version 4 und Nushell ab 0.111, für andere Shells hängt der Support von Ghosttys eingebundener Shell-Integration ab. Die Entwickler haben ihre OSC-133-Implementierung überarbeitet und setzen nun auf eine region-basierte Erkennung, die genauer arbeitet als die row-basierte Variante mancher Konkurrenten. Ein Debug-Overlay für OSC-133-Bereiche hilft beim Troubleshooting.
Weiterlesen nach der Anzeige
Neu sind auch Benachrichtigungen über abgeschlossene Befehle. Nutzer können über drei Konfigurationsoptionen festlegen, wann und wie Ghostty Meldungen anzeigen soll: nie, nur bei nicht fokussiertem Fenster oder immer. Die Aktion lässt sich auf einen Klingelton (bell) oder eine Systembenachrichtigung einstellen, standardmäßig werden nur Befehle gemeldet, die länger als 5 Sekunden dauern. Auch dieses Feature benötigt OSC 133 oder die Shell-Integration.
Performance-Optimierungen und Sicherheitsfix
Die Entwickler haben die I/O-Performance deutlich verbessert. Tests mit 4 GByte großen asciinema-Dateien zeigen, dass die Replay-Zeit von mehreren Minuten auf wenige Sekunden gesunken ist. Die Renderer-Lock-Zeit konnte um den Faktor zwei bis fünf reduziert werden, oft arbeitet das System dank Dirty-Tracking völlig lock-frei. Das führt zu glatterem Scrolling und weniger Jitter bei starker Ausgabe.
Ein kritisches Speicherleck wurde behoben, das durch bestimmte KI-Tools wie Claude Code ausgelöst wurde. Bei intensiver Nutzung konnte der Speicherverbrauch nach zehn Tagen auf bis zu 37 GByte anwachsen. Der Fehler existierte seit Version 1.0 und betraf die Recycling-Logik für non-standard Scrollback-Pages. Die Stabilität bei intensiver Nutzung mit Logs oder Build-Ausgaben ist nun deutlich höher.
Mit CVE-2026-26982 wurde eine Sicherheitslücke geschlossen, bei der Control-Characters wie 0x03 (Ctrl+C) in eingefügten Texten oder per Drag-&-Drop übertragenen Inhalten zur Ausführung beliebiger Befehle in manchen Shells führen konnten. Der Angriff erfordert zwar User-Interaktion, aber solche Paste-Exploits sind in Terminal-Emulatoren nicht ungewöhnlich. Ghostty ersetzt nun unsichere Control-Characters beim Einfügen durch Leerzeichen, analog zu xterm.
Non-Profit-Projekt und neue Systemanforderungen
Ghostty ist nun offiziell ein Non-Profit-Projekt unter der Schirmherrschaft von Hack Club, einer 501(c)(3)-Organisation. Fast alle Spenden fließen direkt an Contributors, fünf davon haben bereits Verträge für insgesamt rund 300 Stunden Entwicklungsarbeit unterzeichnet. Die Umwandlung soll das Projekt langfristig vor Kommerzialisierung und Verkauf schützen.
Die Systemanforderungen haben sich geändert: Version 1.3.0 ist die letzte, die macOS 13 Ventura unterstützt. Ab Version 1.4 ist macOS 14 erforderlich, da Apple den Support für Ventura im Herbst 2025 eingestellt hat. Unter Linux benötigt Ghostty GTK 4.14 und libadwaita 1.5. Ältere Distributionen wie Debian Bookworm müssen auf Snaps oder Flatpaks ausweichen oder bei einer älteren Ghostty-Version bleiben.
Weitere Neuerungen umfassen erweiterte Keybind-Funktionen wie Key Tables und verkettete Keybinds, Unterstützung für das Kitty Keyboard Protocol sowie Unicode-17-Konformität. Unter macOS gibt es experimentelle AppleScript-Unterstützung zur Automatisierung sowie unaufdringliche Update-Mechanismen. Die eigenständige Bibliothek libghostty erlaubt es, den Terminal-Emulator in Drittanwendungen wie Neovim, Multiplexer oder PaaS-Lösungen zu integrieren.
Mehr Details zu Ghostty 1.3.0 finden sich in den Release Notes. Einen ausführlichen Test des Terminal-Emulators hat heise online im Februar 2025 veröffentlicht.
(fo)
Entwicklung & Code
Meta kauft zig Millionen AWS Graviton Cores für Agentic AI
Amazon Web Services und Meta haben eine Vereinbarung bekannt gegeben, nach der Meta mehrere zehn Millionen Graviton5-Cores von AWS verwenden wird. Mit dem Deal wird Meta zu einem der größten Graviton-Kunden, und die Vereinbarung sieht eine Erweiterung um weitere Graviton-Kerne vor, wenn Metas Bedarf wächst.
Weiterlesen nach der Anzeige
Cloud-CPU für Agentic AI
Meta will die zusätzliche Rechenleistung vor allem für den Bereich Agentic AI nutzen. Für das Training von KI-Modellen sind GPUs besser geeignet als CPUs. Im Bereich Agentic AI müssen autonome Agenten jedoch komplexe Aufgaben planen und ausführen, wofür sich CPUs besser eignen.
Amazon hatte die Graviton5-Chips im Dezember 2025 auf der re:Invent 2025 vorgestellt.

Meta wird zahlreiche Graviton-Chips nutzen.
(Bild: Amazon)
Amazon bezeichnet die Graviton-CPU als Cloudprozessor, der speziell für energieeffiziente Cloudanwendungen konzipiert ist. Graviton setzt wie die Axion-Chips von Google und die Cobalt-Chips von Microsoft auf eine ARM-Architektur. Im März 2026 hat ARM erstmals einen eigenen Prozessor vorgestellt: Die AGI CPU, deren Name an die Artificial General Intelligence angelehnt ist, hat ARM zusammen mit Meta und TSMC entwickelt.
Die Graviton5-Chips haben 192 Kerne und einen deutlich größeren L3-Cache als das Vorgängermodell. Weitere Details lassen sich den offiziellen Ankündigungen von Meta und von Amazon entnehmen.
Weiterlesen nach der Anzeige
(rme)
Entwicklung & Code
DeepSeek v4: Günstige KI-Alternative fordert OpenAI und Anthropic heraus
Vor einem Jahr sorgte das chinesische KI-Start-up DeepSeek für einen Schock in der KI-Branche: Das KI-Modell DeepSeek-R1 zeigte vergleichbare Leistungen wie US-Topmodelle zum deutlich günstigeren Preis und sorgte für ein Börsenbeben. Wie später bekannt wurde, hatte das Training von DeepSeek-R1 weniger als 300.000 US-Dollar gekostet. Jetzt ist mit DeepSeek v4 eine neue Generation als Vorschau erschienen. Das neue Spitzenmodell ist weiterhin kostenlos als Open Source verfügbar und liegt in einer Pro- und einer Flash-Variante vor.
Weiterlesen nach der Anzeige
Der große Schock könnte dieses Mal ausbleiben. Zwar setzt sich DeepSeek erneut an die Open-Source-Spitze, doch Experten verorten das Leistungsvermögen zeitlich etwa drei bis sechs Monate hinter den absoluten Topmodellen am Markt und nicht auf Augenhöhe. Dafür bleibt aber immerhin der große Preisvorteil erhalten. Das Pro-Modell ist zwar deutlich teurer bei den API-Aufrufen als DeepSeek v3.2. Es liegt aber immer noch weit unter den Preisen, die OpenAI und Anthropic aufrufen. So kostet etwa GPT-5.5 von OpenAI laut Benchmark-Angaben des Unternehmens das Doppelte für vergleichbare Coding-Aufgaben. Aus dem Konkurrenz-Sprint könnte jetzt ein Marathon werden. Wie sich die chinesische Open-Source-KI nach dem DeepSeek-Schock insgesamt entwickelt, zeigt ein Überblick zur chinesischen Open-Source-KI.
Stärken beim Coding, Schwächen beim Wissen
Unter der Haube hat sich eine Menge getan: V4 ist ein echter Generationswechsel mit komplett neuer Architektur, achtfach längerem Kontextfenster und einem laut den von DeepSeek vorgelegten Unterlagen spürbar besserem Coding- und Mathe-Niveau.
V3.2 hatte 685 Milliarden Parameter; V4-Pro kommt auf 1,6 Billionen – mehr als doppelt so viele. Das neue Modell kann bis zu einer Million Token Kontext verarbeiten – also sehr lange Dokumente, Codebases oder Gespräche – und benötigt dafür nur einen Bruchteil der Rechenleistung früherer DeepSeek-Modelle. Zum Vergleich: V3.2 unterstützte maximal 128.000 Token Kontext. Der Vorgänger führte als wichtigste Neuerung „DeepSeek Sparse Attention“ (DSA) ein – eine effizientere Aufmerksamkeitsarchitektur für lange Texte. V4 baut darauf auf und kombiniert gleich zwei neue Mechanismen.
API-Preise könnten sinken
Schwächen gibt es offenbar beim Allgemeinwissen – hier sollen andere Spitzenmodelle deutlich besser sein. Die Reasoning-Fähigkeiten des Modells können jetzt in drei statt bislang zwei Stufen gesteuert werden: Non-Think, Think High und Think Max statt vorher nur Thinking und Non-Thinking. DeepSeek spekuliert offenbar vor allem auf Entwickler als Kunden: In der Eigendarstellung des neuen Modells rücken vor allem Coding-Benchmarks, Reasoning und agentische Aufgaben in den Vordergrund. Auch OpenAI setzt verstärkt auf Entwickler als Zielgruppe und hat seine ChatGPT-Tarife rund um das Coding-Werkzeug Codex umgebaut. Das mögliche Einsparpotenzial gegenüber US-Modellen dürfte hier sicherlich einige interessieren.
Weiterlesen nach der Anzeige
DeepSeek-V4-Pro kostet 1,74 US-Dollar pro Million Input-Token und 3,48 US-Dollar pro Million Output-Token. Die Flash-Variante schlägt mit 0,14 US-Dollar pro Million Input-Token und 0,28 US-Dollar pro Million Output-Token. Das US-Wirtschaftsmedium Bloomberg berichtet, dass DeepSeek aktuell wegen Rechnerknappheit einen Kapazitätsengpass beim Pro-Modell hat. Im zweiten Halbjahr sollen neue Huawei-Ascend-950-Cluster den Mangel ausbessern. Dann könnten die Preise sinken.
(mki)
Entwicklung & Code
Markdown auf Steroiden: Quarkdown 2.0 ist da
Der Markdown-Dialekt Quarkdown ist in Version 2.0.0 erschienen. Im Mittelpunkt des Updates stehen ein neues Berechtigungssystem, das den Zugriff eines Dokuments während der Kompilierung einschränkt, und eine HTML-Ausgabe, die vollständig offline funktioniert. Hinzu kommen paralleles Rendering, neue HTML-Optionen für Canonical Links und eine sitemap.xml sowie ein public/-Verzeichnis für statische Assets. Mehrere Breaking Changes betreffen außerdem das Standard-Ausgabeverzeichnis, den Namen des Ausgabeverzeichnisses bei --preview und ein umbenanntes Modul der Standardbibliothek.
Weiterlesen nach der Anzeige
Quarkdown erweitert die Auszeichnungssprache um eine Turing-vollständige Funktionssprache. Anders als klassisches Markdown erlaubt das Open-Source-Projekt damit Variablen, Funktionen und Kontrollstrukturen direkt im Dokument. Es zielt auf HTML- und PDF-Ausgaben für Bücher, Fachtexte, Wissenssammlungen und Präsentationen. Wer Markdown kennt, kann sich Quarkdown am ehesten als Markdown mit eingebauter Skript- und Layoutschicht vorstellen.
Berechtigungssystem als Sandbox
Die wichtigste Neuerung ist das Berechtigungssystem. Es legt fest, worauf ein Dokument während der Kompilierung zugreifen darf. Versucht der Compiler eine Aktion ohne passende Berechtigung, bricht er mit einem Fehler ab. Freigaben und Verbote setzen Nutzer über --allow und --deny; vorgesehen sind unter anderem project-read, global-read, network, native-content und all. Das Feature wirkt vor allem als Sandbox: Weil Quarkdown-Dokumente dank ihrer Funktionssprache deutlich mehr können als reines Markdown, lässt sich die Ausführung fremder Dokumente damit besser absichern.
Ebenfalls zentral ist die überarbeitete HTML-Ausgabe. Quarkdown liefert Schriften, Code-Highlighting-Themes und optionale Bibliotheken jetzt mit der Installation aus und kopiert sie in die generierten Dokumente, statt sie von CDNs oder Google Fonts nachzuladen. Damit funktioniert die Ausgabe vollständig offline. Laut Release Notes sorgt das zugleich für vorhersagbareres Rendering und schnellere Seitenaufrufe. Lediglich chinesische Schriften bei .doclang {zh} sowie explizit gewählte Google Fonts bleiben remote. Der Preis sind größere Ausgabeverzeichnisse und ein etwas langsamerer Erstlauf; Folgekompilierungen bremsen Prüfsummen-Checks dem Projekt zufolge nicht aus.
Für HTML-Projekte führt Quarkdown außerdem die neue Funktion .htmloptions ein. Mit gesetztem baseurl erzeugt sie Canonical Links im jeder Seite und schreibt eine sitemap.xml mit absoluten URLs für Haupt- und Unterdokumente. Damit rückt Quarkdown näher an typische Static-Site-Generatoren heran, ohne dass Nutzer solche SEO-Metadaten nachträglich ergänzen müssen.
Statische Assets und neue Funktionen
Praktisch für Web-Ausgaben ist auch das neue Verzeichnis public/ im Projektwurzelverzeichnis. Dessen Inhalt – etwa robots.txt, CNAME oder andere statische Dateien – landet unverändert im Wurzelverzeichnis der Ausgabe. Ergänzend versteht Quarkdown beim HTML-Export jetzt das Wurzelpfadsymbol @: Ein Verweis wie @/assets/logo.png zeigt auf die Ausgabewurzel und eignet sich damit für Assets, die mehrere Unterdokumente gemeinsam nutzen. Das Konzept erinnert an die public/-Ordner gängiger Web-Frameworks.
Weiterlesen nach der Anzeige
Neu ist zudem die Primitivfunktion .image, die Bilder feiner konfigurierbar macht, einschließlich eines Opt-outs aus dem Media Storage über mediastorage:{no}. Querverweise per .ref rendert Quarkdown jetzt für alle referenzierbaren Typen als Links – also nicht nur für Überschriften, sondern auch für Abbildungen, Tabellen, Code-Blöcke, Gleichungen und benutzerdefinierte nummerierte Blöcke. In längeren technischen Dokumenten wird die Navigation dadurch deutlich konsistenter.
Zu den kleineren, aber nützlichen Komfortfunktionen zählen mehrzeilige Funktionsaufrufe per Backslash am Zeilenende und die neue Funktion .keybinding für Tastenkürzel. Letztere stellt Shortcuts als stilisierte Tastenbeschriftungen dar und berücksichtigt Plattformunterschiede, etwa mit ⌘ statt Ctrl auf macOS. Das ist praktisch für Bereiche wie Dokumentation, Wissenssammlungen und UI-nahe Inhalte.
Mehr Tempo und Bugfixes
Unter der Haube rendert Quarkdown 2.0 Geschwisterelemente jetzt parallel, was große Dokumente beschleunigen soll. Überarbeitet hat das Projekt auch die Ein- und Ausgabe des Media Storage: Dateien kopiert Quarkdown nun per Referenz statt per Inhalt, ergänzt um Prüfsummen, die unnötige Kopien vermeiden.
Bestehende Setups müssen sich auf einige Inkompatibilitäten einstellen. Das Standard-Ausgabeverzeichnis heißt jetzt ./quarkdown-output statt ./output. Bei --preview ohne --out-name vergibt Quarkdown künftig statische Namen nach dem Muster preview-, statt sich an .docname zu orientieren. Hinzu kommt eine Umbenennung in der Standardbibliothek: Das bisherige Modul Injection heißt nun Html; bestehende Verweise auf die Dokumentation des Moduls und seiner Funktionen müssen daher angepasst werden.
Lizenz und Installation
Alle Informationen zu Quarkdown 2.0.0 finden sich in den Release Notes auf GitHub. Das Projekt ist Open Source: Quarkdown und seine Module stehen standardmäßig unter GNU GPLv3; für die Module und Binärpakete von quarkdown-cli und quarkdown-lsp gilt die GNU AGPLv3. Installieren lässt sich die Software per Installationsskript unter Linux, macOS und Windows sowie über Homebrew oder Scoop; alternativ verweist das Projekt auf ein quarkdown.zip aus dem aktuellen Stable-Release oder einen Build via gradlew installDist.
Lesen Sie auch
(fo)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 2 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Social Mediavor 1 MonatVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
