Entwicklung & Code
npm als Sicherheitsrisiko: Warum Angriffe zunehmen und wie man vorbeugen kann
Wer mit npm arbeitet, kennt das Risiko: Beim Installieren einer neuen Bibliothek oder beim Aktualisieren bestehender Pakete wird Code aus fremden Quellen in die eigene Umgebung übernommen. Dieser Code ist weder geprüft noch stammt er notwendigerweise von der Person, die offiziell als Maintainer geführt wird. Angreiferinnen und Angreifer kapern Accounts, schleusen Schadsoftware ein und gefährden dadurch Projekte und Infrastruktur. Die jüngste Malware „Shai-Hulud“ hat dies erneut in großem Stil demonstriert.

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.
Die Schadsoftware verbreitete sich selbstständig über npm-Pakete. Hunderte Module waren betroffen, darunter zahlreiche mit zehntausenden bis hunderttausenden Downloads. Die Malware griff Daten ab, manipulierte GitHub-Workflows und infizierte auf diesem Weg weitere Pakete. Wer diese Pakete installierte, konnte unbemerkt Zugangsdaten verlieren, darunter Token für private Repositories. Im schlimmsten Fall erlangten Unbefugte so Kontrolle über Quellcode und Build-Pipelines.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.
Risikofaktor npm // deutsch
Diese Vorfälle reihen sich ein in eine Serie von Supply-Chain-Angriffen im JavaScript-Ökosystem. 2018 wurde etwa das Paket event-stream kompromittiert, nachdem der ursprüngliche Maintainer es an eine fremde Person übergeben hatte. 2021 war ua-parser-js betroffen und schleuste Krypto-Miner ein. Das Muster ist stets ähnlich: Ein populäres Paket mit vielen Downloads wird übernommen, eine neue Version mit Schadcode erscheint und fließt sofort in unzählige Projekte.
Warum gerade JavaScript?
Warum gerade das JavaScript-Ökosystem so anfällig ist, wird bei näherer Betrachtung deutlich. JavaScript verfügt über keine besonders umfangreiche Standardbibliothek. Daraus hat sich in den vergangenen 20 Jahren eine Kultur entwickelt, selbst kleinste Funktionen als eigenständige Pakete zu veröffentlichen: für das Trimmen von Strings, das Formatieren von Datumswerten oder das tiefe Klonen von Objekten. Aus wenigen Zeilen Code entstehen so Module mit Millionen Downloads. Selbst wer nur einige Dutzend direkte Abhängigkeiten pflegt, zieht in der Regel Hunderte oder Tausende transitive Pakete mit.
(Bild: Alexander Supertramp/Shutterstock.com)

Neun von zehn Webanwendungen haben Sicherheitslücken – höchste Zeit für Web Developer, zu handeln. Auf dem ersten enterJS Web Security Day am 9. Oktober 2025 geht es um automatisierte Sicherheitsprüfungen, den Einsatz von Passkeys und den Schutz vor KI-basierten Angriffen.
Hinzu kommt die äußerst niedrige Einstiegshürde beim Veröffentlichen von Paketen. Eine Überprüfung des Quellcodes, Code-Signing oder eine Identitätsprüfung sind bislang nicht verpflichtend. Ein einfaches npm publish genügt. Das hat die Community über Jahre hinweg enorm beflügelt und Innovationen ermöglicht, öffnet jedoch zugleich Tür und Tor für Angriffe. Jeder kann Pakete bereitstellen, und solange kein Verdacht aufkommt, bleiben sie verfügbar.
Besonders kritisch ist, dass npm beim Installieren sofort Skripte ausführt, die theoretisch nahezu unbegrenzte Möglichkeiten haben: Dateien lesen, Daten abgreifen, Systemkommandos ausführen. Da es keine Sandbox gibt, geschieht dies direkt in der Build-Umgebung, oft mit denselben Berechtigungen wie die CI/CD-Pipeline. Wer mit Node.js arbeitet, moderne Frontends mit React oder Vue entwickelt oder Build-Tools wie Webpack, Vite oder ESLint verwendet, ist praktisch immer Teil dieses Systems. Sich dem komplett zu entziehen, ist kaum möglich.
npm, GitHub und Microsoft haben das Problem ignoriert
Über viele Jahre war bekannt, dass diese Strukturen ein erhebliches Sicherheitsrisiko darstellen, dennoch blieb der Handlungsdruck gering. GitHub, das npm vor Jahren übernommen hat, und Microsoft als Mutterkonzern haben lange Zeit nur minimale Schutzmechanismen etabliert. Zwar existiert mit npm audit eine Funktion, die bekannte Schwachstellen meldet. Doch diese beschränkt sich im Wesentlichen auf eine Abfrage gegen bekannte Sicherheitsdatenbanken (CVEs). Neue, noch nicht erfasste Schadsoftware bleibt unerkannt. Warnungen beim Installieren gibt es, sie lassen sich jedoch leicht übersehen.
Verpflichtende Sicherheitsmechanismen fehlten lange: keine Zwei-Faktor-Authentifizierung für Paketveröffentlichende, keine konsequente Prüfung der Herkunft von Releases, keine automatische Quarantäne für verdächtige Pakete. Das machte npm über Jahre hinweg zu einem idealen Spielfeld für Supply-Chain-Angriffe. Viele Organisationen verließen sich darauf, dass jemand in der Community schon rechtzeitig Alarm schlagen würde. Häufig geschah das tatsächlich, jedoch oft zu spät.
GitHub als Eigentümer hätte deutlich früher reagieren können – spätestens nach den ersten großen Vorfällen. Anstatt grundlegende Sicherheitsmechanismen einzuführen, beließ man es lange bei punktuellen Warnungen und dem Hinweis auf npm audit. Erst nach dem Shai-Hulud-Wurm scheint nun Bewegung in das Thema zu kommen. Erstmals werden verpflichtende Maßnahmen angekündigt: Künftig müssen alle, die Pakete veröffentlichen, Zwei-Faktor-Authentifizierung aktivieren. Token werden zeitlich befristet und fein granular, alte unbefristete Zugänge verschwinden. Damit soll es Angreiferinnen und Angreifern erschwert werden, einmal gestohlene Zugangsdaten langfristig auszunutzen.
Trusted Publishing und andere Ansätze
Parallel treibt GitHub „Trusted Publishing“ voran. Damit sollen Releases kryptografisch signiert und aus einer sauberen Continuous-Integration-Pipeline stammen. Ziel ist es, die Herkunft von Veröffentlichungen nachweisbar zu machen und Manipulationen zu verhindern. Diese Richtung ist grundsätzlich sinnvoll, kommt jedoch spät. In anderen Bereichen, etwa App-Stores oder Linux-Distributionen, sind signierte Pakete und Build-Prüfungen seit Jahren Standard. npm hat diese Entwicklung lange verschlafen und muss nun aufholen.
Neben GitHub versuchen auch andere Werkzeuge, die Situation zu verbessern. Ein Beispiel ist pnpm, das mit Version 10.16 die Option minimumReleaseAge eingeführt hat. Damit lässt sich festlegen, dass neue Pakete oder Updates nicht sofort installiert werden, sondern erst, nachdem sie eine bestimmte Zeit verfügbar waren. So können Entwicklerinnen und Entwickler beispielsweise angeben, dass eine Version mindestens 24 Stunden alt sein muss, bevor sie in Projekten genutzt wird. Die Idee dahinter: Wenn Schadcode eingeschleust wird, soll die Community Zeit gewinnen, diesen zu entdecken und zu melden, bevor er sich weiterverbreitet.
Auf den ersten Blick wirkt dieser Ansatz pragmatisch. Er reduziert das Risiko, dass frisch kompromittierte Versionen sofort in Builds gelangen. Allerdings hat er auch klare Grenzen. Das Modell verlagert die Verantwortung vollständig auf die Nutzerinnen und Nutzer von Paketen. Es löst nicht das grundlegende Problem, dass prinzipiell jede Person beliebig Pakete veröffentlichen kann. Wer Updates verzögert, erhält zwar eine zusätzliche Beobachtungsphase, sitzt aber zugleich länger auf möglicherweise verwundbaren Versionen. Gerade bei Sicherheitsupdates ist das problematisch: Eigentlich möchte man diese so schnell wie möglich einspielen.
Wer übernimmt die Verantwortung?
Auch die neuen Sicherheitsmaßnahmen von GitHub und Funktionen wie minimumReleaseAge bei pnpm sind damit eher Pflaster auf einer offenen Wunde. Sie zeigen zwar, dass endlich reagiert wird, doch die strukturellen Risiken bleiben. Das Fundament – ein offenes, schwer kontrollierbares Registry-System mit Millionen von Modulen – verändert sich nicht. Wer sich allein auf diese Änderungen verlässt, wird langfristig enttäuscht werden.
Damit bleibt die Verantwortung bei denjenigen, die npm aktiv nutzen. Organisationen und Einzelpersonen müssen selbst Schritte unternehmen, um Projekte abzusichern. Zahlreiche Risiken lassen sich mit vergleichsweise überschaubarem Aufwand verringern, wenn bewusst auf Abhängigkeiten geachtet, die Build-Pipeline gehärtet und laufend kontrolliert wird, welche Pakete tatsächlich ins System gelangen.
Abhängigkeiten reduzieren, Versionen pinnen & Co.
Der erste, einfache, aber wirkungsvolle Schritt besteht darin, Abhängigkeiten zu reduzieren. Prüfen Sie regelmäßig, welche Pakete wirklich notwendig sind. Jedes zusätzliche Modul ist ein potenzielles Einfallstor. Gerade im JavaScript-Umfeld besteht die Gewohnheit, selbst für triviale Aufgaben externe Pakete einzubinden. Häufig reicht es aus, kleine Hilfsfunktionen selbst zu schreiben oder native Funktionen der Sprache zu verwenden. Ein flacher Abhängigkeitsbaum senkt die Angriffsfläche erheblich.
Ebenso wichtig ist es, Versionen gezielt zu steuern. Anstatt flexible Versionsbereiche zu definieren, sollten exakte Versionsnummern eingesetzt werden. Lockfiles gehören ins Repository und sollten Teil des Build-Prozesses sein. CI/CD-Pipelines sollten nur freigegebene Versionen installieren, beispielsweise durch den Einsatz von npm ci oder pnpm install --frozen-lockfile. So wird verhindert, dass unbemerkt neue, potenziell kompromittierte Versionen eingebunden werden.
Auch beim Umgang mit Skripten ist Vorsicht geboten. Viele Angriffe verstecken sich in Pre- oder Post-Install-Hooks. Falls diese nicht benötigt werden, empfiehlt es sich, ihre Ausführung global zu deaktivieren, zum Beispiel über npm install --ignore-scripts. Wenn Skripte unvermeidbar sind, sollten sie gezielt geprüft und ihre Herkunft hinterfragt werden.
Vertrauen schaffen
Ein weiterer wichtiger Bereich betrifft Vertrauen und Kontrolle. Aktivieren Sie konsequent Zwei-Faktor-Authentifizierung für alle Accounts, die Pakete veröffentlichen oder Token erzeugen. Verwenden Sie moderne Token-Formate, die zeitlich befristet und minimal berechtigt sind. Bewahren Sie geheime Zugangsdaten strikt getrennt vom Quellcode auf. Konfigurationsdateien mit Klartext-Passwörtern dürfen nicht ins Repository gelangen, Token gehören weder in Logs noch in ungeschützte Umgebungsvariablen. Fremder Code könnte ansonsten auf diese Informationen zugreifen.
Wer selbst Pakete veröffentlicht, sollte sich mit dem bereits erwähnten Konzept des Trusted Publishing vertraut machen. Dadurch lassen sich Releases kryptografisch signieren und ihre Herkunft aus einer definierten CI/CD-Pipeline nachweisen. Das erschwert es Angreiferinnen und Angreifern erheblich, sich in den Veröffentlichungsprozess einzuklinken, und stärkt gleichzeitig das Vertrauen der Nutzenden in die Integrität des Pakets.
Vor der Installation neuer Pakete ist eine manuelle Überprüfung empfehlenswert. Ein kurzer Blick in das zugehörige Repository hilft, die Vertrauenswürdigkeit einzuschätzen:
- Gibt es aktuelle Commits?
- Reagieren Maintainer auf Meldungen?
- Sind plötzliche Eigentümerwechsel oder verdächtige Änderungen erkennbar?
Solche Prüfungen dauern nur wenige Minuten, können aber langfristig große Sicherheitsprobleme vermeiden.
Monitoring und Auditing
Darüber hinaus ist laufendes Monitoring zentral. npm audit bietet eine schnelle Grundprüfung bekannter Schwachstellen. Tools wie Dependabot oder Renovate schlagen automatisch Sicherheitsupdates vor. Dienste wie Socket oder Snyk gehen sogar noch einen Schritt weiter, indem sie nicht nur bekannte Lücken erkennen, sondern auch auffällige Veränderungen beobachten – etwa neu eingeführte Installationsskripte. Entscheidend ist, Warnungen ernst zu nehmen und regelmäßig Zeit für deren Bearbeitung einzuplanen. Wer besonders vorsichtig agieren möchte, kann neue Versionen zunächst in einer internen Testumgebung beobachten, bevor sie produktiv genutzt werden. So bleibt Flexibilität erhalten, um sicherheitskritische Updates trotzdem sofort einzuspielen.
Ein unterschätzter Faktor ist die Sicherheit von Build- und Deployment-Pipelines. Wenn es Angreiferinnen oder Angreifern gelingt, diese zu kompromittieren, werden alle folgenden Releases unsicher – unabhängig davon, wie sorgfältig einzelne Pakete geprüft wurden. Die Build-Umgebung sollte nur wohldefinierte Registries verwenden und strikt von der Deployment-Umgebung getrennt sein. So lässt sich verhindern, dass ein kompromittierter Build-Prozess direkt auch das Ausrollen von Schadcode ermöglicht.
Der Umgang mit Geheimnissen ist in CI/CD-Umgebungen besonders heikel. API-Keys, Token und Passwörter dürfen weder in Logs erscheinen noch ungeschützt in Variablen stehen, die von Drittpaketen eingesehen werden könnten. Prinzipien wie Least Privilege sind hier entscheidend: Token sollten ausschließlich die minimal notwendigen Rechte besitzen. Ein reines Lese-Token ist in vielen Szenarien ausreichend und reduziert die Angriffsfläche erheblich.
Hilfreich ist zudem, automatisiert Metadaten zu erzeugen. Am Ende eines Builds kann ein Dependency-Tree erstellt und archiviert werden. Dadurch lässt sich bei Sicherheitsvorfällen nachvollziehen, welche Paketversionen im Einsatz waren. Tools wie npm ls oder pnpm list unterstützen dabei. Der Aufwand ist gering, der Nutzen im Ernstfall sehr groß.
Sicherheit ist (auch) eine kulturelle Frage
Letztlich ist Sicherheit kein Einzelthema, sondern Teil der Teamkultur. Neue Abhängigkeiten sollten genauso sorgfältig geprüft werden wie eigener Code. Pull Requests, die neue Pakete einführen oder bestehende aktualisieren, verdienen besondere Aufmerksamkeit:
- Braucht das Projekt dieses Paket wirklich?
- Wird es aktiv gepflegt?
- Gibt es ungewöhnliche Veränderungen?
Verbindliche Richtlinien sind hier hilfreich. Dokumentieren Sie beispielsweise, welche Registries akzeptiert werden, wie Lockfiles zu verwenden sind, ob Parameter wie --ignore-scripts standardmäßig gesetzt werden und welche Prüfwerkzeuge in der Pipeline laufen müssen. So entstehen feste Standards, die Sicherheit im Alltag erleichtern.
Auch organisatorisch sollte Zeit und Budget für Sicherheitsaufgaben eingeplant werden. Viele Probleme entstehen nicht aus Gleichgültigkeit, sondern aus Termindruck. Regelmäßige Updates, Audits, Schulungen und Verbesserungen der Build-Prozesse brauchen feste Kapazitäten. Ebenso wichtig ist es, informiert zu bleiben: Sicherheitsvorfälle wie Shai-Hulud werden häufig zuerst in Entwickler-Communities oder auf Plattformen wie GitHub bekannt. Wer entsprechende Feeds oder Benachrichtigungen abonniert, kann schneller reagieren.
Was das konkret bedeutet
Die Sicherheit im JavaScript-Ökosystem bleibt somit leider eine Daueraufgabe. GitHub und pnpm haben erste sinnvolle Schritte unternommen, aber sie kommen spät und lösen die grundlegenden Probleme nicht. Das offene, kaum kontrollierbare Netzwerk aus Millionen Paketen macht npm weiterhin anfällig. Wirklich geschützt ist nur, wer selbst Verantwortung übernimmt: Abhängigkeiten reduzieren, Versionen exakt pinnen, Lockfiles einsetzen, Accounts absichern, Monitoring und Auditing etablieren, CI/CD härten und Sicherheit als festen Bestandteil der Entwicklungskultur verankern.
Wer diese Maßnahmen konsequent umsetzt, kann die Risiken deutlich verringern. Angriffe wie Shai-Hulud verschwinden dadurch nicht, treffen jedoch Projekte seltener und weniger hart. So lässt sich schneller reagieren und im besten Fall verhindern, dass Schadcode überhaupt produktiv eingesetzt wird.
(rme)
Entwicklung & Code
Sulu 3.0: CMS mit neuem Content-Speicher und klarerer Architektur
Sulu 3.0 ist erschienen. Mit dem Release vollzieht das quelloffene Content-Management-System (CMS) laut Blogbeitrag eine größere technische Umstrukturierung. Statt auf das bislang genutzte PHPCR‑Repository setzt das Projekt künftig vollständig auf Doctrine ORM und JSON‑Felder – eine Entscheidung, die nicht nur die Performance heben, sondern auch die Einstiegshürde für Symfony‑Entwickler senken soll. Nach Angaben des Teams kamen rund 150.000 Zeilen Code neu hinzu, mehr als 265.000 wurden entfernt.
Weiterlesen nach der Anzeige
Das Open-Source-CMS Sulu basiert auf dem PHP-Framework Symfony und dient als Headless‑ oder klassisches CMS für komplexe, mehrsprachige Webprojekte. Es richtet sich vor allem an Entwicklerinnen und Entwickler, die flexible Inhaltsmodelle mit vertrauten Symfony‑Werkzeugen umsetzen wollen. Für Symfony sind kürzlich die Versionen 7.4 und 8.0 erschienen.
Von PHPCR zu Doctrine ORM
Mit der Abkehr vom speicherintensiven PHPCR führt Sulu ein neues Modell zur Ablage von Inhalten ein: Seiten, Artikel oder Snippets werden jetzt als reguläre Doctrine‑Entitäten mit JSON‑Spalten verwaltet. Damit greifen Developer direkt auf bekannte Tools und SQL‑Abfragen zurück, statt eine eigene Query‑Sprache lernen zu müssen.
Das System nutzt sogenannte Dimensionen, um Sprach‑, Veröffentlichungs‑ und Versionszustände abzubilden. So lassen sich nicht übersetzbare Felder in mehreren Sprachvarianten weiterverwenden – ein Ansatz, der die vorherige, tiefer verschachtelte Struktur ersetzt und sich offenbar leichter debuggen lässt.
Bessere Performance und Vereinfachungen
Nach Angaben des Teams bringt der neue Speicheransatz spürbare Leistungsgewinne. Content‑Strukturen lassen sich nun direkt in der Datenbank nachvollziehen, während Konfigurationsdaten weiterhin als XML im Repository bleiben.
Weiterlesen nach der Anzeige
Auch das Update der PHP-Bibliothek Flysystem auf Version 3 soll zur Vereinfachung der Handhabung von Mediendateien beitragen. Diese können künftig über eine einheitliche Schnittstelle auf unterschiedlichen Backends abgelegt werden, beispielsweise auf Amazon S3, Microsoft Azure, WebDAV oder Dropbox.
Entfall der Elasticsearch‑Pflicht für Artikel
Neben der Speicherarchitektur wurde das Artikel‑Bundle neu geschrieben. Es lässt sich nun ohne die Suchmaschine und das Analytic-Tool Elasticsearch betreiben, wodurch kleineren Projekten die Installation eines separaten Suchdienstes erspart bleiben soll. Für große Installationen bleibt die Option durch ein ergänzendes Bundle erhalten, das Elasticsearch wieder einbindet.
Ebenfalls neu ist SEAL, der Search Engine Abstraction Layer. Er bündelt Anbindungen an Suchsysteme wie Loupe, Meilisearch, Solr oder Elasticsearch hinter einer gemeinsamen API. Standardmäßig kommt Loupe zum Einsatz – eine SQLite‑basierte, PHP‑interne Lösung, die für mittlere Datenmengen ausreichend schnell arbeitet.
Migration und Unterstützung
Sulu liefert ein eigenes Tool, um vorhandene PHPCR‑Daten zu konvertieren. Das Migration‑Bundle überführt Seiten, Artikel, Snippets und URLs in die neue Speicherstruktur und protokolliert detailliert, wo gegebenenfalls Nacharbeit nötig ist.
Wer die Umstellung nicht allein durchführen möchte, kann laut Entwicklerteam auf Community‑Hilfe via Slack und GitHub oder auf professionelle Unterstützung zurückgreifen. Weitere Informationen zur Hilfe sowie zum Release finden sich im Blogbeitrag.
Weiterer Fahrplan
Mit Version 3.0 endet die Pflege für Sulu 1.6, während Sulu 2.6 als LTS-Version (Long-term Support) erhalten bleibt. Die neue Architektur soll künftige Funktionen erleichtern und das CMS langfristig wartbarer machen. Näheres zum Release und zum CMS auch auf GitHub.
(mdo)
Entwicklung & Code
Drupal Canvas: Visueller Page Builder für Drupal veröffentlicht
Drupal hat mit Canvas einen visuellen Page Builder veröffentlicht, der die Erstellung individueller Websites ohne umfangreiche Programmierkenntnisse ermöglichen soll. Das Werkzeug richtet sich an Site-Builder und Content-Teams, die bisher zwischen vorgefertigten Templates und aufwendiger individueller Entwicklung wählen mussten.
Weiterlesen nach der Anzeige
Weniger komplizierte Technik für Anwender
Als Open-Source-CMS kommt Drupal zwar bei vielen Organisationen zum Einsatz, die Flexibilität des Systems erforderte jedoch bislang einiges an technischem Know-how. Wie Produktleiter Lauri Timmanee im Drupal-Blog erklärt, existiere in Drupal ein Trade-off: „Entweder man ist gezwungen, eine Art Cookie-Cutter-Website zu erstellen, oder man muss komplexen Code schreiben. Wir wollen diesen Trade-off aufbrechen, indem wir bessere Werkzeuge bereitstellen, damit man tatsächlich Websites erstellen kann, die auf die eigene Marke zugeschnitten sind, ohne komplexen Code kennen zu müssen.“
Drupal Canvas 1.0 basiert auf einem React-Frontend, das mit den Core-APIs von Drupal integriert ist. Die Hauptfunktionen umfassen komponentenbasiertes visuelles Page Building mit einem Drag-and-Drop-Interface, In-Browser-Code-Komponenten zum Hinzufügen neuer Bausteine sowie die Option, mehrere Seiten vor der Veröffentlichung zu erstellen und mit mehrstufigem Undo in der Vorschau zu betrachten. Das System soll Entwicklern mehr Zeit für tiefgreifende technische Arbeiten verschaffen, während nicht-technische Nutzer eigenständiger arbeiten können.
Canvas ist als Community-getriebenes Projekt angelegt, laut Drupal-Roadmap sollen künftig möglichst alle Module im kommenden Drupal CMS 2.0 mit Canvas kompatibel sein. Die Entwickler stellen eine Demo-Installation auf GitHub bereit und sammeln Feedback über den dedizierten Slack-Channel #drupal-canvas. Das Projekt positioniert sich damit in Konkurrenz zu etablierten Page Buildern wie WordPress Gutenberg oder Elementor, setzt aber auf die Stärken von Drupal in Enterprise-Umgebungen.
Ausblick auf Drupal CMS 2.0
Drupal CMS ist eine vorkonfigurierte Distribution auf Basis von Drupal Core, die für schnelle Website-Erstellung mit vorgefertigten Modulen und Workflows optimiert ist, während Drupal Core die minimale, flexible Grundlage für Entwickler bietet. Inzwischen steht Drupal CMS kurz vor der Veröffentlichung der Version 2.0, die laut mehreren Drupal-Experten einen großen Entwicklungssprung für Webentwickler und Nutzer bringen soll. Die neue Generation der Software soll eine verbesserte Performance, modernisierte Benutzeroberfläche und vereinfachte Integrationsmöglichkeiten für KI-gestützte Tools bieten.
Weiterlesen nach der Anzeige
Neben den technischen Verbesserungen soll Drupal CMS 2.0 besonderen Wert auf Barrierefreiheit, Sicherheit und modulare Erweiterbarkeit legen. Durch ein überarbeitetes Framework und optimierte Workflows sollen Entwickler Projekte schneller umsetzen können, während Redakteure von einer klareren Struktur und KI-gestützten Funktionen wie Content-Generierung und SEO-Optimierung profitieren sollen. Das offizielle Release ist aktuell für das erste Quartal 2026 anvisiert, ursprünglich war es für den Oktober 2025 geplant.
(fo)
Entwicklung & Code
Open-Source-Toolkit: KI-Unternehmen Anthropic übernimmt Bun
Bun wurde von Anthropic übernommen, wie der Bun-Erfinder Jarred Sumner auf dem Bun-Blog mitteilt. Das JavaScript-Toolkit, bestehend aus Runtime, Bundler, Test Runner und Paketmanager, soll die Infrastruktur für Anthropics KI-Coding-Technologien Claude Code und Claude Agent SDK sowie künftige KI-Coding-Projekte darstellen.
Weiterlesen nach der Anzeige
Bun bleibt Open Source
Laut Sumners Ausführungen wird Bun auch weiterhin Open Source und MIT-lizenziert bleiben. Auch soll das gleiche Team wie bisher an Bun arbeiten und die Entwicklung weiter öffentlich auf GitHub stattfinden. Die Roadmap soll den Fokus auf Performance und Node.js-Kompatibilität beibehalten – und darauf, Node.js als die standardmäßige serverseitige Runtime für JavaScript zu ersetzen.
(Bild: jaboy/123rf.com)

Die enterJS 2026 wird am 16. und 17. Juni in Mannheim stattfinden. Das Programm wird sich rund um JavaScript und TypeScript, Frameworks, Tools und Bibliotheken, Security, UX und mehr drehen. Vergünstigte Blind-Bird-Tickets sind bis zum Programmstart erhältlich.
Bun erschien erstmals im Juli 2022 und verfolgte bereits damals das Ziel, ein „Drop-in“-Ersatz für Node.js zu werden. Schon innerhalb der ersten Woche erzielte das Projekt 20.000 GitHub-Sterne, wie sich der Bun-Erfinder zurückerinnert. Inzwischen ist die Zahl auf über 83.000 Sterne angestiegen und präsentiert sich seit Version 1.3 als Full‑Stack-JavaScript-Runtime.
Übernahme durch Anthropic
Anthropics Claude Code, ein agentisches KI-Coding-Tool, läuft mit Bun, und bereits während der letzten Monate hat das Bun-Team die Issues des Claude-Code-Teams mit Priorität bearbeitet. Nach Gesprächen mit Anthropic folgt jetzt die Übernahme von Bun, das selbst keine Einnahmen hatte: Anthropic kauft Bun als essenzielle Infrastruktur für Claude Code, die Toolsammlung Claude Agent SDK und zukünftige KI-Coding-Produkte.
Weiterlesen nach der Anzeige
Wie Sumner betont, soll dieser Schritt Bun zu langfristiger Stabilität verhelfen. Außerdem will man nun zusätzliche Software Engineers einstellen. Laut Sumner passen die beiden Seiten auf natürliche Weise zusammen, denn: „Bun begann mit einem Fokus darauf, Developer schneller zu machen. KI-Coding-Tools tun etwas Ähnliches.“
(mai)
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Datenschutz & Sicherheitvor 3 MonatenJetzt patchen! Erneut Attacken auf SonicWall-Firewalls beobachtet
-
Künstliche Intelligenzvor 2 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 3 MonatenFake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Entwicklung & Codevor 3 WochenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Social Mediavor 3 MonatenSchluss mit FOMO im Social Media Marketing – Welche Trends und Features sind für Social Media Manager*innen wirklich relevant?
