Entwicklung & Code
Die stille Epidemie: Von großen Sprachmodellen zu digitalen Dealern
In den schummrigen Ecken moderner Softwareentwicklungsbüros breitet sich still und leise eine neue Art der Sucht aus. Dabei geht es nicht um Substanzen oder traditionelle Laster, sondern um eine schleichende Abhängigkeit von künstlicher Intelligenz, die verspricht, jedes Programmierproblem mit einem einfachen Druck auf die Eingabetaste zu lösen. Große Sprachmodelle sind für Softwareentwickler zum digitalen Äquivalent einer leistungssteigernden Droge geworden, die sofortige Befriedigung und scheinbar unbegrenztes Wissen bieten, allerdings auf Kosten von etwas, das weitaus wertvoller ist, als wir zunächst gedacht haben.
Weiterlesen nach der Anzeige

Prof. Dr. Michael Stal arbeitet seit 1991 bei Siemens Technology. Seine Forschungsschwerpunkte umfassen Softwarearchitekturen für große komplexe Systeme (Verteilte Systeme, Cloud Computing, IIoT), Eingebettte Systeme und Künstliche Intelligenz.
Er berät Geschäftsbereiche in Softwarearchitekturfragen und ist für die Architekturausbildung der Senior-Software-Architekten bei Siemens verantwortlich.
Das Phänomen beginnt harmlos genug. Ein Softwareentwickler stößt auf eine besonders schwierige Algorithmusimplementierung und beschließt, ein LLM um Rat zu fragen. Die Antwort kommt innerhalb von Sekunden, komplett mit funktionierendem Code, detaillierten Erklärungen und sogar Optimierungsvorschlägen. Der Dopamin-Kick wirkt sofort und stark. Was Stunden der Recherche, des Ausprobierens und des intensiven Nachdenkens gekostet hätte, ist zu einem kurzen Gespräch mit einem künstlichen Assistenten komprimiert. Der Entwickler fühlt sich produktiv, effizient und bemerkenswert kompetent.
Diese erste Erfahrung schafft einen starken psychologischen Präzedenzfall. Das Gehirn, das immer den Weg des geringsten Widerstands sucht, beginnt, Problemlösungen eher mit der Konsultation eines LLM als mit unabhängiger Analyse in Verbindung zu bringen. Was als gelegentliche Unterstützung beginnt, verwandelt sich allmählich in eine primäre Problemlösungsstrategie. Der Entwickler greift zur LLM-Schnittstelle, bevor er überhaupt versucht, Herausforderungen selbstständig zu durchdenken.
Die Neurochemie der digitalen Abhängigkeit
Das Suchtpotenzial von LLMs wirkt über dieselben neurologischen Bahnen, die auch andere Formen der Verhaltenssucht steuern. Jede erfolgreiche Interaktion mit einem KI-System löst die Ausschüttung von Dopamin im Belohnungszentrum des Gehirns aus und schafft so eine starke Verbindung zwischen Problemlösung und externer Unterstützung. Im Gegensatz zum traditionellen Lernen, das mit verzögerter Befriedigung und allmählichem Aufbau von Fähigkeiten verbunden ist, bieten LLM-Interaktionen sofortige Belohnungen, die die natürlichen Lernmechanismen des Gehirns hijacken können.
Neurowissenschaftliche Untersuchungen haben gezeigt, dass die Erwartung einer Belohnung oft stärkere Dopaminreaktionen hervorruft als die Belohnung selbst. Dies erklärt, warum Entwicklerinnen oft einen Adrenalinstoß verspüren, wenn sie eine Anfrage für ein LLM formulieren, noch bevor sie die Antwort erhalten. Das Gehirn beginnt, sich nach diesem Zustand der Vorfreude zu sehnen, was zu einer erhöhten Häufigkeit der KI-Konsultation führt, selbst bei Problemen, die sich mit minimalem Aufwand selbstständig lösen lassen.
Weiterlesen nach der Anzeige
Der variable Verstärkungsplan, der den LLM-Interaktionen innewohnt, schafft ein besonders starkes Suchtpotenzial. Manchmal liefert die KI sofort perfekte Lösungen, manchmal sind mehrere Iterationen und Verfeinerungen erforderlich, und gelegentlich liefert sie Antworten, die erhebliche Modifikationen benötigen oder sich als gänzlich unbrauchbar erweisen. Diese Unvorhersehbarkeit spiegelt die psychologischen Mechanismen wider, die beim Glücksspiel süchtig machen, und erzeugt ein zwanghaftes Bedürfnis, „noch eine weitere Eingabe zu versuchen“, um die perfekte Antwort zu erhalten.
Betrachten wir den Fall eines erfahrenen Entwicklers, der an einem komplexen Problem zur Optimierung einer Datenstruktur arbeitet. In der Zeit vor LLM wäre er die Herausforderung angegangen, indem er zunächst die zugrunde liegenden Datenmuster verstanden, bestehende Algorithmen recherchiert, mögliche Lösungen skizziert und seinen Ansatz durch Experimente iterativ verfeinert hätte. Dieser Prozess wäre zwar zeitaufwendig gewesen, hätte aber sein Verständnis für algorithmische Komplexität, Kompromisse bei Datenstrukturen und Optimierungsprinzipien vertieft.
Mit der sofort verfügbaren LLM-Unterstützung beschreibt derselbe Entwickler nun sein Problem dem KI-System und erhält innerhalb weniger Minuten eine ausgeklügelte Lösung. Der Code funktioniert, die Leistungskennzahlen verbessern sich und das Projekt schreitet voran. Allerdings hat der Entwickler den entscheidenden Lernprozess umgangen, der sein grundlegendes Verständnis des Problemfeldes verbessert hätte. Er ist eher ein Konsument von Lösungen geworden als ein Schöpfer von Verständnis.
Das Spektrum der LLM-Suchtmuster
LLM-Sucht manifestiert sich in verschiedenen Formen, die jeweils unterschiedliche Merkmale und Verlaufsmuster aufweisen. Der Query Junkie stellt die offensichtlichste Form der Abhängigkeit dar, die durch zwanghaftes Prompting-Verhalten und die Unfähigkeit gekennzeichnet ist, Probleme ohne sofortige KI-Konsultation anzugehen. Diese Menschen halten oft mehrere LLM-Schnittstellen gleichzeitig offen und verspüren echte Angst, wenn sie gezwungen sind, ohne KI-Unterstützung zu arbeiten.
Der Solution Collector ist eine subtilere Form der Abhängigkeit, bei der man riesige Bibliotheken mit KI-generierten Code-Schnipseln und Lösungen ansammelt, ohne ein tiefes Verständnis für die zugrunde liegenden Prinzipien zu entwickeln. Solution Collectors sind sehr effizient darin, bestehende Lösungen zu finden und anzupassen, verlieren jedoch die Fähigkeit, neue Ansätze zu entwickeln oder die grundlegenden Kompromisse zu verstehen, die mit ihrer Umsetzung verbunden sind.
Das Suchtmuster des Pseudo-Experten ist besonders gefährlich, da es eine Illusion von Kompetenz erzeugt, während es tatsächlich echtes Fachwissen untergräbt. Die vermeintlichen Experten verstehen sich geschickt darin, anspruchsvolle Fragen zu stellen und KI-Antworten zu interpretieren, was sie zu der Annahme verleitet, dass sie über tiefgreifendes Wissen verfügen, obwohl sie tatsächlich nur ein oberflächliches Verständnis haben. Sie können komplexe Themen mithilfe von KI-basierten Erkenntnissen flüssig diskutieren, haben jedoch Schwierigkeiten, wenn sie eine Komponente mit neuen Problemen konfrontiert, die echte Kreativität oder tiefgreifende Analysen erfordern.
Der Validierungssuchende nutzt LLMs nicht in erster Linie zur Lösungsfindung, sondern zur ständigen Bestätigung seiner eigenen Ideen und Ansätze. Das mag zwar weniger problematisch erscheinen als eine vollständige Abhängigkeit von KI-Lösungen, untergräbt jedoch das Selbstvertrauen und das unabhängige Urteilsvermögen. Diese Menschen verlieren allmählich das Vertrauen in ihre eigenen analytischen Fähigkeiten und sind ohne die Bestätigung durch KI nicht mehr in der Lage, technische Entscheidungen zu treffen.
Die Sucht manifestiert sich auf immer subtilere Weise. Entwicklerinnen und Entwickler verspüren Angst, wenn sie gezwungen sind, ohne LLM-Zugang zu arbeiten, ähnlich wie das Unbehagen, das man empfindet, wenn man von seinem Smartphone getrennt ist. Sie entwickeln eine sogenannte Prompt-Abhängigkeit, bei der ihr Problemlösungsprozess vollständig auf die Formulierung von Anfragen für KI-Systeme ausgerichtet ist, anstatt sich mit einer unabhängigen Analyse zu befassen.
Der Verlust grundlegender Fähigkeiten
Die psychologischen Mechanismen, die dieser Abhängigkeit zugrunde liegen, spiegeln diejenigen wider, die auch bei anderen Formen der digitalen Sucht zu finden sind. Das variable Belohnungssystem von LLMs erzeugt einen starken Konditionierungseffekt. Manchmal liefert die KI sofort genau die richtige Lösung, manchmal sind Verfeinerungen und Iterationen erforderlich, und gelegentlich gibt sie Antworten, die erhebliche Modifikationen benötigen. Diese Unvorhersehbarkeit erzeugt die gleichen psychologischen Reize, die soziale Medien und Gaming-Plattformen so attraktiv machen.
Das Konzept des Flow-Zustands, das Softwareentwickler seit langem als Höhepunkt produktiver Programmiererfahrung schätzen, lässt sich für diejenigen, die auf die Unterstützung von LLMs angewiesen sind, immer schwerer erreichen. Flow erfordert eine intensive Auseinandersetzung mit herausfordernden Problemen, anhaltende Konzentration und den schrittweisen Aufbau von Verständnis durch beharrliche Anstrengungen. Die Abhängigkeit von LLMs stört diesen Prozess, indem sie externe Lösungen liefert, bevor der Entwickler die Möglichkeit hatte, sich intensiv mit dem Problemfeld auseinanderzusetzen.
Die Verschlechterung der Debugging-Fähigkeiten ist einer der besorgniserregendsten Aspekte der LLM-Abhängigkeit. Debugging diente traditionell als wichtiger Lernmechanismus in der Softwareentwicklung und zwang Developer dazu, das Systemverhalten zu verstehen, Ausführungspfade zu verfolgen und mentale Modelle der Programmfunktion zu entwickeln. Entwickler, die Debugging-Aufgaben an KI-Systeme delegieren, verpassen diese Lernmöglichkeiten und verlieren nach und nach die analytischen Fähigkeiten, die für die Diagnose komplexer Probleme erforderlich sind.
Dieses Phänomen geht über den Verlust individueller Fähigkeiten hinaus und wirkt sich auch auf grundlegende kognitive Prozesse aus. Developer, die von LLM-Unterstützung abhängig sind, erleben oft das, was Kognitionswissenschaftler als kognitive Entlastung bezeichnen, wobei externe Tools so sehr zu einem integralen Bestandteil des Denkprozesses verkommen, dass sich unabhängiges Denken als schwierig oder unmöglich erweist. Dies ähnelt der Art und Weise, wie die Abhängigkeit von GPS die räumlichen Navigationsfähigkeiten beeinträchtigen kann, aber die Auswirkungen auf die Softwareentwicklung sind weitaus tiefgreifender.
Die Gedächtniskonsolidierung, ein entscheidender Aspekt der Kompetenzentwicklung, zeigt sich beeinträchtigt, wenn Entwickler sich stark auf externe KI-Unterstützung verlassen. Der Prozess des Ringens mit Problemen, des Machens von Fehlern und des allmählichen Aufbaus von Verständnis schafft starke neuronale Bahnen, die eine schnelle Mustererkennung und intuitive Problemlösung ermöglichen. Die Abhängigkeit von LLM unterbricht diesen Prozess und führt zu Wissen, das sich umfassend anfühlt, aber nicht die für eine fachkundige Leistung erforderliche tiefe Integration aufweist.
Eine besonders besorgniserregende Ausprägung der LLM-Abhängigkeit ist die allmähliche Erosion der Debugging-Fähigkeiten. Debugging ist traditionell eine der wertvollsten Kompetenzen, die Developer entwickeln können, da es systematisches Denken, die Bildung von Hypothesen und methodisches Untersuchen erfordert. Wer von LLM-Unterstützung abhängig ist, beginnt oft damit, Debugging-Aufgaben an KI-Systeme zu delegieren und Fehlermeldungen und Symptome zu beschreiben, anstatt die analytischen Fähigkeiten zu entwickeln, die notwendig sind, um Probleme bis zu ihren Ursachen zurückzuverfolgen.
Auswirkungen auf die Disziplinen der Softwareentwicklung
Die Auswirkungen der LLM-Abhängigkeit variieren erheblich zwischen den verschiedenen Spezialisierungen der Softwareentwicklung, die jeweils einzigartige Herausforderungen und Risiken mit sich bringen. Frontend-Entwickler könnten feststellen, dass ihre Designkompetenz nachlässt, da sie sich zunehmend auf KI-generierte Benutzeroberflächenkomponenten und Styling-Lösungen verlassen. Das subtile Verständnis der Prinzipien der Benutzererfahrung, der visuellen Hierarchie und des Interaktionsdesigns, das Entwickler durch praktische Experimente erwerben, ersetzen LLMs durch algorithmische Vorschläge, die zwar technisch kompetent sind, aber keine menschliche Einsicht bieten.
Backend-Entwicklerinnen stehen vor anderen Herausforderungen, insbesondere in Bereichen, die ein tiefes Verständnis der Systemarchitektur und der Leistungsmerkmale erfordern. LLM-generierte Lösungen funktionieren oft gut für gängige Szenarien, können jedoch subtile Ineffizienzen oder architektonische Entscheidungen enthalten, die bei großem Umfang problematisch sind. Entwickler, die sich stark auf KI-Unterstützung verlassen, übersehen möglicherweise diese Nuancen, was zu Systemen führt, die anfangs gut funktionieren, aber mit zunehmender Komplexität oder Benutzerlast auf ernsthafte Probleme stoßen.
Datenbankspezialisten sind besonders gefährdet, da die Datenbankoptimierung ein tiefes Verständnis von Abfrageausführungsplänen, Indexstrategien und Datenverteilungsmustern erfordert. Diese Erkenntnisse entwickeln sich durch jahrelange praktische Erfahrung mit realen Leistungsproblemen. Von LLM generierte Datenbanklösungen folgen oft Standardmustern, übersehen jedoch möglicherweise die subtilen Optimierungen, die Datenbankarbeit von wirklich fachmännischer Leistung unterscheiden.
Security Engineers sind möglicherweise den größten Risiken durch LLM-Abhängigkeit ausgesetzt, da Sicherheit eine grundlegend kontradiktorische Denkweise erfordert, bei der sie darüber nachdenken, wie Eindringlinge Systeme angreifen oder kompromittieren. KI-Systeme, die in erster Linie auf öffentlich zugänglichem Code und Dokumentation trainiert sind, können möglicherweise nicht das kreative Denken angemessen repräsentieren, das erforderlich ist, um neue Angriffsvektoren zu identifizieren oder robuste Verteidigungsstrategien zu entwickeln. Security Engineers, die von KI-Unterstützung abhängig werden, können ein falsches Gefühl der Sicherheit entwickeln und dabei kritische Schwachstellen übersehen.
DevOps Engineers und Infrastrukturexpertinnen stehen vor besonderen Herausforderungen, da ihre Arbeit oft das Verständnis der komplexen Interaktionen zwischen mehreren Systemen, Tools und Umgebungen erfordert. Die für das Infrastrukturmanagement erforderlichen Fähigkeiten zur Fehlerbehebung entwickeln sich durch direkte Erfahrungen mit Systemausfällen und die schrittweise Aneignung von Wissen darüber, wie verschiedene Komponenten unter verschiedenen Bedingungen interagieren. LLM-Unterstützung kann Standardlösungen bieten, erfasst jedoch möglicherweise nicht das umgebungsspezifische Wissen, das den Unterschied zwischen angemessenem und exzellentem Infrastrukturmanagement ausmacht.
Dieses Phänomen erweist sich als noch problematischer, wenn man die kollaborative Natur der Softwareentwicklung berücksichtigt. Entwickler, die unter einer übermäßigen Abhängigkeit von LLM leiden, haben oft Schwierigkeiten in Pair-Programming-Sitzungen oder Code-Review-Diskussionen, weil sie nicht das notwendige tiefgreifende Verständnis entwickelt haben, um ihre Überlegungen zu erklären oder ihre Implementierungsentscheidungen zu verteidigen. Ihr Wissen wird oberflächlich und fragmentiert und besteht eher aus KI-generierten Lösungen als aus prinzipiellem Verständnis.
Entwicklung & Code
Sulu 3.0: CMS mit neuem Content-Speicher und klarerer Architektur
Sulu 3.0 ist erschienen. Mit dem Release vollzieht das quelloffene Content-Management-System (CMS) laut Blogbeitrag eine größere technische Umstrukturierung. Statt auf das bislang genutzte PHPCR‑Repository setzt das Projekt künftig vollständig auf Doctrine ORM und JSON‑Felder – eine Entscheidung, die nicht nur die Performance heben, sondern auch die Einstiegshürde für Symfony‑Entwickler senken soll. Nach Angaben des Teams kamen rund 150.000 Zeilen Code neu hinzu, mehr als 265.000 wurden entfernt.
Weiterlesen nach der Anzeige
Das Open-Source-CMS Sulu basiert auf dem PHP-Framework Symfony und dient als Headless‑ oder klassisches CMS für komplexe, mehrsprachige Webprojekte. Es richtet sich vor allem an Entwicklerinnen und Entwickler, die flexible Inhaltsmodelle mit vertrauten Symfony‑Werkzeugen umsetzen wollen. Für Symfony sind kürzlich die Versionen 7.4 und 8.0 erschienen.
Von PHPCR zu Doctrine ORM
Mit der Abkehr vom speicherintensiven PHPCR führt Sulu ein neues Modell zur Ablage von Inhalten ein: Seiten, Artikel oder Snippets werden jetzt als reguläre Doctrine‑Entitäten mit JSON‑Spalten verwaltet. Damit greifen Developer direkt auf bekannte Tools und SQL‑Abfragen zurück, statt eine eigene Query‑Sprache lernen zu müssen.
Das System nutzt sogenannte Dimensionen, um Sprach‑, Veröffentlichungs‑ und Versionszustände abzubilden. So lassen sich nicht übersetzbare Felder in mehreren Sprachvarianten weiterverwenden – ein Ansatz, der die vorherige, tiefer verschachtelte Struktur ersetzt und sich offenbar leichter debuggen lässt.
Bessere Performance und Vereinfachungen
Nach Angaben des Teams bringt der neue Speicheransatz spürbare Leistungsgewinne. Content‑Strukturen lassen sich nun direkt in der Datenbank nachvollziehen, während Konfigurationsdaten weiterhin als XML im Repository bleiben.
Weiterlesen nach der Anzeige
Auch das Update der PHP-Bibliothek Flysystem auf Version 3 soll zur Vereinfachung der Handhabung von Mediendateien beitragen. Diese können künftig über eine einheitliche Schnittstelle auf unterschiedlichen Backends abgelegt werden, beispielsweise auf Amazon S3, Microsoft Azure, WebDAV oder Dropbox.
Entfall der Elasticsearch‑Pflicht für Artikel
Neben der Speicherarchitektur wurde das Artikel‑Bundle neu geschrieben. Es lässt sich nun ohne die Suchmaschine und das Analytic-Tool Elasticsearch betreiben, wodurch kleineren Projekten die Installation eines separaten Suchdienstes erspart bleiben soll. Für große Installationen bleibt die Option durch ein ergänzendes Bundle erhalten, das Elasticsearch wieder einbindet.
Ebenfalls neu ist SEAL, der Search Engine Abstraction Layer. Er bündelt Anbindungen an Suchsysteme wie Loupe, Meilisearch, Solr oder Elasticsearch hinter einer gemeinsamen API. Standardmäßig kommt Loupe zum Einsatz – eine SQLite‑basierte, PHP‑interne Lösung, die für mittlere Datenmengen ausreichend schnell arbeitet.
Migration und Unterstützung
Sulu liefert ein eigenes Tool, um vorhandene PHPCR‑Daten zu konvertieren. Das Migration‑Bundle überführt Seiten, Artikel, Snippets und URLs in die neue Speicherstruktur und protokolliert detailliert, wo gegebenenfalls Nacharbeit nötig ist.
Wer die Umstellung nicht allein durchführen möchte, kann laut Entwicklerteam auf Community‑Hilfe via Slack und GitHub oder auf professionelle Unterstützung zurückgreifen. Weitere Informationen zur Hilfe sowie zum Release finden sich im Blogbeitrag.
Weiterer Fahrplan
Mit Version 3.0 endet die Pflege für Sulu 1.6, während Sulu 2.6 als LTS-Version (Long-term Support) erhalten bleibt. Die neue Architektur soll künftige Funktionen erleichtern und das CMS langfristig wartbarer machen. Näheres zum Release und zum CMS auch auf GitHub.
(mdo)
Entwicklung & Code
Drupal Canvas: Visueller Page Builder für Drupal veröffentlicht
Drupal hat mit Canvas einen visuellen Page Builder veröffentlicht, der die Erstellung individueller Websites ohne umfangreiche Programmierkenntnisse ermöglichen soll. Das Werkzeug richtet sich an Site-Builder und Content-Teams, die bisher zwischen vorgefertigten Templates und aufwendiger individueller Entwicklung wählen mussten.
Weiterlesen nach der Anzeige
Weniger komplizierte Technik für Anwender
Als Open-Source-CMS kommt Drupal zwar bei vielen Organisationen zum Einsatz, die Flexibilität des Systems erforderte jedoch bislang einiges an technischem Know-how. Wie Produktleiter Lauri Timmanee im Drupal-Blog erklärt, existiere in Drupal ein Trade-off: „Entweder man ist gezwungen, eine Art Cookie-Cutter-Website zu erstellen, oder man muss komplexen Code schreiben. Wir wollen diesen Trade-off aufbrechen, indem wir bessere Werkzeuge bereitstellen, damit man tatsächlich Websites erstellen kann, die auf die eigene Marke zugeschnitten sind, ohne komplexen Code kennen zu müssen.“
Drupal Canvas 1.0 basiert auf einem React-Frontend, das mit den Core-APIs von Drupal integriert ist. Die Hauptfunktionen umfassen komponentenbasiertes visuelles Page Building mit einem Drag-and-Drop-Interface, In-Browser-Code-Komponenten zum Hinzufügen neuer Bausteine sowie die Option, mehrere Seiten vor der Veröffentlichung zu erstellen und mit mehrstufigem Undo in der Vorschau zu betrachten. Das System soll Entwicklern mehr Zeit für tiefgreifende technische Arbeiten verschaffen, während nicht-technische Nutzer eigenständiger arbeiten können.
Canvas ist als Community-getriebenes Projekt angelegt, laut Drupal-Roadmap sollen künftig möglichst alle Module im kommenden Drupal CMS 2.0 mit Canvas kompatibel sein. Die Entwickler stellen eine Demo-Installation auf GitHub bereit und sammeln Feedback über den dedizierten Slack-Channel #drupal-canvas. Das Projekt positioniert sich damit in Konkurrenz zu etablierten Page Buildern wie WordPress Gutenberg oder Elementor, setzt aber auf die Stärken von Drupal in Enterprise-Umgebungen.
Ausblick auf Drupal CMS 2.0
Drupal CMS ist eine vorkonfigurierte Distribution auf Basis von Drupal Core, die für schnelle Website-Erstellung mit vorgefertigten Modulen und Workflows optimiert ist, während Drupal Core die minimale, flexible Grundlage für Entwickler bietet. Inzwischen steht Drupal CMS kurz vor der Veröffentlichung der Version 2.0, die laut mehreren Drupal-Experten einen großen Entwicklungssprung für Webentwickler und Nutzer bringen soll. Die neue Generation der Software soll eine verbesserte Performance, modernisierte Benutzeroberfläche und vereinfachte Integrationsmöglichkeiten für KI-gestützte Tools bieten.
Weiterlesen nach der Anzeige
Neben den technischen Verbesserungen soll Drupal CMS 2.0 besonderen Wert auf Barrierefreiheit, Sicherheit und modulare Erweiterbarkeit legen. Durch ein überarbeitetes Framework und optimierte Workflows sollen Entwickler Projekte schneller umsetzen können, während Redakteure von einer klareren Struktur und KI-gestützten Funktionen wie Content-Generierung und SEO-Optimierung profitieren sollen. Das offizielle Release ist aktuell für das erste Quartal 2026 anvisiert, ursprünglich war es für den Oktober 2025 geplant.
(fo)
Entwicklung & Code
Open-Source-Toolkit: KI-Unternehmen Anthropic übernimmt Bun
Bun wurde von Anthropic übernommen, wie der Bun-Erfinder Jarred Sumner auf dem Bun-Blog mitteilt. Das JavaScript-Toolkit, bestehend aus Runtime, Bundler, Test Runner und Paketmanager, soll die Infrastruktur für Anthropics KI-Coding-Technologien Claude Code und Claude Agent SDK sowie künftige KI-Coding-Projekte darstellen.
Weiterlesen nach der Anzeige
Bun bleibt Open Source
Laut Sumners Ausführungen wird Bun auch weiterhin Open Source und MIT-lizenziert bleiben. Auch soll das gleiche Team wie bisher an Bun arbeiten und die Entwicklung weiter öffentlich auf GitHub stattfinden. Die Roadmap soll den Fokus auf Performance und Node.js-Kompatibilität beibehalten – und darauf, Node.js als die standardmäßige serverseitige Runtime für JavaScript zu ersetzen.
(Bild: jaboy/123rf.com)

Die enterJS 2026 wird am 16. und 17. Juni in Mannheim stattfinden. Das Programm wird sich rund um JavaScript und TypeScript, Frameworks, Tools und Bibliotheken, Security, UX und mehr drehen. Vergünstigte Blind-Bird-Tickets sind bis zum Programmstart erhältlich.
Bun erschien erstmals im Juli 2022 und verfolgte bereits damals das Ziel, ein „Drop-in“-Ersatz für Node.js zu werden. Schon innerhalb der ersten Woche erzielte das Projekt 20.000 GitHub-Sterne, wie sich der Bun-Erfinder zurückerinnert. Inzwischen ist die Zahl auf über 83.000 Sterne angestiegen und präsentiert sich seit Version 1.3 als Full‑Stack-JavaScript-Runtime.
Übernahme durch Anthropic
Anthropics Claude Code, ein agentisches KI-Coding-Tool, läuft mit Bun, und bereits während der letzten Monate hat das Bun-Team die Issues des Claude-Code-Teams mit Priorität bearbeitet. Nach Gesprächen mit Anthropic folgt jetzt die Übernahme von Bun, das selbst keine Einnahmen hatte: Anthropic kauft Bun als essenzielle Infrastruktur für Claude Code, die Toolsammlung Claude Agent SDK und zukünftige KI-Coding-Produkte.
Weiterlesen nach der Anzeige
Wie Sumner betont, soll dieser Schritt Bun zu langfristiger Stabilität verhelfen. Außerdem will man nun zusätzliche Software Engineers einstellen. Laut Sumner passen die beiden Seiten auf natürliche Weise zusammen, denn: „Bun begann mit einem Fokus darauf, Developer schneller zu machen. KI-Coding-Tools tun etwas Ähnliches.“
(mai)
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Datenschutz & Sicherheitvor 3 MonatenJetzt patchen! Erneut Attacken auf SonicWall-Firewalls beobachtet
-
Künstliche Intelligenzvor 2 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 3 MonatenFake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Entwicklung & Codevor 3 WochenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Social Mediavor 3 MonatenSchluss mit FOMO im Social Media Marketing – Welche Trends und Features sind für Social Media Manager*innen wirklich relevant?
