Connect with us

Entwicklung & Code

JavaScript: Major Release Nuxt.js 4.0 bringt neue Verzeichnisstruktur


Das quelloffene Webframework Nuxt.js hat sein viertes Major Release erreicht, das insbesondere auf Stabilität ausgelegt ist und Breaking Changes zur Verbesserung der Developer Experience enthält. Version 4.0 führt unter anderem eine neue Organisationsstruktur für Projekte ein, aktualisiert das Data Fetching, kann besser mit der Programmiersprache TypeScript umgehen und beschleunigt das Command-Line Interface (CLI).

Bei Nuxt.js handelt es sich um ein Framework zum Entwickeln grafischer Oberflächen für Webanwendungen. Es setzt auf dem JavaScript-Framework Vue.js auf und macht sich dessen reaktive, komponentenbasierte Architektur zunutze. Daneben verwendet Nuxt.js den Bundler Vite und die Server Engine Nitro.


enterJS Web Security Day

enterJS Web Security Day

(Bild: Alexander Supertramp/Shutterstock.com)

Neun von zehn Webanwendungen haben Sicherheitslücken – höchste Zeit für Web Developer, zu handeln. Auf dem ersten enterJS Web Security Day am 9. Oktober 2025 geht es um automatisierte Sicherheitsprüfungen, den Einsatz von Passkeys und den Schutz vor KI-basierten Angriffen.

Nuxt.js 4.0 bringt das neue Verzeichnis app/ mit, das für eine sauberere Projektorganisation sorgen soll. Im Standard befindet sich Anwendungscode nun unter app/. Das soll dabei helfen, den Code von node_modules/ und .git/ getrennt zu halten und somit File Watchers insbesondere unter Windows und Linux zu beschleunigen. Zudem sollen Entwicklungsumgebungen durch die neue Struktur besser den Kontext erkennen können, ob gerade am Client- oder Server-Code gearbeitet wird.


my-nuxt-app/
├─ app/
│  ├─ assets/
│  ├─ components/
│  ├─ composables/
│  ├─ layouts/
│  ├─ middleware/
│  ├─ pages/
│  ├─ plugins/
│  ├─ utils/
│  ├─ app.vue
│  ├─ app.config.ts
│  └─ error.vue
├─ content/
├─ public/
├─ shared/
├─ server/
└─ nuxt.config.ts


Entwicklerinnen und Entwickler, die nicht zur neuen Struktur migrieren möchten, müssen dies nicht tun, denn Nuxt.js erkennt bestehende Strukturen und behält diese bei.

Im neuen Release erstellt Nuxt.js separate TypeScript-Projekte für App-Code, Server-Code, den shared/-Ordner und Builder-Code. Das soll zu einer verbesserten Autovervollständigung, akkuraterer Typinferenz und weniger verwirrenden Fehlermeldungen beim Arbeiten in unterschiedlichen Kontexten führen.

Zudem hat das Nuxt.js-Team das CLI (@nuxt/cli) beschleunigt. Zu den neuen Änderungen zählt, dass Cold Starts nun deutlich schneller vonstatten gehen und der Node.js-Compile-Cache den V8-Compile-Cache wiederverwendet.

Wie das Nuxt.js-Team betont, bringt zwar jede Hauptversion abwärtsinkompatible Neuerungen (Breaking Changes) mit, doch der Upgrade-Prozess auf Version 4.0 solle möglichst glatt funktionieren. Die meisten dieser Änderungen haben demnach bereits über ein Jahr lang per Compatibility Flag zum Testen bereitgestanden. Die meisten lassen sich per Konfigurationsoption zum alten Verhalten zurückdrehen.

Über alle Neuerungen der vierten Hauptversion, die nach einem Jahr des Real-World-Testens erschienen ist, informiert das Entwicklungsteam auf dem Nuxt.js-Blog.


(mai)



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Entwicklung & Code

Tekton 1.0: Kubernetes-natives CI/CD-Werkzeug mit stabiler API


Nach sechs Jahren Entwicklungsarbeit hat das Open-Source-Projekt Tekton Pipelines Version 1.0 erreicht. Gemäß der semantischen Versionierung gilt das Release damit als stabil und bereit für den produktiven Einsatz bei der Softwareentwicklung in Unternehmen. Tekton Pipelines richtet sich an Teams, die Continuous Integration und Continuous Delivery (CI/CD) in Kubernetes-Umgebungen automatisieren wollen.




Die auf Developer Experience (DX) und Platform Engineering spezialisierte Konferenz findet vom 18. bis 20. November 2025 in Mannheim statt. Das Programm der CLC ist zugeschnitten auf IT-Fachleute, die sich mit der zuverlässigen und schnellen Bereitstellung sowie dem sicheren und reibungslosen Betrieb von Software befassen. Es deckt ein breites Themenspektrum ab, darunter Software Delivery, Dev(Sec)Ops, Container & Kubernetes, Infrastructure & Operations sowie Observability & SRE.

Tickets und weitere Informationen finden sich auf der CLC-Website.

Mit dem 1.0-Release betont das Projekt vor allem die Stabilität der API. Ergänzt wurde Tekton offenbar um Richtlinienkontrollen (z. B. mit Open Policy Agent und Kyverno) sowie erweiterte Überwachungsfunktionen über das Observability-Framework OpenTelemetry. Die Software kommt unter anderem bei Red Hat OpenShift Pipelines zum Einsatz.

Tekton entstand 2018 aus dem Knative-Projekt und wird seitdem unter der Continuous Delivery Foundation weiterentwickelt. Die Software bildet CI/CD-Workflows als Kubernetes-Ressourcen ab und bietet laut Projektteam ein skalierbares und deklaratives Automatisierungsmodell. Zu den jüngsten Erweiterungen zählen Sicherheitsfunktionen, Wiederverwendbarkeit von Pipelines sowie bessere Observability.

Einige Firmen setzen Tekton bereits produktiv ein. Das Studio DNEG beschleunigte damit nach eigenen Angaben seine Softwarebereitstellung deutlich. Ford nutzt „Pipelines as Code“ mit Tekton und Argo CD, um Entwicklungsprozesse zu standardisieren. Air Canada automatisierte seine Deployments mithilfe von OpenShift und Tekton und reduzierte so den Betriebsaufwand.

Im Vergleich zu anderen CI/CD-Werkzeugen verfolgt Tekton einen modularen, Kubernetes-zentrierten Ansatz. Im Gegensatz zu monolithischen Lösungen wie Jenkins oder GitLab CI/CD basiert Tekton auf Kubernetes-Custom-Resources und stellt grundlegende Bausteine für den Aufbau eigener CI/CD-Prozesse bereit. Es wird häufig zusammen mit ergänzenden Tools wie Argo CD eingesetzt oder in Plattformen wie OpenShift integriert.

Tekton wird künftig unter dem Dach der Cloud Native Computing Foundation (CNCF) weitergeführt. Der Schritt soll laut Projektteam neue Beiträge fördern und die Entwicklung unter offener Governance absichern – also unter transparenter, gemeinschaftlich organisierter Projektleitung, bei der eine neutrale Community Entscheidungen trifft, nicht ein einzelnes Unternehmen.

Weitere Informationen und die offiziellen Release Notes finden sich im Blogbeitrag.


(mdo)



Source link

Weiterlesen

Entwicklung & Code

Softbank plant Billionen KI-Agenten, um Menschen rauszuschmeißen


„Die Ära, in der Menschen programmieren, neigt sich innerhalb unseres Konzerns ihrem Ende entgegen“, meint Softbank-Gründer Masayoshi Son. „Unser Ziel ist, dass KI-Agenten das Programmieren komplett übernehmen. (…) Wir beginnen gerade die Umstellung dafür.“

Gesagt hat Son das am Mittwoch bei einer von dem japanischen Konzern ausgerichteten Veranstaltung für Kunden, wie Light Reading berichtet. Demnach schätzt der Softbank-CEO, dass für jeden ersetzten Mitarbeiter etwa 1.000 KI-Agenten notwendig würden, weil „Mitarbeiter komplexe Gedankenvorgänge haben.“

KI-Agenten sind Softwareprogramme, die anhand von Algorithmen selbsttätig auf externe Signale reagieren. Sie führen dann gegebenenfalls Aufgaben aus und können dabei auch Entscheidungen treffen, ohne Zutun von Menschen. Die Bandbreite reicht von einfachen Bots bis zu selbstfahrenden Autos.

Noch dieses Jahr soll Softbank die erste Milliarde KI-Agenten zur Arbeit schicken, wenn es nach Son geht; in Zukunft sollen es Billionen werden. Dafür hat Son noch keinen Zeitplan verraten. Die meisten KI-Agenten würden dann anderen KI-Agenten zuarbeiten. Auf diese Weise sollen bei Softbank automatisiert Aufgaben erledigt, Verhandlungen geführt und Entscheidungen getroffen werden. Die Maßnahmen würden sich also nicht auf Softwareprogrammierer beschränken.

„Die Agenten werden 24 Stunden am Tag tätig sein, 365 Tage im Jahr, und mit einander interagieren“, sagte Son. Sie sollen unabhängig dazulernen und Informationen sammeln. Die KI-Agenten, so erwartet der Japaner, würden deutlich produktiver und effizienter agieren als Menschen. Dabei würden sie lediglich 40 japanische Yen (derzeit gut 23 Eurocent) pro Monat kosten. Nimmt man die angegeben 1.000 Agenten pro Mitarbeiter, kommt man also auf 230 Euro monatlich statt eines Gehaltes für einen Menschen.

Die bei KI häufigen Halluzinationen tut Son als „vorübergehendes und kleines Problem“ ab. Was ihm für die Erfüllung seines Tech-Traumes noch abgeht, sind Software und Betriebssysteme zur Erstellung und Verwaltung der Heerscharen an KI-Programmen. Und natürlich die gigantischen Rechenzentren samt Kraftwerken dafür.

Übrigens dürfte Son bei seinen Plänen davon ausgehen, dass Artificial General Intelligence schon sehr bald Wirklichkeit wird.


(ds)



Source link

Weiterlesen

Entwicklung & Code

Was kann Kiro, was Copilot nicht versteht? Amazon stellt eigene KI-IDE vor


Amazon hat mit Kiro eine eigenständige, KI-gestützte Entwicklungsumgebung (IDE) vorgestellt, die über klassische Code-Autovervollständigung hinausgeht und auf spezifikationsgetriebene Softwareentwicklung setzt. Entwickelt von einem kleinen, unabhängigen Team innerhalb von AWS, soll Kiro vor allem mittlere und große Unternehmen unterstützen, komplexe Softwareprojekte strukturiert und effizient umzusetzen.

Kiro basiert technisch auf einem Fork von Code OSS, dem Open-Source-Kern von Visual Studio Code, ist aber als eigenständige IDE konzipiert. Laut AWS-Entwickleradvokat Nathan Peck ist Kiro bewusst „leicht von AWS entkoppelt“, um auch Entwicklerinnen und Entwickler außerhalb des AWS-Ökosystems anzusprechen. Die Nutzung ist ohne AWS-Konto möglich, beispielsweise über Google oder GitHub.

Im Zentrum von Kiro stehen sogenannte Specs, strukturierte Anforderungs-, Design- und Aufgabenbeschreibungen, die in Markdown-Dateien organisiert sind (requirements.md, design.md, tasks.md). Die Anforderungen folgen dem EARS-Standard (Easy Approach to Requirements Syntax), der ursprünglich von Rolls Royce entwickelt wurde. Diese Spezifikationen dienen sowohl der KI als auch den Developern als Referenzrahmen für den gesamten Projektverlauf.


IDE Kiro arbeitet mit Spezifikationen

IDE Kiro arbeitet mit Spezifikationen

Kiro wandelt einen einzelnen Prompt in strukturierte User Stories mit EARS-Akzeptanzkriterien um, einschließlich typischer Randfälle.

(Bild: kiro.dev)

Ein weiteres zentrales Element sind Hooks, automatisierte Aktionen, die durch Ereignisse wie Dateispeichern oder -erstellen ausgelöst werden. Sie generieren Tests, führen Sicherheitsüberprüfungen durch oder aktualisieren die Dokumentation. Hooks werden in sogenannten Agentic Actions beschrieben und sind konfigurierbar. Kiro arbeitet dabei mit Claude Sonnet 4.0 als Standard-LLM.

Aus einem Praxisbericht bei devclass.com geht hervor, dass besondere Vorsicht beim Autopilot-Modus geboten ist: Hier darf die KI eigenständig Änderungen am Code vornehmen. Alternativ lässt sich der Supervised-Modus aktivieren, in dem Nutzerinnen und Nutzer alle Änderungen genehmigen müssen. Kritische Aktionen (z. B. Installation von npm-Modulen) benötigen immer eine explizite Zustimmung. Für mehr Kontrolle lassen sich Zulassungslisten definieren.

Während GitHub Copilot auf allgemeinen Codevorschlägen basiert und vor allem Einzelentwicklern oder kleinen Teams hilft, bietet Kiro einen deutlich umfassenderen Funktionsumfang für Unternehmen. Es kennt interne APIs, Deployment-Patterns, Review-Kommentare und Architekturentscheidungen.

In der Praxis zeigt sich das etwa bei Code-Reviews, der Einhaltung von Sicherheitsrichtlinien (z. B. SOC2, HIPAA) oder der Standardisierung von Deployment-Konfigurationen. Offenbar kann Kiro selbst bei der Einarbeitung neuer Teammitglieder aushelfen, da es internes Wissen dokumentiert und zugänglich macht.

Kiro befindet sich derzeit in der Preview-Phase und lässt sich kostenlos testen. Danach ist ein gestaffeltes Preismodell geplant: Die Free-Version umfasst 50 „agentic interactions“ pro Monat und Nutzer, Pro-Konten kosten 19 $/Monat (1.000 Interaktionen), Pro+ 39 $/Monat (3.000 Interaktionen). Weitere Interaktionen kosten 0,04 $ pro Stück. Eine Interaktion kann dabei mehrere Minuten dauern, beispielsweise wenn Kiro eine komplexe Aufgabe mit mehreren Iterationen bearbeitet.

Amazons Entwicklungsumgebung unterstützt insbesondere die Sprachen TypeScript/JavaScript, Python und Java. Einschränkungen gibt es für .NET-Entwicklerinnen und -Entwickler, da Kiro auf die Open VSX-Registry setzt und proprietäre Erweiterungen von Microsoft (z. B. C#) nicht unterstützt.

Kiro grenzt sich in einem zunehmend überfüllten Markt für KI-Entwicklungstools durch seine Spezifikationsorientierung und Governance-Funktionen klar ab. Es will nicht nur schnelleres Coden ermöglichen, sondern strukturierte, wartbare und organisationskonforme Softwareentwicklung fördern. Zwar bleibt ein menschlicher Entwickler weiterhin unverzichtbar, doch Kiro könnte viele Routineaufgaben übernehmen und Teams bei dem Prozess unterstützen, von Prototyp zu Produktion mit weniger Reibungsverlusten zu gelangen – und das plattformübergreifend.

Nähere Informationen finden sich im Ankündigungsbeitrag auf der offiziellen Website.


(mdo)



Source link

Weiterlesen

Beliebt