Connect with us

Entwicklung & Code

Wasmer stellt Edge.js vor: Node.js in WebAssembly-Sandbox


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Das Unternehmen Wasmer, das hinter der gleichnamigen WebAssembly-Runtime steht, hat Edge.js veröffentlicht. Die quelloffene JavaScript-Runtime ist darauf spezialisiert, Node.js-Workloads auf sichere Weise in WebAssembly-Sandboxen auszuführen. Insbesondere für die Anwendungsfälle KI und Edge Computing soll sich Edge.js eignen.

Weiterlesen nach der Anzeige

Nicht zu verwechseln ist die neue JavaScript-Runtime Edge.js mit dem älteren .NET-Projekt Edge.js.


enterJS Integrate AI

enterJS Integrate AI

(Bild: Stone Story / stock.adobe.com)

Webanwendungen mit KI anreichern, sodass sie wirklich besser werden? Der Online-Thementag enterJS Integrate AI am 28. April 2026 zeigt, wie das geht. Frühbuchertickets und Gruppenrabatte sind im Online-Ticketshop verfügbar.

Wie das Wasmer-Team die Beweggründe hinter der neuen Runtime erklärt, hat Node.js zwei Schwierigkeiten: Es ist an V8 als einzige JavaScript-Engine gebunden und kann Workloads nicht sicher ohne Containerisierung oder Hardwarevirtualisierung ausführen. Das haben auch andere Anbieter wie Deno oder Bun erkannt und eigene JavaScript-Runtimes entwickelt, doch Wasmer besitzt mit Edge.js nach eigenen Angaben die erste vollständig in einer Sandbox laufende Variante ohne Docker-Container.

Edge.js verwendet die Node-API (ehemals N-API) als Abstraktions-Layer, eine API für das Erstellen nativer Add-ons, die als Teil von Node.js gepflegt wird und die V8-Engine wegabstrahiert. Dadurch lassen sich in Edge.js auch JavaScriptCore und QuickJS als JavaScript-Engines einsetzen. Für das System-Call-Sandboxing kommt WASIX zum Einsatz, ein Superset des modularen System-Interfaces für WebAssembly namens WASI (WebAssembly System Interface).

Laut Wasmer setzt Edge.js auf die Kompatibilität mit Node.js 24 und kann alles ausführen, was auch Node.js ausführen kann – darunter alle entsprechenden Frameworks wie Next.js oder Astro. Derzeit ist Edge.js 5 fünf bis 20 Prozent langsamer als Node.js bei nativer Ausführung, und 30 Prozent langsamer bei vollem Sandboxing mit Wasmer. Auch die Start-up-Zeiten von Anwendungen sind langsamer als bei Node.js. An der Geschwindigkeit plant das Entwicklungsteam auf dem Weg zu Edge.js 1.0 zu arbeiten. Ein konkretes Ziel lautet, dass Edge.js für die meisten Workloads schneller sein soll als Bun oder Deno.

Weiterlesen nach der Anzeige

Das Wasmer-Team gibt an, für die Implementierung von Edge.js auf künstliche Intelligenz, hauptsächlich auf OpenAI GPT-5.4, zurückgegriffen zu haben. Ein kleineres Start-up wie Wasmer hätte ansonsten mindestens ein oder zwei Jahre für dieses Projekt gebraucht, statt lediglich weniger Wochen. Dank des KI-Coding-Agenten OpenAI Codex konnten sich demnach auch Developer im Team ohne Expertise in C++ oder Node.js beim Bugfixing einbringen.

Weitere Informationen zum initialen Edge.js-Release bietet der Wasmer-Blog.


(mai)



Source link

Entwicklung & Code

IntelliJ IDEA 2025.3.4 unterstützt Java 26 vollständig


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Das Update der Entwicklungsumgebung IntelliJ IDEA 2025.3.4 von JetBrains unterstützt nun das am 17. März veröffentlichte Java 26 vollständig. Außerdem spendiert die Firma dem Agenten-Framework Koog eine Java-API.

Weiterlesen nach der Anzeige

Entwicklerinnen und Entwickler können nach dem Update mit allen zehn der großen Neuerungen von Java 26 arbeiten, mit den fünf stabilen, wie HTTP/3, und den fünf Previews, wie Pattern Matching mit Primitives.

Um Preview-Funktionen freizuschalten, stellt man die Sprachstufe in der IDE auf „Language level to 26 (Preview) – Primitive types in patterns (Fourth preview)“. Dann blendet IntelliJ alle Hilfen auch für diese Sprachstufe an, einschließlich Inspections and Quick-fixes ein. Bei den Preview-Funktionen zeigt das Tool zusätzlich einen Warnhinweis, da Anwender sie möglicherweise nicht in Code für die Produktion einsetzen möchten.

JetBrains unterstützt auch noch unreife Incubator-Funktionen von Java 26 wie die Verctor API. Zur Nutzung ist ein spezieller Schalter erforderlich: --add-modules jdk.incubator.vector.

Darüber hinaus gibt es kleinere Bugfixes und Verbesserungen in der IDE. Beispielsweise beseitigt das Update einen Fehler, der falsche HTTP-Requests auslöst; und der Tab für Dependencies in der Funktion Analyze Cyclic Dependencies öffnet sich nun richtig. Im DB-Explorer lassen sich jetzt Knoten von Abfragedateien verstecken und beim Language Server für Astro gibt es Verbesserungen im automatischen Vervollständigen.

Für den Einsatz von Java 26 ist das entsprechende JDK erforderlich. Das lässt sich direkt in IntelliJ oder mithilfe von Tools wie SDKMAN laden. Ebenfalls zum Download steht ein neuer Build von Project Valhalla. Das Update von IntelliJ lässt sich innerhalb der IDE mit der Toolbox installieren, über Ubuntu-Snaps oder von der Webseite laden.

Weiterlesen nach der Anzeige

Neu von JetBrains ist zudem eine Java-API für das Agenten-Framework Koog, die Zugriff auf alle Funktionen des ursprünglich rein für Kotlin entwickelten Frameworks bietet: Planung und Organisation von agentischen Workflows, alle größeren Modelle, Spring Boot oder Observability.

Ebenfalls ein Update gibt es für die Programmiersprache Kotlin 2.3.30, das ein neues Modell für die Nutzung der C-Bibliotheken bietet und kompatibel zu Gradle 9.3 ist.


(who)



Source link

Weiterlesen

Entwicklung & Code

Intel stellt Notebook-Topmodell Core Ultra 9 290HX Plus vor


Intel stellt die beiden Mobilprozessoren Core Ultra 9 290HX Plus und Core Ultra 7 270HX Plus vor. Sie gehören wie schon die Plus-Modelle für Desktop-PCs zur Baureihe Arrow Lake Refresh. Die Neuauflage für Notebooks ist nur logisch: Die HX-Prozessoren nutzen die gleichen Chips wie die Desktop-CPUs, Intel kann die Optimierungen also einfach übernehmen. Sie sind für High-End-Notebooks und mobile Workstations gedacht, für die es keine neueren Panther-Lake-Modelle gibt.

Weiterlesen nach der Anzeige

Die Notebook-Typen erhalten zwei Verbesserungen: Die Datenverbindung zwischen den Chiplets (Die-to-Die-Taktfrequenz) steigt von 2,1 auf 3,0 GHz. Zudem bietet Intel ein Binary Optimization Tool an, das in bestimmten Spielen und Anwendungen den Code für die Plus-Prozessoren optimiert. Der Hersteller sieht die Optimierungen ausschließlich für den Arrow Lake Refresh vor.


(Bild:

Intel

)

Intel zeigt Vergleichs-Benchmarks in 32 Spielen, die in Full-HD-Auflösung (1920 × 1080 Pixel) und hohen Grafikeinstellungen entstanden sind. Der Core Ultra 9 290HX Plus soll durchschnittlich acht Prozent schneller sein als das bisherige Topmodell Core Ultra 9 285HX. In 12 der 32 Spiele bringt das Binary Optimization Tool Vorteile. In Anwendungen nennt Intel einen Vorteil von sieben Prozent.


(Bild:

Intel

)

Die Produktseiten der neuen Prozessoren zeigen noch Unterschiede bei den Taktfrequenzen: Zwar können die Effizienzkerne in der Spitze minimal höher takten, jedoch sinkt der Basistakt der E-Kerne um 300 MHz auf 1,8 GHz. Bei den Performance-Kernen sinkt der Basistakt minimal, der maximale Turbo bleibt gleich. Der Core Ultra 9 290HX Plus schafft bis zu 5,5 GHz, der Core Ultra 7 270HX Plus 5,3 GHz.

Notebook-Hersteller können ab sofort Geräte mit dem Core Ultra 9 290HX Plus und Core Ultra 7 270HX Plus vorstellen. Zahlreiche Hersteller stellen bestehende Designs um.

Weiterlesen nach der Anzeige

Für Desktop-PCs kommt derweil kein Core Ultra 9 290K Plus, weil Intel da weniger Spielraum für Verbesserungen hat. Schon der bereits erhältliche Core Ultra 9 285K hat mit dem 200S Boost eine erhöhte Die-to-Die-Taktfrequenz. Das Binary Optimization Tool allein rechtfertigt offenbar keine Neuauflage.


(mma)



Source link

Weiterlesen

Entwicklung & Code

KI beschleunigt Code, verzögert aber Tests


Generative KI hat die Produktivität beim Programmieren deutlich erhöht. Eine Studie von GitHub Research zeigt, dass Entwickler Programmieraufgaben in kontrollierten Experimenten mit KI-Assistenz rund 55 Prozent schneller erledigen als ohne Unterstützung. Doch der Geschwindigkeitsgewinn beim Schreiben von Code mittels KI-Systemen bedeutet nicht automatisch, dass Softwareprojekte insgesamt schneller vorankommen. Eine Untersuchung des Forschungsinstituts METR (Model Evaluation and Threat Research) zeigt, dass erfahrene Entwickler bei Arbeiten in vertrauten Code-Umgebungen mit KI-Werkzeugen im Schnitt 19 Prozent länger benötigen – vor allem wegen zusätzlicher Prüf- und Korrekturschritte. Ein Grund: Sie müssen sich bei Fehlern erst in den von der KI erzeugten Code einarbeiten.

Weiterlesen nach der Anzeige

Da Testen, Debugging und Verifikation schon in der herkömmlichen Softwareentwicklung rund die Hälfte des Zeitaufwands ausmachen, schlagen Verzögerungen bei diesen Arbeiten besonders stark auf die Projektlaufzeit durch. Mit KI-Werkzeugen beim Programmieren verschiebt sich der Engpass: Das Erzeugen von Code wird einfacher und schneller – der Nachweis, dass er korrekt funktioniert und freigegeben werden kann, bleibt aufwendig. Das wiegt umso schwerer, weil die Kosten für Fehler mit jeder späteren Projektphase steigen. Eine vielzitierte Analyse des IBM Systems Sciences Institute beziffert den Unterschied: Während der Implementierung ist die Behebung eines Fehlers sechsmal teurer als in der Designphase. Beim Testen steigt der Faktor auf 15, in der Produktion auf bis zu 100. Gerade in komplexen Unternehmenssystemen wird das zum Problem. Moderne Anwendungen bestehen aus vielen Services, Programmierschnittstellen (APIs) und Datenquellen. Eine Änderung an einer Stelle kann unerwartete Nebenwirkungen an vielen anderen auslösen. Je schneller KI-Werkzeuge neuen Code produzieren, desto häufiger entstehen solche Wechselwirkungen – und damit zusätzliche Fehlerquellen.

Um diesen Engpass abzumildern, kommen zunehmend KI-Systeme auf den Markt, die neue oder geänderte Programme schneller testen sollen. Das führt jedoch zu einem grundlegenden Wandel in der Testmethodik. Klassisches Softwaretesten folgt einem deterministischen Modell: gleicher Input, gleiches Programm, identischer Output. Genau darauf beruhen Testläufe, bei denen Funktionen mit definierten Parametern aufgerufen werden und exakt die erwarteten Ergebnisse liefern müssen. Doch bei KI-Systemen gilt dieses Prinzip nur noch eingeschränkt. Große Sprachmodelle und andere generative Verfahren arbeiten auf Basis statistischer Wahrscheinlichkeiten und liefern Ergebnisse innerhalb einer Bandbreite möglicher Antworten. Die Qualität eines Systems lässt sich deshalb nicht mehr allein mit Ja-Nein-Tests überprüfen. Entscheidend ist, ob sich das Verhalten innerhalb akzeptabler Grenzen bewegt. Damit verschiebt sich auch der Fokus der Qualitätssicherung (QA). Statt vollständiger Testabdeckung rückt ein risikobasierter Ansatz in den Vordergrund: Kritische Funktionen und Schnittstellen prüfen Teams intensiver, weniger relevante Teile mit geringerer Tiefe. Ziel ist nicht mathematische Vollständigkeit, sondern eine belastbare Einschätzung des Restrisikos.

Zu den Anbietern KI-gestützter Werkzeuge gehören Keysight Eggplant, SmartBear, OpenText und Tricentis. Letzterer hat kürzlich eine „Agentic Quality Engineering Platform“ vorgestellt – eine Plattform, auf der autonom agierende KI-Agenten Qualitätssicherungsaufgaben übernehmen. Sie unterstützt unter anderem die SAP-GUI und Web-Anwendungen. Hierzu nutzt die Plattform generative KI, um Testfälle zu erzeugen, bestehende Tests zu priorisieren und Ergebnisse großer Testläufe zusammenzufassen. Technisch geht es dabei weniger um „KI testet Software“ als um die Unterstützung typischer QA-Arbeitsschritte: Änderungen im Code analysieren, relevante Tests auswählen, Fehlermeldungen gruppieren oder umfangreiche Logdateien verdichten. Der Ansatz zielt auf einen der zeitaufwendigsten Schritte im Testprozess: die Auswertung großer Mengen von Testergebnissen. In Continuous-Integration-Umgebungen laufen oft mehrere tausend Tests pro Commit, deren Resultate Entwickler anschließend interpretieren müssen. KI-Werkzeuge können helfen, Muster schneller zu erkennen und Fehlerursachen besser einzugrenzen. Der Nutzen verschiebt sich damit vom Generieren einzelner Tests hin zur Organisation und Auswertung ganzer Testlandschaften.

Trotz dieser Entwicklungen bleibt der Einsatz KI-basierter Tests begrenzt. Viele Aspekte der Softwarequalität lassen sich nicht aus Testläufen ableiten. Dazu gehören Sicherheitsprobleme, strukturelle Code-Schwächen oder die Vermeidung technischer Schulden – also aufgeschobener Wartungs- und Modernisierungsarbeiten, die langfristig den Entwicklungsaufwand erhöhen. Solche Fragen betreffen die Architektur einer Anwendung und nicht nur ihr Laufzeitverhalten. Statische Codeanalyse (Static Analysis), die den Quellcode ohne Ausführung auf Fehler und Schwachstellen untersucht, Security Audits und klassische Code Reviews bleiben daher notwendig. Generative KI kann hier allenfalls Hinweise liefern, ersetzt aber keine systematische Analyse. Besonders bei sicherheitskritischen Anwendungen ist automatisches KI-Testing kein ausreichender Qualitätsnachweis.

Weiterlesen nach der Anzeige

Diese Grenzen führen zu einem Grundprinzip moderner Entwicklungsprozesse: Der Mensch bleibt Teil der Entscheidungskette. Automatisierte Tests können Hinweise liefern und große Datenmengen auswerten, doch die Freigabe eines Releases bleibt eine Risikoabwägung. In vielen Unternehmen entscheiden deshalb weiterhin Entwickler- oder QA-Teams darüber, ob eine neue Softwareversion in Produktion gehen darf. KI kann diesen Prozess beschleunigen, indem sie Informationen verdichtet und Routineaufgaben übernimmt. Die Verantwortung für die Freigabe bleibt jedoch beim Menschen. Wie riskant eine unzureichende Kontrolle ist, zeigten jüngst durch KI-Tools verursachte Ausfälle bei Amazon, nach denen der Konzern strengere Prüfmechanismen einführte.

Generative KI beschleunigt das Schreiben von Code erheblich, erhöht aber zugleich den Aufwand für dessen Verifikation. Mehr generierter Code bedeutet mehr Varianten, mehr Integrationspunkte und damit mehr potenzielle Fehlerrisiken. KI kann beim Erzeugen von Testfällen und bei der Analyse großer Testläufe helfen, löst aber nicht alle Qualitätsprobleme. Fragen der Sicherheit, Architektur und technischer Schulden bleiben Aufgaben von Entwicklern und Review-Prozessen. Entscheidend bleibt: Ob eine Softwareversion in Produktion gehen darf, ist eine menschliche Entscheidung.

Lesen Sie auch


(fo)



Source link

Weiterlesen

Beliebt