Connect with us

Entwicklung & Code

Webframework: Astro 6.0 experimentiert mit neuem Rust-Compiler


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Das quelloffene JavaScript-Framework Astro hat Version 6.0 erreicht. Darin sind zahlreiche Neuerungen enthalten, unter anderem eine Überarbeitung des Entwicklungsservers und eine integrierte Fonts-API. Die bestehenden Features Live Content Collections und Content-Security-Policy-API sind nun stabil. Als experimentelle Funktion steht ein neuer Rust-Compiler als Nachfolger des Go-basierten Compilers in den Startlöchern.

Weiterlesen nach der Anzeige




(Bild: jaboy/123rf.com)

Tools und Trends in der JavaScript-Welt: Die enterJS 2026 wird am 16. und 17. Juni in Mannheim stattfinden. Das Programm dreht sich rund um JavaScript und TypeScript, Frameworks, Tools und Bibliotheken, Security, UX und mehr. Frühbuchertickets sind im Online-Ticketshop erhältlich.

Wie das Astro-Team ausführt, begann der neue Rust-Compiler zunächst nur als KI-Experiment. Aber da er sich als schneller und teils sogar zuverlässiger erwiesen hat als der Go-Compiler, soll er in Zukunft zum Standard werden. Interessierte können ihn bereits ausprobieren, indem sie das rustCompiler-Flag aktivieren und das entsprechende Package installieren (npm install @astrojs/compiler-rs). Auch an weiterem Rust-basierten Tooling arbeiten die Astro-Entwickler nach eigenen Angaben bereits.

In Astro 6.0 finden Entwickler eine integrierte Fonts-API vor. Damit lassen sich Fonts mithilfe lokaler Dateien oder Anbietern wie Google oder Fontsource konfigurieren. Anschließend übernimmt Astro weitere Arbeiten wie das Herunterladen und Caching für Selbst-Hosting oder das Generieren optimierter Fallbacks.

Bereits seit Astro 2.0 sind Content Collections mit an Bord. Damit können Entwicklerinnen und Entwickler Sets an strukturierten Inhalten in Astro-Projekten verwalten, beispielsweise Blogeinträge oder Produktbeschreibungen. Astro kann hierfür mit lokal gespeicherten Daten in den Formaten Markdown, MDX, Markdoc, YAML, TOML oder JSON umgehen. Bisher erforderten Content Collections einen Rebuild, wenn sich Inhalte änderten.

Das gehört dank der nun stabilen Live Content Collections der Vergangenheit an: Sie erfassen den Content zur Request-Zeit und erlauben eine unverzügliche Aktualisierung von Inhalten ohne Rebuild. Astro-Developer können eine Live-Quelle in der Datei src/live.config.ts mittels defineLiveCollection() festlegen. Parallel zu den Live Content Collections lassen sich im gleichen Projekt auch die klassischen Content Collections nutzen.

Weiterlesen nach der Anzeige

Ebenfalls stabil ist ein sicherheitsrelevantes Feature, die Content-Security-Policy-API. Laut dem Astro-Team ist Astro eines der ersten JavaScript-Metaframeworks, die integrierten Support für Content Security Policy (CSP) für statische und dynamische Seiten sowohl in Server- als auch Serverless-Umgebungen bieten.

Astros Entwicklungsserver astro dev wurde überarbeitet, um mit Runtimes abseits von Node.js, wie Cloudflares workerd-Laufzeit, zusammenzuspielen. Dazu kommt Vites neue Environment API zum Einsatz. Da der Dev-Server ursprünglich auf Node.js ausgelegt war, konnten Developer unter Verwendung anderer Runtimes wie Cloudflare Workers, Bun oder Deno die eigentliche Produktionslaufzeit bisher nicht während der Entwicklung einsetzen. Nun können sie während der Entwicklung eine benutzerdefinierte Laufzeitumgebung auswählen. Dev-Server und Build-Pipeline verwenden in Astro 6.0 die gleichen Codepfade.

Diese Überarbeitung entspringt der offiziellen Partnerschaft mit dem Unternehmen Cloudflare, das im Herbst letzten Jahres Astro mit 150.000 US-Dollar unterstützte. Im Januar 2026 wurde Astro von Cloudflare übernommen, soll jedoch Open Source bleiben.

Weitere Details zu den Neuerungen in Astro 6.0 lassen sich dem Astro-Blog entnehmen.

Lesen Sie auch


(mai)



Source link

Entwicklung & Code

Bericht: Nvidia bereitet KI-Agentenplattform „NemoClaw“ vor


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Weiterlesen nach der Anzeige

Nvidia folgt dem Hype um den KI-Agenten OpenClaw und entwickelt eine Plattform namens „NemoClaw“ speziell für Unternehmen, berichtet Wired unter Berufung auf mehrere Personen, die mit Nvidias Plänen vertraut sein sollen. Die Plattform soll es Unternehmen ermöglichen, KI-Agenten einzusetzen, die Aufgaben für die eigene Belegschaft übernehmen.

Da es sich um ein Open-Source-Projekt handeln soll, wird der Code nicht nur Unternehmen zur Verfügung stehen. Nvidia will Unternehmenspartnern jedoch zusätzliche Werkzeuge für Sicherheit und Datenschutz bereitstellen, um zentrale Risiken beim Einsatz autonomer KI-Agenten zu reduzieren. Außerdem könnten sie laut Bericht frühzeitig und kostenlos Zugang zu „NemoClaw“ erhalten, wenn sie sich an der Entwicklung beteiligen.

Der Chiphersteller habe „NemoClaw“ bereits bei verschiedenen großen Softwareanbietern beworben. Der Wired-Bericht nennt Salesforce, Cisco, Google, Adobe und CrowdStrike als mögliche Partner. Ob aus den Gesprächen konkrete Kooperationen hervorgegangen sind, sei allerdings noch unklar.

Dem Bericht zufolge sei es wahrscheinlich, dass mögliche Partner die Plattform unabhängig davon nutzen können, ob ihre KI-Agenten auf Nvidia-Chips laufen.

Der Verzicht auf eine Bindung an Nvidia-GPUs ist eher ungewöhnlich für Nvidia. Bisher stützte sich das Softwareökosystem des Konzerns stark auf die proprietäre Plattform CUDA, die Entwickler faktisch an Nvidia-Hardware bindet und dem Unternehmen einen wichtigen Wettbewerbsvorteil verschafft hat.

Der Open-Source-Ansatz ist ebenfalls bemerkenswert, auch wenn es dafür bereits Beispiele gibt: So veröffentlichte Nvidia im Dezember mit Nemotron 3 Nano ein KI-Modell, das fast vollständig Open Source ist.

Weiterlesen nach der Anzeige

„NemoClaw“ könnte ein weiterer Schritt in Richtung Öffnung sein, der womöglich durch den zunehmenden Erfolg offener KI-Modelle motiviert ist. Viele Start-ups und Entwickler nutzen solche frei verfügbaren Modelle, um neue Anwendungen zu testen oder eigene Produkte darauf aufzubauen.

Hinzu kommt, dass große KI-Anbieter zunehmend eigene Chips entwickeln oder entwickeln lassen, um sich langfristig unabhängiger von Nvidia zu machen. In dieses Bild passt auch Nvidias Partnerschaft mit dem Start-up Groq, das sogenannte Inferenz-Chips entwickelt. Diese sind weniger für das Training von KI-Modellen gedacht, als dafür, bereits trainierte KI im Alltag möglichst schnell und energieeffizient antworten zu lassen.

Das Wall Street Journal berichtete kürzlich, dass Nvidia auf der kommenden Entwicklerkonferenz GTC einen eigenen Inferenz-Chip auf Basis eines Groq-Designs vorstellen könnte. Womöglich gibt es dann auch Konkretes zu „NemoClaw“ zu erfahren. Die Konferenz findet vom 16. bis 19. März in San José statt.

Der KI-Agent OpenClaw sorgte Anfang des Jahres für große Aufmerksamkeit in der KI-Szene. Das Open-Source-Projekt des Entwicklers Peter Steinberger unterscheidet sich deutlich von klassischen KI-Chatbots, die meist nur auf einzelne Eingaben reagieren und Antworten generieren. Der auf einem lokalen Rechner laufende OpenClaw kann dagegen mehrstufige Aufgaben selbstständig ausführen und dabei verschiedene Programme oder Online-Dienste steuern.

Gleichzeitig birgt dieser Ansatz auch Risiken, da die mächtigen KI-Agenten mit weitreichenden Zugriffsrechten potenziell Schaden anrichten können, wenn sie fehlerhaft arbeiten oder manipuliert werden. Die chinesische Cybersicherheitsbehörde hat deshalb erst kürzlich Behörden, Staatsbetrieben sowie Banken davon abgeraten, den KI-Agenten auf Arbeitsgeräten zu installieren. OpenAI nahm Steinberger im Februar unter Vertrag, OpenClaw ist aber weiterhin Open Source.


(tobe)



Source link

Weiterlesen

Entwicklung & Code

Community-Protest erfolgreich: Galera bleibt Open Source in MariaDB


Nach Protesten der Open-Source-Community hat das Unternehmen MariaDB plc die geplante Entfernung der Galera-Clustering-Technologie aus dem Community-Server von MariaDB zurückgenommen. Die Open-Source-Hochverfügbarkeit bleibt damit in Version 12.3 enthalten, Alternativen dazu hätte es nur in den kommerziellen Angeboten gegeben.

Weiterlesen nach der Anzeige

Wie Max Mether, Vice President, Server Product Management der Firma, in einem Blogbeitrag erklärte, ist das Feedback der Community „ein wichtiger Bestandteil von MariaDB, und kürzlich habt ihr euch zur Aufnahme von Galera Cluster in die Version 12.3 geäußert“. Nach sorgfältiger Prüfung habe man daraufhin entschieden, die Galera-Cluster-Bibliotheken in unveränderter Form mit dem Community-Server weiterhin auszuliefern.

Anfang Februar 2026 war bekannt geworden, dass MariaDB offenbar plante, die unter GPLv2 lizenzierte Galera-Technik aus künftigen Versionen des Community-Servers zu entfernen. Federico Razzoli, Gründer des Datenbankdienstleisters Vettabase – einem Silber-Sponsor der MariaDB Foundation –, hatte unter Berufung auf einschlägige Diskussionen bei GitHub auf LinkedIn öffentlich dokumentiert, dass Galera-Abhängigkeiten bereits ohne Commit-Meldungen oder Aufgabenbeschreibungen aus den Binärdateien entfernt worden waren. Die Kritik verbreitete sich schnell in der Community. Besonders einflussreich für das Umdenken des Unternehmens waren laut MariaDB die Rückmeldungen von Frédéric (lefred) Descamps (Community Advocate der MariaDB Foundation) und René Bonvanie (Board Member der MariaDB Foundation).

Galera ermöglicht synchrone Multi-Master-Replikation für MariaDB-Datenbanken. Dabei fungieren mehrere Server als gleichberechtigte Knoten in einem Cluster, wobei jeder Knoten Schreibvorgänge akzeptieren und automatisch an andere Knoten replizieren kann. Die Technik gilt als essenziell für hochverfügbare Produktionsumgebungen. Nachdem MariaDB die Galera-Technik von Codership bereits erstmals 2013 integriert hatte, entschlossen sich die Verantwortlichen im Mai 2025, das Entwicklerunternehmen Codership Oy komplett zu übernehmen.

Weiterlesen nach der Anzeige

Die MariaDB Foundation bestätigte in einem eigenen Blogbeitrag, dass es einen offenen Dialog zwischen Foundation und Unternehmen gegeben habe. Kaj Arnö, Executive Chairman der Foundation, charakterisierte die Zusammenarbeit als von „gegenseitigem Respekt und einem gemeinsamen langfristigen Interesse am MariaDB-Ökosystem“ geprägt. Unklar bleibt jedoch, wie die weitere Zukunft für die Galera-Entwicklung als Teil von MariaDB aussehen kann und ob die Community Edition weiterhin Galera-Updates erhalten wird.

Denn wie Max Mether in seinem Blogbeitrag auch unmissverständlich deutlich macht, verfolgt das Unternehmen mehrere Wege, Anwenderinnen und Anwendern Funktionen für die Hochverfügbarkeit bereitzustellen. Neben Galera im Community-Server sind dies vor allem der auf Galera aufbauende MariaDB Enterprise Cluster sowie der als Tech Preview verfügbare MariaDB Advanced Cluster, der das Raft-Protokoll verwendet, um verbesserte Skalierbarkeit und Datenkonsistenz auch über geografische Regionen hinweg zu gewährleisten. Beide Versionen stehen ausschließlich als kommerzielle Angebote von MariaDB zur Verfügung.

Während sich die MariaDB Foundation vor diesem Hintergrund weiter für eine vertrauensvolle Nutzung von Galera durch die Community einsetze, stellt die offizielle Erklärung von CEO Anna Widenius im Blog der Foundation aber auch klar, dass Entscheidungen über die zukünftige Entwicklung und Zuweisung von technischen Ressourcen allein in der Verantwortung von MariaDB plc liegen. Als Eigentümer von Galera kontrolliere das Unternehmen sowohl dessen Roadmap und die Namensgebung als auch die dahinterstehenden Entwicklungsressourcen.

Die Affäre offenbart einmal mehr strukturelle Spannungen zwischen den kommerziellen Interessen von MariaDB plc und den Open-Source-Idealen der Foundation. Razzoli forderte öffentlich, MariaDB plc solle auf seiner Website zusichern, dass die Open-Source-Software offen bleibe. Die Sorge: Das Unternehmen könnte Funktionen aus der freien Version entfernen, um Nutzer zu proprietären Angeboten zu bewegen.

Lesen Sie auch

MariaDB hat in den vergangenen Jahren turbulente Zeiten hinter sich. Nach einem SPAC-gestützten Börsengang Ende 2022 folgten Entlassungen, Warnungen zur Unternehmensfortführung und ein Kursverfall. Im Dezember 2023 gliederte das Unternehmen seinen DBaaS-Dienst SkySQL aus und wurde selbst im September 2024 privatisiert und holte SkySQL Mitte 2025 wieder zurück. Kaj Arnö hatte nach der Privatisierung erklärt, dass „Vernunft“ in die Beziehung zwischen Community und Unternehmen zurückgekehrt sei. Die Galera-Kontroverse zeigt jedoch, dass das Vertrauen weiterhin fragil ist – und dass die Community bereit ist, sich lautstark für den Erhalt offener Technologien einzusetzen.


(map)



Source link

Weiterlesen

Entwicklung & Code

KI-Agenten unter sich: Meta schluckt Moltbook-Plattform


Meta hat sich den Reddit-Klon der KI-Agenten einverleibt: Die Plattform Moltbook erregte vor einigen Wochen Aufsehen als Treffpunkt für KI-Agenten. Verschiedene Computer, auf denen die KI-Software OpenClaw installiert war, tauschten sich in dem Forum offenbar über ihre menschlichen Besitzer und ihre Erfahrungen aus. Jetzt hat Meta mit dem Portal auch die Gründer Matt Schlicht und Ben Parr angeheuert und will sie künftig in seinen Meta Superintelligence Labs (MSL) beschäftigen. Den Kaufpreis hat das Unternehmen nicht bekanntgegeben.

Weiterlesen nach der Anzeige

Was genau Meta sich von der Übernahme von Moltbook verspricht, ist unklar. Meta-CTO Andrew Bosworth sagte noch im Februar während einer Fragestunde auf Instagram, dass er es nicht besonders interessant finde, wenn auf Moltbook KI-Agenten menschenähnlich schreiben. Schließlich seien sie auf menschlichen Daten trainiert.

Moltbook sorgte primär dafür, dass OpenClaw einer breiteren Öffentlichkeit bekannt wurde. Die eigentliche KI-Leistung ging aber von OpenClaw aus. Der Wrapper für KI-Modelle, der es ermöglicht, KI-Agenten über populäre Chat-Apps wie iMessage, Discord, Slack oder WhatsApp in natürlicher Sprache anzusprechen, war zuvor vor allem in der Tech-Community bekannt. OpenClaw-Erfinder Peter Steinberger wurde übrigens auch von der KI-Industrie übernommen – er schloss sich OpenAI an.

Beide Projekte – Moltbook und OpenClaw – haben gemeinsam, dass sie per Vibecoding entstanden sind. Die jeweiligen Entwickler haben dabei natürlichsprachliche Prompts eingesetzt, um von KI-Modellen Code generieren zu lassen – klassisches Programmierhandwerk war kaum gefragt.

Hinzu kommt, dass schnell Zweifel an der Authentizität der Beiträge auf Moltbook aufkamen. Sicherheitsforscher fanden heraus, dass es recht einfach möglich war, Tokens aus einer ungesicherten öffentlichen Datenbank zu laden, um sich damit als beliebiger Agent auszugeben. Für Furore sorgte etwa ein Post, der scheinbar zeigte, wie ein KI-Agent andere dazu anstiftete, eine geheime Sprache zu entwickeln, um sich ohne Wissen der Menschen zu organisieren. Dahinter steckte jedoch in Wirklichkeit ein Mensch.

Lesen Sie auch


(mki)



Source link

Weiterlesen

Beliebt