Connect with us

Entwicklung & Code

Google will Android durch Optimierungen am Kernel schneller machen


Google führt einen neuen Optimierungstrick ein, um den Linux-Kernel von Android schneller laufen zu lassen. Dazu analysiert das System, wie Smartphone und Apps im Alltag genutzt werden und organisiert dann den Code von Android neu. Damit sollen die am häufigsten verwendeten Komponenten effizienter laufen. Dafür wird das Android LLVM-Toolchain-Team (LLVM stand ehemals für Low Level Virtual Machine) die automatische feedback-gesteuerte Optimierung (AutoFDO) in den Kernel integrieren.

Weiterlesen nach der Anzeige

Das LLVM-Toolchain-Team erklärt in einem Blogbeitrag im Android-Developers-Blog, dass der LLVM-Compiler bei einer Standard-Softwareerstellung Tausende kleiner Entscheidungen treffe, „beispielsweise ob eine Funktion inline ausgeführt werden soll und welcher Zweig einer Bedingung wahrscheinlich genommen wird, basierend auf statischen Codehinweisen“. Diese Heuristiken seien zwar nützlich, so die Entwickler, „sie sagen jedoch nicht immer die Codeausführung während der tatsächlichen Nutzung des Telefons genau voraus“.

AutoFDO verwende dafür hingegen reale Ausführungsmuster, um den Compiler zu steuern. Laut Google stellen die Muster „die häufigsten Befehlsausführungspfade dar, die der Code während der tatsächlichen Nutzung nimmt, und werden durch Aufzeichnung der Verzweigungshistorie der CPU erfasst“. Weiter heißt es, dass diese Daten zwar von Flottengeräten gesammelt werden können, Google synthetisiere diese bei der Entwicklung für den Kernel in einer Laborumgebung unter Verwendung repräsentativer Workloads, wie etwa der Ausführung der 100 beliebtesten Apps.

Dabei verwende das LLVM-Toolchain-Team einen Sampling-Profiler, um diese Daten zu erfassen und zu identifizieren, welche Teile des Codes häufig und welche weniger oft genutzt werden. „Wenn wir den Kernel mit diesen Profilen neu erstellen, kann der Compiler viel intelligentere Optimierungsentscheidungen treffen, die auf die tatsächlichen Android-Workloads zugeschnitten sind“, so Google.

Weiterlesen nach der Anzeige

Google verfolge bei der Technik eine „standardmäßig konservative“ Strategie, womit der Hersteller sicherstellen möchte, dass AutoFDO die Geschwindigkeit verbessere, ohne dabei Kompromisse in anderen Bereichen wie der Zuverlässigkeit einzugehen.

Die Vorteile des Verfahrens sind laut Google klar messbar: Interne Tests auf Pixel-Geräten zeigten eine Reduktion der Bootzeit des Betriebssystems um ein Prozent und eine Verbesserung beim Kaltstart von Apps um rund vier Prozent. Diese Änderungen führen in der Praxis zu einer „flüssigeren Benutzeroberfläche, schnellerem App-Wechsel, längerer Akkulaufzeit und insgesamt zu einem reaktionsschnelleren Gerät für den Endbenutzer“, führt Google aus.


Grafik: Was AutoFDO optimieren soll

Grafik: Was AutoFDO optimieren soll

AutoFDO soll das Android-System beschleunigen.

(Bild: Google)

Der Android-Kernel ist einer der wichtigsten Bestandteile von Googles mobilem Betriebssystem. Er bildet gewissermaßen das Herzstück von Android und steuert die Kommunikation zwischen CPU, Apps und der Hardware. Google zufolge macht der Kernel etwa 40 Prozent der CPU-Rechenzeit auf Android-Geräten aus. Entsprechend können schon kleinere Optimierungen einen Einfluss auf die Leistung eines Smartphones haben.

AutoFDO wird derzeit über das Generic-Kernel-Image in den Kernel-Zweigen android16-6.12 (Linux-Kernel 6.12 für Android 16) und android15-6.6 bereitgestellt. Die Unterstützung soll auch auf neuere GKI-Versionen ausgeweitet werden, wie beispielsweise die kommende Version android17-6.18. Google ist außerdem daran interessiert, AutoFDO auf Herstellermodule auszuweiten, die mit dem Driver Development Kit (DDK) erstellt wurden. Das „Generic Kernel Image“ wurde mit Android 11 eingeführt und soll die Kernel-Fragmentierung beheben.

Lesen Sie auch


(afl)



Source link

Entwicklung & Code

Eclipse IDE 2026-03: Mehr Refactoring und individuelles Syntax-Highlighting


Eclipse, die Open-Source-IDE für Java, C/C++ und andere Programmiersprachen, ist in der Version 2026-03 erschienen. Sie ist nicht nur als eigenständige Entwicklungsumgebung verfügbar, sondern ihre Komponenten stecken auch in anderen Entwicklungswerkzeugen. So basieren etwa die Java-Sprachunterstützung in Visual Studio Code und dessen Forks wie Cursor auf Eclipse. Neben kleineren Verbesserungen bei der Bedienung gibt es eine neue Java-Refactoring-Funktion, um eine Klasse mit unveränderlichen Daten in einen Datentyp record umzuwandeln. Neu sind außerdem benutzerdefinierte Vorlagen für das Syntax-Highlighting, die die Eclipse IDE für gut 40 Programmiersprachen bietet.

Weiterlesen nach der Anzeige

Das Release bietet noch keine Unterstützung für Java 26, das am 17. März erscheinen soll. Eine Vorabversion wird voraussichtlich zum offiziellen Start der kommenden Java-Version über den Eclipse-Marketplace verfügbar sein.

Neu ist die Java-Refactoring-Funktion „Convert Class to Record“. Sie lässt sich über das Haupt- oder Kontextmenü unter Refactor aufrufen und ist zudem als Quick-Assist-Vorschlag verfügbar Strg+1. Ebenfalls neu sind die beiden Quick-Assist-Vorschläge zum Deaktivieren und erneuten Aktivieren von JUnit-Testmethoden. Beim Debuggen gibt es zwei kleinere Verbesserungen, die die Bedienung betreffen. Hält der Debugger an einem der im vorherigen Release eingeführten Lambda Entry Breakpoints, markiert der Editor nun den Lambda-Ausdruck statt wie bisher die ganze Zeile. So lässt sich erkennen, an welchem Lambda-Ausdruck der Debugger gestoppt hat, wenn es mehrere verkettete Lambda-Ausdrücke in einer Zeile gibt. Neu ist zudem, dass man Variablen und Ausdrücke aus den Ansichten „Variables“ und „Expressions“ per Drag & Drop in die Debug Shell ziehen kann.

In den Einstellungen lassen sich unter TextMate | Templates individuelle Vorlagen für das Syntax Highlighting erstellen. Anschließend sind sie bei der Codevervollständigung mit Strg+Leertaste verfügbar. Das Icon der Konsolenansicht ändert sich je nach aktuell aktiver Konsole. Das ist insbesondere hilfreich, wenn mehrere Konsolenansichten geöffnet sind.

Weiterlesen nach der Anzeige

Da Tags bei Git üblicherweise für die Versionierung dienen und höhere Versionen meist interessanter sind, listet die IDE sie neuerdings absteigend statt aufsteigend auf. Für die Fetch-Operation gibt es eine neue Option, die das Ergebnis per Benachrichtigung statt per Dialog anzeigt.

Für Windows, Linux und macOS bietet die Eclipse Foundation jeweils zehn erweiterbare Basispakete der Entwicklungsumgebung für unterschiedliche Einsatzzwecke an. Die Pakete enthalten alles, was zum Ausführen von Eclipse und zum Entwickeln erforderlich ist: Java 21 und Git, sowie in den Java-IDE-Paketen zusätzlich Maven und Gradle. Die Eclipse-IDE-Pakete sind als Eclipse Installer und als ZIP-Dateien verfügbar.

Eine bestehende Eclipse IDE lässt sich über Help | Check for Updates aktualisieren. Weitere Informationen und die Neuerungen von den am Release beteiligten Eclipse-Projekten finden sich auf der Webseite zur Eclipse-IDE.


(rme)



Source link

Weiterlesen

Entwicklung & Code

.NET 11.0 Preview 2 liefert asynchrone Runtime


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Microsoft hat die zweite Preview-Version für .NET 11.0 veröffentlicht und bringt darin unter anderem Neuerungen für die asynchrone Programmierung.

Weiterlesen nach der Anzeige


Dr. Holger Schwichtenberg

Dr. Holger Schwichtenberg

Dr. Holger Schwichtenberg hat Fachbücher zu .NET 10.0, C# 14.0, Blazor 10.0 und Entity Framework Core 10.0 veröffentlicht. Er arbeitet als Berater und Trainer bei www.IT-Visions.de.

Die Schlüsselwörter async und await sind in vielen modernen Programmiersprachen verankert, zum Beispiel in Python seit 2015, in JavaScript seit 2017, in Rust seit 2019 und in Swift seit 2021. Auf die Frage „Wer hat es erfunden?“ muss man in diesem Fall sagen: Microsoft. Im Jahr 2012 erschienen diese beiden Schlüsselwörter zuerst in C# Version 5.0 und Visual Basic .NET Version 11.0. Sie vereinfachten die asynchrone Programmierung für Entwicklerinnen und Entwickler gegenüber vorher existierenden Konzepten und inspirierten danach viele andere Programmiersprachen.

Was für Entwicklerinnen und Entwickler einfach ist, ist unter der Haube aber bis heute komplex: In den .NET-Sprachen sind async und await bisher im Compiler als State Machines realisiert. In .NET 11.0 Preview 2 bringt Microsoft nun eine weiterentwickelte Version der .NET-Laufzeitumgebung Common Language Runtime (CLR), die nativ das Aussetzen und die Wiederaufnahme asynchroner Methoden unterstützt. Das erzeugt nicht nur weniger Overhead als die bisherigen State Machines, sondern ermöglicht schlankere Stack Traces und einfacheres Debugging.

Listing 1 zeigt vier asynchrone Methoden, die sich gegenseitig aufrufen.


using System.Diagnostics;
namespace NET11_Console.Runtime;
 
public class NET11_RuntimeAsync
{
 
 public async Task Run()
 {
  await MethodeEbene1();
 }
 
 async Task MethodeEbene1()
 {
  await Task.CompletedTask;
  await MethodeEbene2();
 }
 
 async Task MethodeEbene2()
 {
  await Task.CompletedTask;
  await MethodeEbene3();
 }
 
 async Task MethodeEbene3()
 {
  await Task.CompletedTask;
  Console.WriteLine(new StackTrace(fNeedFileInfo: true));
 }
 
}


Listing 1: Verkettung asynchroner Methoden

Weiterlesen nach der Anzeige

Bisher sah man als Ergebnis von Listing 1 die State Machine im Stack Trace:


   at NET11_Console.Runtime.NET11_RuntimeAsync.MethodeEbene3() in 
 h:\git\ITVDemos\NET11\NET11_Console\Runtime\NET11_RuntimeAsync.cs:line 27
   at
 System.Runtime.CompilerServices.AsyncMethodBuilderCore.Start[TStateMachine](TStateMachine&
 stateMachine)
   at NET11_Console.Runtime.NET11_RuntimeAsync.MethodeEbene3()
   at NET11_Console.Runtime.NET11_RuntimeAsync.MethodeEbene2() in
 h:\git\ITVDemos\NET11\NET11_Console\Runtime\NET11_RuntimeAsync.cs:line 21
   at
 System.Runtime.CompilerServices.AsyncMethodBuilderCore.Start[TStateMachine](TStateMachine&
 stateMachine)
   at NET11_Console.Runtime.NET11_RuntimeAsync.MethodeEbene2()
   at NET11_Console.Runtime.NET11_RuntimeAsync.MethodeEbene1() in 
 h:\git\ITVDemos\NET11\NET11_Console\Runtime\NET11_RuntimeAsync.cs:line 15
   at
 System.Runtime.CompilerServices.AsyncMethodBuilderCore.Start[TStateMachine](TStateMachine&
 stateMachine)
   at NET11_Console.Runtime.NET11_RuntimeAsync.MethodeEbene1()
   at NET11_Console.Runtime.NET11_RuntimeAsync.Run() in h:\git\ITVDemos\NET11\NET11_Console\Runtime\NET11_RuntimeAsync.cs:line 9
   at
 System.Runtime.CompilerServices.AsyncMethodBuilderCore.Start[TStateMachine](TStateMachine&
 stateMachine)
   at NET11_Console.Runtime.NET11_RuntimeAsync.Run()
   at Program.
$(String[] args) in h:\git\ITVDemos\NET11\NET11_Console\Program.cs:line 8


Mit der neuen Laufzeitunterstützung für Asynchronität ist der Stack Trace deutlich kompakter:


at NET11_Console.Runtime.NET11_RuntimeAsync.MethodeEbene3() in 
h:\git\ITVDemos\NET11\NET11_Console\Runtime\NET11_RuntimeAsync.cs:line 27
   at NET11_Console.Runtime.NET11_RuntimeAsync.MethodeEbene2() in 
h:\git\ITVDemos\NET11\NET11_Console\Runtime\NET11_RuntimeAsync.cs:line 21
   at NET11_Console.Runtime.NET11_RuntimeAsync.MethodeEbene1() in 
h:\git\ITVDemos\NET11\NET11_Console\Runtime\NET11_RuntimeAsync.cs:line 15
   at NET11_Console.Runtime.NET11_RuntimeAsync.Run() in 
h:\git\ITVDemos\NET11\NET11_Console\Runtime\NET11_RuntimeAsync.cs:line 9
   at Program.
$(String[] args) in h:\git\ITVDemos\NET11\NET11_Console\Program.cs:line 8


Auf dieser Basis konnte Microsoft auch das Debugging-Erlebnis verbessern, siehe Pull Request „Runtime support for breakpoints and stepping“ auf GitHub.

Allerdings erfordert die neue Unterstützung für Asynchronität in der Laufzeitumgebung aktuell noch, dass diese Neuerung in der Projektdatei separat aktiviert wird, siehe Listing 2.



 
 
  net11.0
 
 
 
   runtime-async=on
   true
 


Listing 2: Aktivierung der Asynchronität in der Laufzeitumgebung per Projekteinstellungen

Das TAR-Archivformat beherrscht .NET seit der Version 7.0 mit den Klassen TarFile, TarEntry, TarReader und TarWriter im Namensraum System.Formats.Tar. Bei der Erstellung einer TAR-Datei mit TarFile.CreateFromDirectory() und TarFile.CreateFromDirectoryAsync() wurde als Archivformat immer das PAX-Format (POSIX.1-2001) verwendet. Entwicklerinnen und Entwickler haben seit .NET 11.0 Preview 2 die Möglichkeit, alle vier TAR-Formate zu wählen: TarEntryFormat.V7 (das ursprüngliche TAR-Format), TarEntryFormat.Ustar (Unix Standard TAR), TarEntryFormat.Gnu und TarEntryFormat.Pax.

Dies geschieht durch den zusätzlichen Parameter mit einem Enumerationswert aus TarEntryFormat:


TarFile.CreateFromDirectory("d:\Export", @"t:\archiv.gnu.rar",
  includeBaseDirectory: true, TarEntryFormat.Gnu);


Ein wesentlicher Unterschied zwischen den TAR-Formaten sind die maximalen Dateilängen: V7 erlaubt nur maximal 100 Zeichen für den Namen eines Eintrags. Bei USTAR sind es 256 Zeichen. Bei GNU und PAX ist die Länge von Dateinamen unbegrenzt. Bei USTAR ist die Dateigröße auf 8 GB beschränkt.

Die LINQ-Operatoren MinBy() und MaxBy() hat Microsoft bereits in .NET 6.0 eingeführt. Anders als die schon seit der ersten LINQ-Version in .NET Framework 3.5 verfügbaren Operatoren Min() und Max() liefern MinBy() und MaxBy() nicht nur den Minimal- bzw. Maximalwert selbst, sondern das ganze umgebende Objekt mit. Bisher waren MinBy() und MaxBy() nur in LINQ-to-Objects einsetzbar. Das ändert sich nun in .NET 11.0: Auch Entity Framework Core kann diese LINQ-Operatoren in SQL-Befehle umsetzen, siehe Listing 3.


var ctx = new DA.WWWings.WwwingsV1EnContext();

// Min vs. MinBy()
var wenigsteFreiePlaetze = ctx.Flights.Min(x => x.FreeSeats);
CUI.H1("Der Flug mit den wenigsten Plätzen hat " + wenigsteFreiePlaetze + " freie Plätze");
var flugMitDenWenigstenFreienPlaetzen = ctx.Flights.MinBy(x => x.FreeSeats);
Console.WriteLine(flugMitDenWenigstenFreienPlaetzen);

// Max() vs. MaxBy()
var meisteFreiePlaetze = ctx.Flights.Max(x => x.FreeSeats);
CUI.H1("Der Flug mit den meisten freien Plätzen hat " + meisteFreiePlaetze + " freie Plätze");
var flugMitDenMeistenFreienPlaetzen = ctx.Flights.MaxBy(x => x.FreeSeats);
Console.WriteLine(flugMitDenMeistenFreienPlaetzen);


Listing 3: MinBy() und MaxBy() in Entity Framework Core 11.0

Während der LINQ-Operator Min() die MIN()-Funktion in SQL nutzt


SELECT MIN([f].[FreeSeats])
      FROM [Operation].[Flight] AS [f]


erstellt MinBy() eine sortierte Datensatzmenge und liefert den obersten Datensatz mit TOP(1) zurück:


SELECT TOP(1) [f].[FlightNo], [f].[Airline], [f].[Departure], [f].[Destination], 
[f].[FlightDate], [f].[FreeSeats], [f].[Memo], [f].[NonSmokingFlight], [f].[Pilot_PersonID], 
[f].[Seats], [f].[Timestamp]
      FROM [Operation].[Flight] AS [f]
      ORDER BY [f].[FreeSeats]


Die in .NET 8.0 eingeführte Blazor-Variante Static Server-Side Rendering (SSR) ist den vorherigen Ansätzen für die Erstellung von Multi-Page-Apps im modernen .NET (ASP.NET Core Model-View-Controller (MVC) und ASP.NET Core Razor Pages) überlegen, hinsichtlich des Komponentenmodells, der Razor-Syntax und des partiellen Seitenaustauschs. Allerdings gab es bis dato auch einige Funktionen in MVC und Razor Pages, die Blazor SSR nicht beherrschte. Dazu gehören das Caching von Seitenteilen, erweiterbare Bedingungen für Routenparameter und die Datenübergabe zwischen HTTP-Anfragen mit dem TempData-Objekt (siehe GitHub-Issue). Letzteres ist nun in .NET 11.0 Preview 2 möglich. Die Datenspeicherung erfolgt wahlweise als Cookie (CookieTempDataProvider) oder im Session Storage (SessionStorageTempDataProvider) des Webbrowsers.

Anders als bei MVC und Razor Pages ist TempData aber keine Property der Basisklasse, sondern muss als Cascading Parameter explizit konsumiert werden, siehe Listing 5. Dabei ist zu beachten, dass TempData wie bei MVC und Razor Pages nur Zeichenketten abspeichern kann, das heißt, komplexe Objekte müssen Entwicklerinnen und Entwickler selbst serialisieren, siehe Listing 4.


@page "/Registration"
@using BlazorSSRSamples
@using Newtonsoft.Json
@inject NavigationManager NavigationManager
 

 
 

Ihr Name: reg.Name)" />

Ihre E-Mail-Adresse: reg.EMail)" />

@code { [SupplyParameterFromForm] RegistrationData reg { get; set; } = new(); [CascadingParameter] public ITempData? TempData { get; set; } private string? message; private void HandleSubmit() { TempData!["Message"] = "Registrierung erfolgreich übermittelt!"; TempData!["Reg"] = System.Text.Json.JsonSerializer.Serialize(reg); // speichert nur Strings TempData!["RegInfo"] = DateTime.Now.ToString(); NavigationManager.NavigateTo("RegistrationConfirm", new NavigationOptions() { ForceLoad = true }); } }


Listing 4: TempData in Blazor-SSR-Seite befüllen


@page "/RegistrationConfirm"
@using BlazorSSRSamples
@inject NavigationManager NavigationManager
 

@message

@if (reg.HasValue) {

Ihre Daten:
@reg.Name
@reg.EMail

} @if (regInfo.HasValue) {

Registriert am:
@regInfo

} @code { [CascadingParameter] public ITempData? TempData { get; set; } private string? message; private string? regInfo; BlazorSSRSamples.RegistrationData? reg { get; set; } = new(); protected override void OnInitialized() { message = TempData?.Get("Message") as string ?? "No message"; reg = System.Text.Json.JsonSerializer.Deserialize(TempData?.Get("Reg").ToString()); regInfo = TempData?.Get("regInfo") as string; } }


Listing 5: TempData in Blazor-SSR-Seite auslesen

Geplant für kommende Preview-Versionen ist, dass das Auslesen von Daten aus TempData über eine Annotation [SupplyParameterFromTempData], mit der man eine Property annotieren kann, vereinfacht wird, siehe Pull Request.

Laut den Release Notes von .NET 11.0 Preview 2 gibt es folgende weitere Neuerungen:

  • Der in ASP.NET integrierte Webserver Kestrel lehnt nun ungültige Anfragen schneller ab, weil Microsoft intern auf das Auslösen einer BadHttpRequestException verzichtet und stattdessen eine Struktur zurückgibt. Das verbessert laut Microsoft den Durchsatz um 20 bis 40 Prozent bei Angriffen via Port Scanning oder mit fehlerhaften Anfragen.
  • .NET-Core-basierte WebAPIs unterstützen jetzt die Open API Specification in der Version 3.2. In .NET 10.0 war es Version 3.1.1.
  • Für die Erstellung von Web-Worker-Projekten gibt es nun eine eigene Projektvorlage „.NET Web Worker“ in Visual Studio beziehungsweise an der Kommandozeile: dotnet new webworker. Dabei entsteht eine DLL, die in Blazor-WebAssembly-basierten Anwendungen genutzt werden kann.
  • Bei Entity Framework Core kann man nun für SQL Server die dort eingebaute Volltextsuche via Fluent API konfigurieren:


modelBuilder.Entity(b =>
{
 b.HasFullTextIndex(e => new { e.Titel, e.Text})
     .HasKeyIndex("PK_FullTextEntity")
     .HasLanguage("Titel", "German")
     .HasLanguage("Text", "German");
});


  • Ebenso steht in Entity Framework Core die Vektorsuche mit der SQL-Server-2025-Funktion VECTOR_SEARCH() via LINQ-Operation VectorSearch() zur Verfügung:


var sqlVector = new SqlVector(EmbeddingsUtil.Get(suchBegriff));
  var q =  ctx.TexteSet.VectorSearch>(b => b.Embedding, sqlVector, "cosine", topN: 5);


Dabei ist zu beachten, dass man VECTOR_SEARCH() auch in der stabilen Version von SQL Server 2025 erst via SQL-Befehl aktivieren muss


ALTER DATABASE SCOPED CONFIGURATION SET PREVIEW_FEATURES ON


und in .NET die Warnung „EP9105“ deaktivieren muss:


#pragma warning disable EF9105 // Type is for evaluation purposes only and is subject to change or removal in future updates. Suppress this diagnostic to proceed.


  • In .NET MAUI wurde das Steuerelement
    verbessert. Die Syntax ist nun kompakter.



    
        
    


Außerdem kann man Elemente auf der Karte (Polygon, Polyline, Circle) nun per IsVisible und ZIndex steuern. Zudem gibt es Click()-Ereignisse auf diesen Elementen.

  • Auch .NET-MAUI-Anwendungen für Apple-Betriebssysteme (iOS, tvOS und Mac Catalyst) können nun auf der .NET Core Runtime statt Mono laufen. Seit .NET 10.0 war dies experimentell für MAUI-Anwendungen auf Android möglich. Auch die Apple-Implementierung der .NET Core Runtime gilt aber als experimentell. Die Anwendungen werden aktuell durch die Umstellung aber größer und das Debugging ist noch eingeschränkt.
  • Die Größe der Container Images von .NET SDK 11.0 Preview 2 ist gegenüber .NET 11.0 Preview 1 um 41 bis 44 MB (bis zu 17 Prozent) verkleinert, da Microsoft nun Hard Links für doppelte Dateien verwendet. Das gilt auch für die Installer für Linux und macOS.


Verkleinerte Docker-Images des .NET 11.0 Software Development Kit

Verkleinerte Docker-Images des .NET 11.0 Software Development Kit

Verkleinerte Docker-Images des .NET 11.0 Software Development Kit

(Bild: Microsoft)

Laut den Release Notes von .NET 11.0 Preview 2 gibt es in dieser Vorschauversion keine Neuerungen für die Sprachsyntax von Visual Basic und C# sowie das GUI-Framework Windows Forms. Bei der Windows Presentation Foundation (WPF) gibt es nur einen Bugfix.

.NET 11.0 soll im November 2026 erscheinen und einen Standard-Term Support von zwei Jahren erhalten. Bis dahin können Entwicklerinnen und Entwickler mit fünf weiteren Preview-Versionen von April bis August sowie jeweils einer Release-Candidate-Version im September und Oktober rechnen. heise developer wird jeweils berichten.


(mai)



Source link

Weiterlesen

Entwicklung & Code

Bericht: Nvidia bereitet KI-Agentenplattform „NemoClaw“ vor


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Weiterlesen nach der Anzeige

Nvidia folgt dem Hype um den KI-Agenten OpenClaw und entwickelt eine Plattform namens „NemoClaw“ speziell für Unternehmen, berichtet Wired unter Berufung auf mehrere Personen, die mit Nvidias Plänen vertraut sein sollen. Die Plattform soll es Unternehmen ermöglichen, KI-Agenten einzusetzen, die Aufgaben für die eigene Belegschaft übernehmen.

Da es sich um ein Open-Source-Projekt handeln soll, wird der Code nicht nur Unternehmen zur Verfügung stehen. Nvidia will Unternehmenspartnern jedoch zusätzliche Werkzeuge für Sicherheit und Datenschutz bereitstellen, um zentrale Risiken beim Einsatz autonomer KI-Agenten zu reduzieren. Außerdem könnten sie laut Bericht frühzeitig und kostenlos Zugang zu „NemoClaw“ erhalten, wenn sie sich an der Entwicklung beteiligen.

Der Chiphersteller habe „NemoClaw“ bereits bei verschiedenen großen Softwareanbietern beworben. Der Wired-Bericht nennt Salesforce, Cisco, Google, Adobe und CrowdStrike als mögliche Partner. Ob aus den Gesprächen konkrete Kooperationen hervorgegangen sind, sei allerdings noch unklar.

Dem Bericht zufolge sei es wahrscheinlich, dass mögliche Partner die Plattform unabhängig davon nutzen können, ob ihre KI-Agenten auf Nvidia-Chips laufen.

Der Verzicht auf eine Bindung an Nvidia-GPUs ist eher ungewöhnlich für Nvidia. Bisher stützte sich das Softwareökosystem des Konzerns stark auf die proprietäre Plattform CUDA, die Entwickler faktisch an Nvidia-Hardware bindet und dem Unternehmen einen wichtigen Wettbewerbsvorteil verschafft hat.

Der Open-Source-Ansatz ist ebenfalls bemerkenswert, auch wenn es dafür bereits Beispiele gibt: So veröffentlichte Nvidia im Dezember mit Nemotron 3 Nano ein KI-Modell, das fast vollständig Open Source ist.

Weiterlesen nach der Anzeige

„NemoClaw“ könnte ein weiterer Schritt in Richtung Öffnung sein, der womöglich durch den zunehmenden Erfolg offener KI-Modelle motiviert ist. Viele Start-ups und Entwickler nutzen solche frei verfügbaren Modelle, um neue Anwendungen zu testen oder eigene Produkte darauf aufzubauen.

Hinzu kommt, dass große KI-Anbieter zunehmend eigene Chips entwickeln oder entwickeln lassen, um sich langfristig unabhängiger von Nvidia zu machen. In dieses Bild passt auch Nvidias Partnerschaft mit dem Start-up Groq, das sogenannte Inferenz-Chips entwickelt. Diese sind weniger für das Training von KI-Modellen gedacht, als dafür, bereits trainierte KI im Alltag möglichst schnell und energieeffizient antworten zu lassen.

Das Wall Street Journal berichtete kürzlich, dass Nvidia auf der kommenden Entwicklerkonferenz GTC einen eigenen Inferenz-Chip auf Basis eines Groq-Designs vorstellen könnte. Womöglich gibt es dann auch Konkretes zu „NemoClaw“ zu erfahren. Die Konferenz findet vom 16. bis 19. März in San José statt.

Der KI-Agent OpenClaw sorgte Anfang des Jahres für große Aufmerksamkeit in der KI-Szene. Das Open-Source-Projekt des Entwicklers Peter Steinberger unterscheidet sich deutlich von klassischen KI-Chatbots, die meist nur auf einzelne Eingaben reagieren und Antworten generieren. Der auf einem lokalen Rechner laufende OpenClaw kann dagegen mehrstufige Aufgaben selbstständig ausführen und dabei verschiedene Programme oder Online-Dienste steuern.

Gleichzeitig birgt dieser Ansatz auch Risiken, da die mächtigen KI-Agenten mit weitreichenden Zugriffsrechten potenziell Schaden anrichten können, wenn sie fehlerhaft arbeiten oder manipuliert werden. Die chinesische Cybersicherheitsbehörde hat deshalb erst kürzlich Behörden, Staatsbetrieben sowie Banken davon abgeraten, den KI-Agenten auf Arbeitsgeräten zu installieren. OpenAI nahm Steinberger im Februar unter Vertrag, OpenClaw ist aber weiterhin Open Source.


(tobe)



Source link

Weiterlesen

Beliebt