Künstliche Intelligenz
.NET 10 Release Candidate 1: Nachschlag für Entity Framework Core
Nach Microsofts Plan sollte .NET 10.0 zum Ende der Preview-Phase vor dem frisch erschienenen Release Candidate 1 eigentlich „Feature Complete“ sein und die beiden Release-Candidate-Versionen sollten nur der Qualitätsverbesserung dienen. Das trifft laut Ankündigung auf Laufzeitumgebung, SDK, Sprachcompiler (C#, F#, Visual Basic .NET) und WPF auch zu. Wie schon in der Vergangenheit gibt es aber auch Teile von .NET, die noch signifikante neue Funktionen in Release Candidate 1 nachliefern. Dieses Mal betrifft es insbesondere Entity Framework Core und ASP.NET Core sowie MAUI.
Erste Version von Visual Studio 2026
.NET 10.0 Release Candidate 1 steht auf der .NET-Downloadseite bereit. Wie bei früheren Versionen besitzt der Release Candidate 1 eine Go-Live-Lizenz: Entwicklerinnen und Entwickler können die Version produktiv einsetzen und erhalten offiziellen Support von Microsoft. Gleichwohl müssen sie noch mit Änderungen rechnen bis zum Erscheinungstermin, der für den 11. November 2025 angekündigt ist.
.NET 10.0 Release Candidate 1 hat das Go-Live-Label.
Von Visual Studio 2022 gab es parallel ein Bugfixing-Update von Version 17.14.13 auf 17.14.14. Das Kompilieren einer .NET 10.0-Anwendung gelingt aber nur, wenn man 17.14.14 Preview 1.0 oder die erste Vorschauversion von Visual Studio 2026 (alias „18.0.0 Insiders“) verwendet. Die 2026er Version bietet neben noch mehr KI-Integration auch ein neues Look and Feel im Fluent Design mit zahlreichen neuen Themes wie Icy Mint, Cool Breeze, Mango Paradise und Spicy Red.
Zwischen den Themes in Visual Studio 2026 kann man schnell im Menü Tools/Theme umschalten.
Zudem soll Visual Studio 2026 laut einem Blogbeitrag von Microsoft schneller sein. Bei der Installation fällt ein Detail positiv auf: Visual Studio 2026 fragt, ob man eine Konfiguration (Workloads, individuelle Komponenten, Erweiterungen und Einstellungen) aus einer auf dem Rechner vorhandenen Visual-Studio-2022-Installation oder einer .vsconfig-Datei übernehmen möchte (siehe die folgende Abbildung). Schon Visual Studio 2022 konnte bei der Installation .vsconfig-Dateien verwenden, aber nur beim Starten der IDE-Installation per Kommandozeile (Parameter --config
).
Visual Studio 2026 bietet – im Gegensatz zu den beiden 2022er Versionen – auch die Installation des .NET-10.0-SDK als „Individual Component“ an. In den älteren Versionen muss man das .NET-SDK manuell von der Downloadseite installieren.
Visual Studio 2026 bietet bei der Installation die Übernahme bestehender Konfigurationen an.
Entity Framework Core nutzt den Spaltentyp JSON
Entity Framework Core unterstützt ab Release Candidate 1 die beiden neuen Spaltentypen JSON und VECTOR, die es in Microsoft SQL Server 2025 (derzeit in der Preview-Phase und der Cloudvariante SQL Azure gibt. JSON hat Entity Framework Core auch bisher schon verwendet, um beispielsweise eine Liste primitiver Datentypen wie List
auf eine einzige Tabellenspalte abzubilden – außer bei PostgreSQL, das nativ solche Mengen beherrscht – oder beim Speichern sogenannter Owned Types. Bisher kam dazu aber in der Datenbanktabelle der Spaltentyp nvarchar(max)
in Verbindung mit der SQL-Funktion OPENJSON()
zum Einsatz.
Nun verwendet Entity Framework Core hier den neuen nativen Spaltentyp JSON, sofern eine SQL-Server-Version angesprochen wird, die ihn beherrscht. Zudem muss man Entity Framework Core mitteilen, dass das Zielsystem JSON-Spalten kennt. Das geschieht durch Aufruf von UseSqlAzure()
statt UseSqlServer()
beim Zugriff auf eine Cloud-Datenbank. Beim lokalen Microsoft SQL Server muss man den Kompatibilitätslevel auf 170 setzen:
builder.UseSqlServer(connstring, x => x.UseCompatibilityLevel(170));
Neu in Entity Framework Core 10.0 Release Candidate 1 ist, dass Complex Types auch ein JSON-Mapping anbieten. Complex Types hat Microsoft in Entity Framework Core 8.0 als bessere Alternative zu Owned Types eingeführt und in Version 9.0 erweitert, aber in Complex Types wurde bisher kein JSON-Mapping angeboten, sondern sie wurden auf Spalten in der zum übergeordneten Objekttyp gehörenden Tabelle abgebildet. Daher waren sie bisher nur für 1:1-Beziehungen, nicht aber für 1:N-Beziehungen möglich. Das ändert sich in Entity Framework Core-Version 10.0: Hier ist der Aufruf ToJson()
bei komplexen Typen im 1:1- und 1:N-Mapping möglich:
modelBuilder.Entity(x =>
{
x.ComplexProperty(p => p.Address, p=>p.ToJson()); // 1:1-Mapping. NEU: p=>p.ToJson()
x.ComplexProperty(p => p.ManagementSet, p => p.ToJson()); // NEU: 1:N mit p=>p.ToJson()
}
Laut den Release Notes kommt es dabei in Release Candidate 1 aber noch zu Problemen und man soll mit dem Praxiseinsatz auf Release Candidate 2 warten. Im Schnelltest zeigte sich, dass beim JSON-Mapping der komplexen Typen unter anderem das Gruppieren mit GroupBy()
und die komplette Aktualisierung des komplexen Typen mit ExecuteUpdate()
in Release Candidate 1 zu Laufzeitfehlern führen.
Einsatz von Vektoren
Als zweiten neuen SQL Server-Datentyp können Entwicklerinnen und Entwickler ab Release Candidate 1 Microsoft.Data.SqlTypes.SqlVector
aus dem NuGet-Paket „Microsoft.Data.SqlClient“ (ab Version 6.1) beim objektrelationalen Mapping mit Entity Framework Core 10.0 verwenden. Ebenso gibt es eine neue EF-Core-Methode EF.Functions.VectorDistance()
für die SQL-Funktion VECTOR_DISTANCE()
. Bisher existierte für beides ein eigenständiges NuGet-Paket EFCore.SqlServer.VectorSearch. Allerdings kann man in Entity Framework Core 10.0 in LINQ-Abfragen noch nicht die SQL Server-Funktion VECTOR_SEARCH()
nutzen.
Die Dokumentation enthält ein Codebeispiel für Vektordaten:
public class Blog
{
// ...
[Column(TypeName = "vector(1536)")]
public SqlVector Embedding { get; set; }
}
…
IEmbeddingGenerator> embeddingGenerator = /* Set up your preferred embedding generator */;
var embedding = await embeddingGenerator.GenerateVectorAsync("Some text to be vectorized");
context.Blogs.Add(new Blog
{
Name = "Some blog",
Embedding = new SqlVector(embedding)
});
await context.SaveChangesAsync();
…
var sqlVector = new SqlVector(await embeddingGenerator.GenerateVectorAsync("Some user query to be vectorized"));
var topSimilarBlogs = context.Blogs
.OrderBy(b => EF.Functions.VectorDistance("cosine", b.Embedding, sqlVector))
.Take(3)
.ToListAsync();
Mehr Optionen für Parametermengen
Bei einem Thema probiert Entity Framework Core seit Jahren verschiedene Strategien: die Übergabe von Parametermengen von .NET an das Datenbankmanagementsystem, beispielsweise um passende Datensätze zu einer Liste von Orten zu suchen:
List destinations = new List { "Berlin", "New York", "Paris" };
var flights = ctx.Flights
.Where(f => destinations.Contains(f.Destination))
.Take(5).ToList();
Entity Framework Core-Versionen 1.0 bis 7.0 haben die Werte aus der Menge [code]destinations[/code] einzeln als statische Werte übergeben:
SELECT TOP(@p) [f].[FlightNo], [f].[Airline], [f].[Departure], [f].[Destination], [f].[FlightDate], [f].[FreeSeats], [f].[Memo], [f].[NonSmokingFlight], [f].[Pilot_PersonID], [f].[Seats], [f].[Timestamp]
FROM [Operation].[Flight] AS [f]
WHERE [f].[NonSmokingFlight] = CAST(1 AS bit) AND [f].[FlightDate] > GETDATE() AND [f].[FreeSeats] > CAST(0 AS smallint) AND [f].[Destination] IN (N'Berlin', N'New York', N'Paris')
Das sorgte jedoch im Datenbankmanagementsystem für viele verschiedene Ausführungspläne.
Seit Version 8.0 übergibt Entity Framework Core die Liste als ein JSON-Array, das im SQL-Befehl mit OPENJSON()
aufgeteilt wird:
SELECT TOP(@p) [f].[FlightNo], [f].[Airline], [f].[Departure], [f].[Destination], [f].[FlightDate], [f].[FreeSeats], [f].[Memo], [f].[NonSmokingFlight], [f].[Pilot_PersonID], [f].[Seats], [f].[Timestamp]
FROM [Operation].[Flight] AS [f]
WHERE [f].[NonSmokingFlight] = CAST(1 AS bit) AND [f].[FlightDate] > GETDATE() AND [f].[FreeSeats] > CAST(0 AS smallint) AND [f].[Destination] IN (
SELECT [d].[value]
FROM OPENJSON(@destinations) WITH ([value] nvarchar(30) '$') AS [d]
)
Das erschwerte dem Datenbankmanagementsystem die Optimierung der Ausführungspläne, da es die Zahl der Parameter nicht mehr kannte.
Seit Version 9.0 ist es möglich, über die Funktion EF.Constant()
oder den globalen Aufruf TranslateParameterizedCollectionsToConstants()
in der Kontextklasse in OnConfiguring()
zum alten Verhalten zurückzukehren:
var flights1 = ctx.Flights
.Where(f => EF.Constant(destinations).Contains(f.Destination))
.Take(5).ToList();
Beim geänderten Standard konnten Entwicklerinnen und Entwickler im Einzelfall mit EF.Parameter()
anschließend das JSON-Array übergeben.
Nun in Entity Framework Core 10.0 hat Microsoft abermals einen neuen Standard implementiert, nämlich die einzelne Übergabe der Werte als eigene Parameter:
SELECT TOP(@p) [f].[FlightNo], [f].[Airline], [f].[Departure], [f].[Destination], [f].[FlightDate], [f].[FreeSeats], [f].[Memo], [f].[NonSmokingFlight], [f].[Pilot_PersonID], [f].[Seats], [f].[Timestamp]
FROM [Operation].[Flight] AS [f]
WHERE [f].[NonSmokingFlight] = CAST(1 AS bit) AND [f].[FlightDate] > GETDATE() AND [f].[FreeSeats] > CAST(0 AS smallint) AND [f].[Destination] IN (@destinations1, @destinations2, @destinations3)
Das geschieht im obigen Beispiel mit drei Werten. Entity Framework Core arbeitet aber auch noch bei 1000 Werten auf diese Weise, wie ein Schnelltest zeigte.
Man kann das alte Verhalten mit EF.Constant()
und EF.Parameter()
erzwingen, da die optimale Strategie auch davon abhängt, wie stark die Zahl der Werte zur Laufzeit variiert. Die globale Änderung des Standards erfolgt mit
UseParameterizedCollectionMode(ParameterTranslationMode.Constant)
. Erlaubt sind die Werte: Constant
, Parameter
und MultipleParameters
. Die erst in Version 9.0 eingeführte Methode TranslateParameterizedCollectionsToConstants()
existiert noch, aber sie ist als [Obsolete]
markiert.
Verbesserungen bei ASP.NET Core
ASP.NET Core führt in Release Candidate 1 neue Metriken für ASP.NET Core Identity zum Überwachen der Benutzerverwaltung ein, beispielsweise aspnetcore.identity.user.create.duration, aspnetcore.identity.sign_in.sign_ins
und aspnetcore.identity.sign_in.two_factor_clients_forgotten
.
Der Persistent Component State in Blazor soll nun auch beim Einsatz der Enhanced Navigation beim statischen Server-Side-Rendering funktionieren
Um Instanzen von Klassen und Records in Blazor zu validieren, die Microsoft schon in der Preview-Phase von .NET 10.0 verbessert hatte, gibt es drei weitere Neuerungen:
- Validierungsannotationen können auch für Typen und nicht nur wie bisher für Properties definiert werden.
- Die neue Annotation
[SkipValidation]
schließt Typen und Properties von der Validierung aus. - Ebenso werden alle mit
[JsonIgnore]
annotierten Properties nicht mehr validiert.
Zudem gibt es nochmals einige kleinere Verbesserungen für die OpenAPI-Schema-Generierung, wie in den Release Notes beschrieben ist.
Kleine Verbesserungen bei MAUI
Auch bei .NET MAUI gibt es neue Metriken für die Überwachung der Layout-Performance:
layout.measure_count
,layout.measure_duration
,layout.arrange_count
undlayout.arrange_duration
.
Das Steuerelement
bietet neuerdings die Events WebViewInitializing()
und WebViewInitialized()
, um die Initialisierung anzupassen. Vergleichbare Ereignisse gab es zuvor im Steuerelement
(BlazorWebViewInitializing()
und BlazorWebViewInitialized()
). Das Steuerelement
besitzt nun die Eigenschaft IsRefreshEnabled
zusätzlich zu IsEnabled
.
Dark Mode bei Windows Forms
Das Windows-Forms-Teams schreibt in den Release Notes, dass der in .NET 9.0 eingeführte Dark Mode nicht mehr als experimentell gekennzeichnet ist. Gleichzeitig heißt es dort aber auch, dass die Arbeit am Dark Mode weitergehen wird.
Die Galerie zeigt einige Windows-Forms-Steuerelemente im Dark Mode.
Ausblick auf die stabile Version
Vor der für November angekündigten Veröffentlichung von .NET 10.0 ist noch ein weiterer Release Candidate im Oktober geplant. Als Erscheinungstermin für die stabile Version hat Microsoft den 11. November 2025 verkündet. iX, dpunkt.verlag und www.IT-Visions.de präsentieren .NET 10.0 am 18. November im eintägigen Online-Event betterCode() .NET.
(rme)
Künstliche Intelligenz
Live Translation für die AirPods Pro: EU-Nutzer bekommen die Funktion nicht
Große Enttäuschung bei Besitzern von AirPods Pro, die auf die neue Liveübersetzungsfunktion gewartet haben: Die Funktion wird laut Apple im Gebiet der Europäischen Union (EU) nicht zur Verfügung stehen. Betroffen davon sind Nutzer, die sich in der EU befinden und deren Apple-Konto einem EU-Land zugeordnet ist. Zu den Gründen schweigt Apple. Die Information selbst wurde einem Support-Dokument entnommen, das im Netz einsehbar ist. Eine Anfrage von Mac & i hat Apple bislang nicht beantwortet.
Mit Blick auf die Geschehnisse der letzten Zeit gilt es allerdings als sehr wahrscheinlich, dass die Entscheidung mit dem anhaltenden Zwist zwischen Apple und der Europäischen Kommission über Fragen der Interoperabilität zu tun haben dürfte. Die EU möchte, dass Apple sich bei seiner Hard- und Software für Mitbewerber öffnet. Apple lehnt dies an vielen Stellen mit Hinweis auf Risiken für die Sicherheit der Nutzer und Geräte ab. Offen ist allerdings, ob Apple im Falle der Live-Übersetzung in vorauseilendem Gehorsam handelt. Oder ob es schon Signale aus Brüssel gegeben hat.
Viele EU-Sprachen werden unterstützt
Die neue Live-Übersetzung – im Original Live Translation – hat Apple am Dienstag während des „Awe Dropping“-Events am Beispiel der neuen AirPods Pro 3 vorgestellt. Sie steht aber als Softwareupdate im Zusammenhang mit iOS 26 für das iPhone auch für die AirPods 4 sowie für die AirPods Pro 2 zur Verfügung. Nötig ist allerdings mindestens ein iPhone 15 Pro oder ein anderes geeignetes Gerät, das Apple Intelligence unterstützt.
Die Funktion ermöglicht es, beim Tragen der Ohrhörer auf KI-Funktionen zurückzugreifen, die das Gesagte des Gegenübers in die eigene Sprache übersetzen. Umgekehrt wird das eigene Gesagte auch in die Gegenrichtung übersetzt. Wenn nur einer der Gesprächspartner über geeignete AirPods verfügt, werden die Antworten auf dem iPhone-Display angezeigt. Wenn beide die Geräte haben, erfolgt die Übersetzung beim Gegenüber direkt per Sprache.
Apple unterstützt zum Auftakt Englisch, Französisch, Deutsch, Portugiesisch und Spanisch. Noch in diesem Jahr sollen auch Italienisch, Japanisch, Koreanisch und Chinesisch folgen.
Knackpunkte an mehreren Stellen
Rechtliche Knackpunkte im Falle einer EU-Einführung sind an mehreren Stellen denkbar. Der AI-Act etwa könnte Anwendung finden, da die neue Funktion dauerhaft Sprache verarbeitet. Hier wäre eine Einstufung als sensibler KI-Anwendungsfall möglich. Auch im Zusammenhang mit der Datenschutzgrundverordnung besteht Konfliktpotenzial, mit Blick auf die Frage, ob andere Personen erkennen können, dass eine aufnehmende und sprachverarbeitende Funktion der AirPods Pro aktiv ist. Und schließlich könnten auch die Interoperabilitätsanforderungen eine Hürde sein. Apple müsste dann Mitbewerbern gleichberechtigt auch solche Funktionen anbieten lassen, etwa mit einem anderen Smartphone als dem iPhone – etwas, was Apple ablehnt.
Apples Mitbewerber sehen das Thema augenscheinlich entspannter. Die Pixel Buds von Google bieten bereits seit Längerem eine Live-Übersetzung im EU-Raum an.
Bei Software-Features für das iPhone scheint die Lage deutlich entspannter zu sein als bei der Live-Übersetzung mit AirPods. Entsprechende Übersetzungsfunktionen, die mit iOS 26 kommen sollen, stehen bislang nicht auf der Streichliste für EU-Nutzer.
Apple-Nutzer sind verärgert
In Foren sind bereits zahlreiche verärgerte Reaktionen von Apple-Kunden zu lesen. Der Frust richtet sich zumeist allerdings gegen die Europäische Union und ihre Regulierung. Apple selbst unternimmt bislang wenig, um die Situation aufzuklären. Ähnlich lief es bei der Einführung der Apple Intelligence, wo lange unklar war, ob und wann sie in der EU eingeführt wird. Am Ende gehörten EU-Länder und -Sprachen sogar zu den ersten in der internationalen Erweiterung. Aber es gibt auch andere Beispiele: Das iPhone-Mirroring, das es ermöglicht, ein iPhone per Mac fernzusteuern, gibt es bis heute nicht in der EU. Auch hierzu äußert sich Apple nicht, woran es liegt und ob eine Perspektive besteht.
(mki)
Künstliche Intelligenz
Material 3 Expressive: Googles neues Design für Pixel angeschaut
Das im Mai im Zuge der Entwicklerkonferenz I/O angekündigte Material 3 Expressive (M3E) ist angekommen. Erst lieferte Google es mit der Pixel-10-Serie aus und seit dem 3. September können es mit dem Release von Android 16 QPR1 (aka Pixel Drop) Besitzerinnen und Besitzer eines Pixel 6 und neuer auf ihren Geräten installieren. Vieles ist (optional) bunter, mutiger und mit prominenteren Schriftelementen versehen. Aber auch bei der Bedienung hat sich etwas geändert.
Wir werfen einen zweiten Blick auf die nun überwiegend fertige Bedienoberfläche, die von ersten, teils angepassten Apps begleitet wird.
Auf Wunsch bunt
Wie Google im Mai sagte, handelt es sich bei Material 3 Expressive um die „am umfangreichsten erforschte Designsprache des Konzerns, die die breiteste Nutzerschicht über Generationen hinweg ansprechen soll“. Damit könnte Google recht haben, denn auch wenn sie auf den ersten Blick mit viel „Buntifunti“ und knalligen Farben daherkommt, bietet sie umfangreiche Anpassungsoptionen. Damit kommen auch Nutzerinnen und Nutzer, die dezente Farben oder sogar ein komplett farbloses Erscheinungsbild bevorzugen, auf ihre Kosten.
Kaum Unterschiede zum Vorgänger: Der anpassbare Homescreen von Android 16 Material 3 Expressive.
(Bild: Andreas Floemer / heise medien)
Optische Änderungen sind beim Blick auf den Homescreen zunächst nicht zu erkennen, es sei denn, man schaut auf Details wie die Akkuanzeige, Netzwerksymbole und die Uhr, die Google neu gestaltet hat. Größer ist die Änderung in den Schnelleinstellungen, denn die einzelnen Schaltflächen lassen sich in ihrer Breite anpassen, wodurch mehr Platz für Buttons in einer Ansicht zur Verfügung steht. Einige Schaltflächen wie Bluetooth sollte man jedoch in ihrer normalen Breite belassen, da sie so zwei Funktionen innehaben: Tippt man auf die linke Seite des Buttons, kann Bluetooth deaktiviert werden, während ein Tipp auf die rechte Seite zu den weiteren Einstellungen führt.
Die neuen Schnelleinstellungen sind in ihrer Größe anpassbar.
(Bild: Andreas Floemer / heise medien)
Eine neue Form hat außerdem der Helligkeitsregler in den Schnelleinstellungen, der nun weniger abgerundet ist und einen schmalen Querbalken als Indikator erhalten hat. Die gleiche Designänderung ist auch bei den Lautstärke- und Medienreglern zu finden, die über die Lautstärkeleiste erreichbar sind.
Helligkeitsregler und die Lautstärke sind unter Android 16 Material 3 Expressive optisch aufgefrischt worden.
(Bild: Andreas Floemer / heise medien)
In der Übersicht der zuletzt geöffneten Apps, die entweder über den Recents-Button (rechts in der Button-Navigation) oder über die entsprechende Wischgeste auffindbar ist, hat jede App ein Drop-down-Menü erhalten, in dem eine einzelne App entfernt werden kann. Weiterhin gelangt man hierüber in die jeweiligen App-Einstellungen, um etwa Berechtigungen einzusehen und zu verwalten.
Lesen Sie auch
Neu gestaltet ist die App-Übersicht, die jetzt wie eine zusätzliche Ebene auf den Homescreen gezogen wird. Wie bei den Schnelleinstellungen schimmern in der App-Übersicht stets Farbnuancen des Bildschirmhintergrunds hindurch, was eine gewisse Leichtigkeit im Vergleich zu den bisher verwendeten einfarbigen und intransparenten Hintergründen erzeugt.
Die App-Übersicht unter Android16 Material 3 Expressive mit verschiedenen, leicht hindurchscheinenden Hintergründen.
(Bild: Andreas Foemer / heise medien)
Abseits der Optik zieht mit Material 3 Expressive auch eine neue Haptik ein: Beim Wegwischen einer Benachrichtigung aus der Benachrichtigungsübersicht oder einer Mail in der Gmail-App vibriert das Gerät jetzt auf Wunsch. Auch die neuen Animationen beim Ausblenden einer Benachrichtigung, bei denen die danebenliegenden Benachrichtigungen auf die Interaktion reagieren, sind hübsch anzusehen und bringen ein dynamischeres Gefühl bei der Bedienung des Geräts.
Neue Tricks für den Sperrbildschirm
Mit Material3 Expressive verabreicht Google dem Sperrbildschirm neue Effekte: Zum einen können Nutzer ein eigenes Bild verwenden, das sie mit unterschiedlichen Rahmenformen und verschiedenfarbigen Hintergrundfarben versehen können. Während dies in der Betaversion noch nicht fehlerfrei funktionierte, ist es in der finalen Release besser nutzbar. Leider ist die Auswahl der Hintergrundfarben eine Nuance zu reduziert.
Funktionen des neuen Lockscreens.
(Bild: Andreas Floemer / heise medien)
Zum anderen ist es möglich, Witterungsbedingungen wie Sonne, Regen oder Schnee auf den Sperrbildschirm zu zaubern – selbst das lokale Wetter lässt sich dort dezent abbilden. Wer mag, kann sein Bild auch mit einem 3D-Effekt versehen, wodurch es räumlicher erscheint. Der Effekt ist auch auf dem Homescreen abbildbar.
Stückwerk: Material 3 Expressive in Apps
Material 3 Expressive durchzieht nicht nur Android 16 (QPR1), sondern es landet portionsweise auch in Anwendungen – allen voran natürlich in Googles eigenen Apps. Das neue Design scheint der Konzern zudem nicht auf einmal im vollen Umfang umzusetzen, sondern schubweise. So sind in Gmail, Chrome und der Wallet erste M3E-Elemente zu finden, ebenso hat Google die „Mein Gerät finden“-App als auch Files schon angefasst.
Googles Anruferansicht unter Android ähnelt in gewisser Hinsicht Apples Kontaktpostern.
(Bild: Google)
Derweil hat Google die Telefon-App umfangreich überarbeitet und mit einem iOS-ähnlichen Anrufbildschirm versehen. Im Zuge dessen hat Google die Übersicht der eigenen Favoriten in ihrer Größe reduziert und in ein Karussell verfrachtet, was wenig nachvollziehbar ist – die bisherige Ansicht war übersichtlicher. Vollkommen an die neue Optik angepasst sind derweil die Screenshots- und die neue Tagebuch-App.
Sukzessive dürften auch andere Entwickler das neue Design übernehmen, wobei es derzeit noch überschaubar ist. Lediglich die Wallpaper-App Backdrops wurde schon ein Stück weit überarbeitet.
Die an M3E angepassten Apps kommen zudem nicht nur auf Smartphones mit Android 16 zum Einsatz, sondern auf allen Android-Versionen. Überdies landet die neue Optik auch auf Wear-OS-Geräten wie der Pixel Watch. Hier hat Google ebenfalls schon vorgelegt und erste Anwendungen überarbeitet.
Mit QPR1 ist noch nicht Schluss
Mit dem Feinschliff vor allem auf App-Ebene hat Google unterm Strich noch allerhand zu tun. Allerdings zeigt die nächste Beta-Version von Android 16 namens QPR2, die im Dezember als Pixel Drop erscheinen wird, dass Google automatisch ein themenbezogenes Symbol für Apps bereitstellt, sofern Entwickler keines für das dynamische Theme von Android hinterlegt haben.
Mit dem Update auf Android 16 QPR2 (Pixel Drop) will Google die App-Icon-Desings – falls Nutzer es einstellen – farblich vereinheitlichen.
(Bild: Andreas Floemer / heise medien)
Das System wendet laut Google dann einen Farbfilteralgorithmus auf das vorhandene App-Symbol an, „um es in einem monochromen Stil darzustellen, sodass es sich in das vom Benutzer gewählte Theme integrieren lässt“. Neu ist außerdem, dass die Bedienoberfläche der App vollständig interaktiv bleibt, wenn das System-Sharesheet geöffnet ist. Selbst große Entwickler wie Microsoft, Netflix oder Amazon bieten keine entsprechend angepassten Apps für Outlook oder Amazon Prime Video an. Zudem können Nutzer mit QPR2 den Dunkelmodus in Apps erzwingen, auch wenn Entwickler keinen integriert haben.
Wie bei Googles Material You von 2021 dürfte Google die neue Material 3 Expressive auch für weitere Hersteller bereitstellen, sodass sie es zumindest teilweise für ihre Bedienoberflächen übernehmen. Motorola bleibt bei der Bedienoberfläche für die eigenen Smartphones recht nah bei Googles Design, während andere Hersteller wie Samsung oder Oneplus eher nur Elemente wie das dynamische Theming übernehmen. Bei den Apps mit Material 3 Expressive haben sie jedoch keine Wahl.
(afl)
Künstliche Intelligenz
Beamer-Trends von der IFA 2025
Heute steckt in vielen Projektoren Lasertechnik, die den Bildwerfern zu mehr Lichtleistung verhilft. Dabei muss man jedoch unterscheiden zwischen echten Lasern und solchen, deren Licht über den Umweg einer Phosphorschicht angeregt wird. Diese Technik erzeugt insbesondere grünes Licht indirekt.
Echte grüne Festkörperlaser sind sehr aufwendig, teuer und brauchen starke Kühlung; ihr Licht entsteht durch die Umwandlung der Wellenlänge von Infrarotlasern am nichtlinearen Kristall (sogenannte Frequenzverdopplung). Sie stecken allenfalls in professionellen Kinoprojektoren.
In Heimkinobereich kommen stattdessen blaue Halbleiterlaser und zuweilen auch rote Laserdioden zum Einsatz. Der blaue Laserstrahl fällt innerhalb der Projektionseinheit auf eine beschichtete Phosphorscheibe, die daraufhin gelbes Licht reflektiert. Der gelbe Lichtstrahl wird über einen dichroitischen Spiegel in grünes und rotes Licht zerlegt. Zusätzliche rote und blaue Laser-LEDs verstärken den Lichtstrahl weiter, bevor er auf den DLP-Spiegelchip fällt (Digital Light Processing) und auf die Leinwand reflektiert wird. Am Ende bringen selbst die kompakten Laser-Projektoren über 5000 Lumen auf die heimische Leinwand. Das reicht auch für Räume, die nur leicht abgedunkelt sind.
Das war die Leseprobe unseres heise-Plus-Artikels “ Beamer-Trends von der IFA 2025″.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
-
Datenschutz & Sicherheitvor 3 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
UX/UI & Webdesignvor 3 Wochen
Der ultimative Guide für eine unvergessliche Customer Experience
-
Apps & Mobile Entwicklungvor 3 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Social Mediavor 3 Wochen
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
UX/UI & Webdesignvor 2 Wochen
Adobe Firefly Boards › PAGE online
-
Online Marketing & SEOvor 3 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Entwicklung & Codevor 1 Woche
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
Entwicklung & Codevor 3 Wochen
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R