Künstliche Intelligenz
.NET 10 Release Candidate 1: Nachschlag für Entity Framework Core
Nach Microsofts Plan sollte .NET 10.0 zum Ende der Preview-Phase vor dem frisch erschienenen Release Candidate 1 eigentlich „Feature Complete“ sein und die beiden Release-Candidate-Versionen sollten nur der Qualitätsverbesserung dienen. Das trifft laut Ankündigung auf Laufzeitumgebung, SDK, Sprachcompiler (C#, F#, Visual Basic .NET) und WPF auch zu. Wie schon in der Vergangenheit gibt es aber auch Teile von .NET, die noch signifikante neue Funktionen in Release Candidate 1 nachliefern. Dieses Mal betrifft es insbesondere Entity Framework Core und ASP.NET Core sowie MAUI.
Erste Version von Visual Studio 2026
.NET 10.0 Release Candidate 1 steht auf der .NET-Downloadseite bereit. Wie bei früheren Versionen besitzt der Release Candidate 1 eine Go-Live-Lizenz: Entwicklerinnen und Entwickler können die Version produktiv einsetzen und erhalten offiziellen Support von Microsoft. Gleichwohl müssen sie noch mit Änderungen rechnen bis zum Erscheinungstermin, der für den 11. November 2025 angekündigt ist.
.NET 10.0 Release Candidate 1 hat das Go-Live-Label.
Von Visual Studio 2022 gab es parallel ein Bugfixing-Update von Version 17.14.13 auf 17.14.14. Das Kompilieren einer .NET 10.0-Anwendung gelingt aber nur, wenn man 17.14.14 Preview 1.0 oder die erste Vorschauversion von Visual Studio 2026 (alias „18.0.0 Insiders“) verwendet. Die 2026er Version bietet neben noch mehr KI-Integration auch ein neues Look and Feel im Fluent Design mit zahlreichen neuen Themes wie Icy Mint, Cool Breeze, Mango Paradise und Spicy Red.
Zwischen den Themes in Visual Studio 2026 kann man schnell im Menü Tools/Theme umschalten.
Zudem soll Visual Studio 2026 laut einem Blogbeitrag von Microsoft schneller sein. Bei der Installation fällt ein Detail positiv auf: Visual Studio 2026 fragt, ob man eine Konfiguration (Workloads, individuelle Komponenten, Erweiterungen und Einstellungen) aus einer auf dem Rechner vorhandenen Visual-Studio-2022-Installation oder einer .vsconfig-Datei übernehmen möchte (siehe die folgende Abbildung). Schon Visual Studio 2022 konnte bei der Installation .vsconfig-Dateien verwenden, aber nur beim Starten der IDE-Installation per Kommandozeile (Parameter --config
).
Visual Studio 2026 bietet – im Gegensatz zu den beiden 2022er Versionen – auch die Installation des .NET-10.0-SDK als „Individual Component“ an. In den älteren Versionen muss man das .NET-SDK manuell von der Downloadseite installieren.
Visual Studio 2026 bietet bei der Installation die Übernahme bestehender Konfigurationen an.
Entity Framework Core nutzt den Spaltentyp JSON
Entity Framework Core unterstützt ab Release Candidate 1 die beiden neuen Spaltentypen JSON und VECTOR, die es in Microsoft SQL Server 2025 (derzeit in der Preview-Phase und der Cloudvariante SQL Azure gibt. JSON hat Entity Framework Core auch bisher schon verwendet, um beispielsweise eine Liste primitiver Datentypen wie List
auf eine einzige Tabellenspalte abzubilden – außer bei PostgreSQL, das nativ solche Mengen beherrscht – oder beim Speichern sogenannter Owned Types. Bisher kam dazu aber in der Datenbanktabelle der Spaltentyp nvarchar(max)
in Verbindung mit der SQL-Funktion OPENJSON()
zum Einsatz.
Nun verwendet Entity Framework Core hier den neuen nativen Spaltentyp JSON, sofern eine SQL-Server-Version angesprochen wird, die ihn beherrscht. Zudem muss man Entity Framework Core mitteilen, dass das Zielsystem JSON-Spalten kennt. Das geschieht durch Aufruf von UseSqlAzure()
statt UseSqlServer()
beim Zugriff auf eine Cloud-Datenbank. Beim lokalen Microsoft SQL Server muss man den Kompatibilitätslevel auf 170 setzen:
builder.UseSqlServer(connstring, x => x.UseCompatibilityLevel(170));
Neu in Entity Framework Core 10.0 Release Candidate 1 ist, dass Complex Types auch ein JSON-Mapping anbieten. Complex Types hat Microsoft in Entity Framework Core 8.0 als bessere Alternative zu Owned Types eingeführt und in Version 9.0 erweitert, aber in Complex Types wurde bisher kein JSON-Mapping angeboten, sondern sie wurden auf Spalten in der zum übergeordneten Objekttyp gehörenden Tabelle abgebildet. Daher waren sie bisher nur für 1:1-Beziehungen, nicht aber für 1:N-Beziehungen möglich. Das ändert sich in Entity Framework Core-Version 10.0: Hier ist der Aufruf ToJson()
bei komplexen Typen im 1:1- und 1:N-Mapping möglich:
modelBuilder.Entity(x =>
{
x.ComplexProperty(p => p.Address, p=>p.ToJson()); // 1:1-Mapping. NEU: p=>p.ToJson()
x.ComplexProperty(p => p.ManagementSet, p => p.ToJson()); // NEU: 1:N mit p=>p.ToJson()
}
Laut den Release Notes kommt es dabei in Release Candidate 1 aber noch zu Problemen und man soll mit dem Praxiseinsatz auf Release Candidate 2 warten. Im Schnelltest zeigte sich, dass beim JSON-Mapping der komplexen Typen unter anderem das Gruppieren mit GroupBy()
und die komplette Aktualisierung des komplexen Typen mit ExecuteUpdate()
in Release Candidate 1 zu Laufzeitfehlern führen.
Einsatz von Vektoren
Als zweiten neuen SQL Server-Datentyp können Entwicklerinnen und Entwickler ab Release Candidate 1 Microsoft.Data.SqlTypes.SqlVector
aus dem NuGet-Paket „Microsoft.Data.SqlClient“ (ab Version 6.1) beim objektrelationalen Mapping mit Entity Framework Core 10.0 verwenden. Ebenso gibt es eine neue EF-Core-Methode EF.Functions.VectorDistance()
für die SQL-Funktion VECTOR_DISTANCE()
. Bisher existierte für beides ein eigenständiges NuGet-Paket EFCore.SqlServer.VectorSearch. Allerdings kann man in Entity Framework Core 10.0 in LINQ-Abfragen noch nicht die SQL Server-Funktion VECTOR_SEARCH()
nutzen.
Die Dokumentation enthält ein Codebeispiel für Vektordaten:
public class Blog
{
// ...
[Column(TypeName = "vector(1536)")]
public SqlVector Embedding { get; set; }
}
…
IEmbeddingGenerator> embeddingGenerator = /* Set up your preferred embedding generator */;
var embedding = await embeddingGenerator.GenerateVectorAsync("Some text to be vectorized");
context.Blogs.Add(new Blog
{
Name = "Some blog",
Embedding = new SqlVector(embedding)
});
await context.SaveChangesAsync();
…
var sqlVector = new SqlVector(await embeddingGenerator.GenerateVectorAsync("Some user query to be vectorized"));
var topSimilarBlogs = context.Blogs
.OrderBy(b => EF.Functions.VectorDistance("cosine", b.Embedding, sqlVector))
.Take(3)
.ToListAsync();
Mehr Optionen für Parametermengen
Bei einem Thema probiert Entity Framework Core seit Jahren verschiedene Strategien: die Übergabe von Parametermengen von .NET an das Datenbankmanagementsystem, beispielsweise um passende Datensätze zu einer Liste von Orten zu suchen:
List destinations = new List { "Berlin", "New York", "Paris" };
var flights = ctx.Flights
.Where(f => destinations.Contains(f.Destination))
.Take(5).ToList();
Entity Framework Core-Versionen 1.0 bis 7.0 haben die Werte aus der Menge [code]destinations[/code] einzeln als statische Werte übergeben:
SELECT TOP(@p) [f].[FlightNo], [f].[Airline], [f].[Departure], [f].[Destination], [f].[FlightDate], [f].[FreeSeats], [f].[Memo], [f].[NonSmokingFlight], [f].[Pilot_PersonID], [f].[Seats], [f].[Timestamp]
FROM [Operation].[Flight] AS [f]
WHERE [f].[NonSmokingFlight] = CAST(1 AS bit) AND [f].[FlightDate] > GETDATE() AND [f].[FreeSeats] > CAST(0 AS smallint) AND [f].[Destination] IN (N'Berlin', N'New York', N'Paris')
Das sorgte jedoch im Datenbankmanagementsystem für viele verschiedene Ausführungspläne.
Seit Version 8.0 übergibt Entity Framework Core die Liste als ein JSON-Array, das im SQL-Befehl mit OPENJSON()
aufgeteilt wird:
SELECT TOP(@p) [f].[FlightNo], [f].[Airline], [f].[Departure], [f].[Destination], [f].[FlightDate], [f].[FreeSeats], [f].[Memo], [f].[NonSmokingFlight], [f].[Pilot_PersonID], [f].[Seats], [f].[Timestamp]
FROM [Operation].[Flight] AS [f]
WHERE [f].[NonSmokingFlight] = CAST(1 AS bit) AND [f].[FlightDate] > GETDATE() AND [f].[FreeSeats] > CAST(0 AS smallint) AND [f].[Destination] IN (
SELECT [d].[value]
FROM OPENJSON(@destinations) WITH ([value] nvarchar(30) '$') AS [d]
)
Das erschwerte dem Datenbankmanagementsystem die Optimierung der Ausführungspläne, da es die Zahl der Parameter nicht mehr kannte.
Seit Version 9.0 ist es möglich, über die Funktion EF.Constant()
oder den globalen Aufruf TranslateParameterizedCollectionsToConstants()
in der Kontextklasse in OnConfiguring()
zum alten Verhalten zurückzukehren:
var flights1 = ctx.Flights
.Where(f => EF.Constant(destinations).Contains(f.Destination))
.Take(5).ToList();
Beim geänderten Standard konnten Entwicklerinnen und Entwickler im Einzelfall mit EF.Parameter()
anschließend das JSON-Array übergeben.
Nun in Entity Framework Core 10.0 hat Microsoft abermals einen neuen Standard implementiert, nämlich die einzelne Übergabe der Werte als eigene Parameter:
SELECT TOP(@p) [f].[FlightNo], [f].[Airline], [f].[Departure], [f].[Destination], [f].[FlightDate], [f].[FreeSeats], [f].[Memo], [f].[NonSmokingFlight], [f].[Pilot_PersonID], [f].[Seats], [f].[Timestamp]
FROM [Operation].[Flight] AS [f]
WHERE [f].[NonSmokingFlight] = CAST(1 AS bit) AND [f].[FlightDate] > GETDATE() AND [f].[FreeSeats] > CAST(0 AS smallint) AND [f].[Destination] IN (@destinations1, @destinations2, @destinations3)
Das geschieht im obigen Beispiel mit drei Werten. Entity Framework Core arbeitet aber auch noch bei 1000 Werten auf diese Weise, wie ein Schnelltest zeigte.
Man kann das alte Verhalten mit EF.Constant()
und EF.Parameter()
erzwingen, da die optimale Strategie auch davon abhängt, wie stark die Zahl der Werte zur Laufzeit variiert. Die globale Änderung des Standards erfolgt mit
UseParameterizedCollectionMode(ParameterTranslationMode.Constant)
. Erlaubt sind die Werte: Constant
, Parameter
und MultipleParameters
. Die erst in Version 9.0 eingeführte Methode TranslateParameterizedCollectionsToConstants()
existiert noch, aber sie ist als [Obsolete]
markiert.
Verbesserungen bei ASP.NET Core
ASP.NET Core führt in Release Candidate 1 neue Metriken für ASP.NET Core Identity zum Überwachen der Benutzerverwaltung ein, beispielsweise aspnetcore.identity.user.create.duration, aspnetcore.identity.sign_in.sign_ins
und aspnetcore.identity.sign_in.two_factor_clients_forgotten
.
Der Persistent Component State in Blazor soll nun auch beim Einsatz der Enhanced Navigation beim statischen Server-Side-Rendering funktionieren
Um Instanzen von Klassen und Records in Blazor zu validieren, die Microsoft schon in der Preview-Phase von .NET 10.0 verbessert hatte, gibt es drei weitere Neuerungen:
- Validierungsannotationen können auch für Typen und nicht nur wie bisher für Properties definiert werden.
- Die neue Annotation
[SkipValidation]
schließt Typen und Properties von der Validierung aus. - Ebenso werden alle mit
[JsonIgnore]
annotierten Properties nicht mehr validiert.
Zudem gibt es nochmals einige kleinere Verbesserungen für die OpenAPI-Schema-Generierung, wie in den Release Notes beschrieben ist.
Kleine Verbesserungen bei MAUI
Auch bei .NET MAUI gibt es neue Metriken für die Überwachung der Layout-Performance:
layout.measure_count
,layout.measure_duration
,layout.arrange_count
undlayout.arrange_duration
.
Das Steuerelement
bietet neuerdings die Events WebViewInitializing()
und WebViewInitialized()
, um die Initialisierung anzupassen. Vergleichbare Ereignisse gab es zuvor im Steuerelement
(BlazorWebViewInitializing()
und BlazorWebViewInitialized()
). Das Steuerelement
besitzt nun die Eigenschaft IsRefreshEnabled
zusätzlich zu IsEnabled
.
Dark Mode bei Windows Forms
Das Windows-Forms-Teams schreibt in den Release Notes, dass der in .NET 9.0 eingeführte Dark Mode nicht mehr als experimentell gekennzeichnet ist. Gleichzeitig heißt es dort aber auch, dass die Arbeit am Dark Mode weitergehen wird.
Die Galerie zeigt einige Windows-Forms-Steuerelemente im Dark Mode.
Ausblick auf die stabile Version
Vor der für November angekündigten Veröffentlichung von .NET 10.0 ist noch ein weiterer Release Candidate im Oktober geplant. Als Erscheinungstermin für die stabile Version hat Microsoft den 11. November 2025 verkündet. iX, dpunkt.verlag und www.IT-Visions.de präsentieren .NET 10.0 am 18. November im eintägigen Online-Event betterCode() .NET.
(rme)
Künstliche Intelligenz
Forschung: Verschmelzen Menschen und KI zu einem „evolutionären Individuum“?
Aus dem Zusammenspiel von Mensch und KI-Technik könnte sich der nächste große evolutionäre Übergang der Erdgeschichte entwickeln, vergleichbar etwa mit dem Sprung von einzelligen zu mehrzelligen Organismen. Das ist die These eines Fachartikels zweier Evolutionsbiologen, die sie allerdings selbst als spekulativ bezeichnen. Doch gebe es bereits Mechanismen, die auf solch eine Entwicklung hinweisen. Möglich sei, dass Menschen künftig Fortpflanzung und Energie für ein wechselseitig abhängiges System mit KI bereitstellen, während letztere als Informationszentrum dient. Möglich seien aber auch unkontrollierbare Entwicklungen, wenn sich KI nach darwinistischen Prinzipien weiterentwickelt.
Sich selbst verstärkender Kreislauf
Als Künstliche Intelligenz (KI) bezeichnen die beiden Forscher „die Fähigkeit von gebauten Systemen, Aufgaben zu erledigen, für die Intelligenz nötig wäre, wenn Menschen sie machen“. Solche Technik sei immer stärker in die Infrastruktur des menschlichen Lebens integriert, von Empfehlungssystemen zu umfangreichen Frameworks für die Entscheidungsfindung. Die große Frage sei nun, ob wir damit an der Schwelle zu einer Veränderung stehen, die in der Biologie als „Große Evolutionäre Übergänge“ bekannt sind. Danach könnten Menschen und KI als „ein einziges evolutionäres Individuum“ funktionieren, „ähnlich wie einst die Verschmelzung zweier Mikroben zur Entstehung komplexer Zellen führte, auf denen alles vielzellige Leben basiert“.
Um ihre These zu untermauern, verweisen Paul Rainey vom Max-Planck-Institut für Evolutionsbiologie und Michael Hochberg von der Universität Montpellier auf Mechanismen des Zusammenwirkens, die sie bereits sehen. So würden KI-Systeme schon beeinflussen, wie Menschen ihre Partner auswählen, wie ihre Karriere voranschreitet und welchen Zugang sie zu Bildung bekommen. Weiterhin gebe es Rückkopplungsschleifen, in denen Menschen KI trainieren und die wiederum das Verhalten von Menschen prägen. Das sei ein sich selbst verstärkender Kreislauf. Weil Menschen KI zunehmend als Hilfe für ihr Gedächtnis, für Entscheidungen und zur Koordination benutzen, „könnte ein Leben ohne sie zunehmend schwierig werden“.
Prinzipiell wäre die Transformation „weder ungewöhnlich noch zwangsläufig bedrohlich“, versichert Hochberg. Zwar seien große Übergänge des Lebens häufig mit einem Verlust von Autonomie verbunden gewesen. Gleichzeitig führten sie aber zu „komplexeren und stabileren Organisationsformen“, etwa in Gesellschaften von Insekten. Als größere Herausforderung bezeichnen sie die Notwendigkeit, diesen Übergang zu formen. Geklärt werden müsse, wie KI mit Menschen interagiere, wie Verantwortungen verteilt werden und wie sie sich zusammen weiterentwickeln. Angesichts der enormen Geschwindigkeit, mit der KI weiterentwickelt werde, sei das schwierig. Es sei unklar, ob bestehende Werkzeuge dazu in der Lage sind. Ihre Arbeit haben sie im Fachmagazin PNAS veröffentlicht.
(mho)
Künstliche Intelligenz
Analogfotografie im Urlaub: Bewusstes Sehen, achtsames Auslösen
Analoge Kameras sieht man nur noch selten, wenn überhaupt, dann in nostalgischen Filmen oder Serien und nicht im Urlaub. Doch gerade dieser passt mit Analogfotografie gut zusammen, denn beide sind etwas ganz Besonderes.
Reisen sind einmalige Erlebnisse. Man besucht Orte, die man noch nicht kennt, und hat plötzlich viel Zeit für sich selbst und seine Kamera. Spannung und Vorfreude begleiten die Planung und man lässt sich gerne auf Unerwartetes ein. Diese Abweichung vom Alltag verdient eine liebevolle Dokumentation, die sich durch Fotografie besonders gut umsetzen lässt. Wer die Spannung noch erhöhen, die Vorfreude über den Urlaub hinausstrecken oder besondere Momente im wahrsten Sinne des Wortes festhalten möchte, für den ist die analoge Fotografie ideal. Denn in einer immer schnelleren Welt kann es entschleunigend und beruhigend wirken, analoge Technik zu nutzen – Urlaub machen allemal! Im folgenden Artikel werde ich nicht nur romantisch begründen, weshalb jeder Fotointeressierte das einmal ausprobieren sollte, sondern auch auf mögliche Fallstricke und Schwierigkeiten hinweisen, um Sie bestmöglich auf Reisen mit analoger Ausrüstung vorzubereiten.
Tobias Müller entdeckte 2019 seine Leidenschaft für die Fotografie, insbesondere für die analoge. Er arbeitet mit den unterschiedlichen Kameratypen und Filmen, egal ob Kleinbild- oder Mittelformatkamera, Farb- oder Schwarz-Weiß-Film. Auf Instagram ist er aktiv in der lebendigen Analogszene.
Die im Anschluss an den Urlaub entwickelten Fotos bewahren die Erinnerung an die schöne Zeit. Dabei sind sie oft tückisch: Schnell wünsche ich mich zurück an die besuchten Orte. Gleichzeitig betrachte ich die Bilder immer wieder und bin oft stolz auf das, was ich mit Ruhe, in einer ungewohnten Umgebung, mit Zeit und im besten Fall mit guter Stimmung auf den Film zaubern kann. Bei mir sind es häufig diese Bilder, die mir zeigen, wie viel ich gelernt habe: Wie schnell mein fotografischer Blick Situationen erfasst und wie gut mein Auge trainiert ist – vor allem, wenn neue Reize gesetzt werden. Das erste Anschauen der Urlaubsfotos ist elektrisierend und packend. Zunächst hoffe ich, dass die Motive, die noch in meinem Kopf präsent sind, auch auf den Fotos gut zu sehen sind. Gleichzeitig durchlaufe ich den eigenen Urlaub – oftmals chronologisch – noch einmal. Ich erinnere mich intensiv an Erlebtes und beginne, die Bilder vor dem inneren Auge mit dem gerade Gesehenen zu verknüpfen. Analoge Fotografie hat eben häufig den Charme, etwas verträumter zu wirken, als es der Moment in der Realität tatsächlich war – ein weiteres Argument für die Harmonie zwischen Urlaub und analoger Fotografie. Und so träumt man schon von zukünftigen Reisen oder sich zu bereits erlebten zurück. Der Look der Bilder erzeugt genau dieses Gefühl.
Das war die Leseprobe unseres heise-Plus-Artikels „Analogfotografie im Urlaub: Bewusstes Sehen, achtsames Auslösen“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Live Translation für die AirPods Pro: EU-Nutzer bekommen die Funktion nicht
Große Enttäuschung bei Besitzern von AirPods Pro, die auf die neue Liveübersetzungsfunktion gewartet haben: Die Funktion wird laut Apple im Gebiet der Europäischen Union (EU) nicht zur Verfügung stehen. Betroffen davon sind Nutzer, die sich in der EU befinden und deren Apple-Konto einem EU-Land zugeordnet ist. Zu den Gründen schweigt Apple. Die Information selbst wurde einem Support-Dokument entnommen, das im Netz einsehbar ist. Eine Anfrage von Mac & i hat Apple bislang nicht beantwortet.
Mit Blick auf die Geschehnisse der letzten Zeit gilt es allerdings als sehr wahrscheinlich, dass die Entscheidung mit dem anhaltenden Zwist zwischen Apple und der Europäischen Kommission über Fragen der Interoperabilität zu tun haben dürfte. Die EU möchte, dass Apple sich bei seiner Hard- und Software für Mitbewerber öffnet. Apple lehnt dies an vielen Stellen mit Hinweis auf Risiken für die Sicherheit der Nutzer und Geräte ab. Offen ist allerdings, ob Apple im Falle der Live-Übersetzung in vorauseilendem Gehorsam handelt. Oder ob es schon Signale aus Brüssel gegeben hat.
Viele EU-Sprachen werden unterstützt
Die neue Live-Übersetzung – im Original Live Translation – hat Apple am Dienstag während des „Awe Dropping“-Events am Beispiel der neuen AirPods Pro 3 vorgestellt. Sie steht aber als Softwareupdate im Zusammenhang mit iOS 26 für das iPhone auch für die AirPods 4 sowie für die AirPods Pro 2 zur Verfügung. Nötig ist allerdings mindestens ein iPhone 15 Pro oder ein anderes geeignetes Gerät, das Apple Intelligence unterstützt.
Die Funktion ermöglicht es, beim Tragen der Ohrhörer auf KI-Funktionen zurückzugreifen, die das Gesagte des Gegenübers in die eigene Sprache übersetzen. Umgekehrt wird das eigene Gesagte auch in die Gegenrichtung übersetzt. Wenn nur einer der Gesprächspartner über geeignete AirPods verfügt, werden die Antworten auf dem iPhone-Display angezeigt. Wenn beide die Geräte haben, erfolgt die Übersetzung beim Gegenüber direkt per Sprache.
Apple unterstützt zum Auftakt Englisch, Französisch, Deutsch, Portugiesisch und Spanisch. Noch in diesem Jahr sollen auch Italienisch, Japanisch, Koreanisch und Chinesisch folgen.
Knackpunkte an mehreren Stellen
Rechtliche Knackpunkte im Falle einer EU-Einführung sind an mehreren Stellen denkbar. Der AI-Act etwa könnte Anwendung finden, da die neue Funktion dauerhaft Sprache verarbeitet. Hier wäre eine Einstufung als sensibler KI-Anwendungsfall möglich. Auch im Zusammenhang mit der Datenschutzgrundverordnung besteht Konfliktpotenzial, mit Blick auf die Frage, ob andere Personen erkennen können, dass eine aufnehmende und sprachverarbeitende Funktion der AirPods Pro aktiv ist. Und schließlich könnten auch die Interoperabilitätsanforderungen eine Hürde sein. Apple müsste dann Mitbewerbern gleichberechtigt auch solche Funktionen anbieten lassen, etwa mit einem anderen Smartphone als dem iPhone – etwas, was Apple ablehnt.
Apples Mitbewerber sehen das Thema augenscheinlich entspannter. Die Pixel Buds von Google bieten bereits seit Längerem eine Live-Übersetzung im EU-Raum an.
Bei Software-Features für das iPhone scheint die Lage deutlich entspannter zu sein als bei der Live-Übersetzung mit AirPods. Entsprechende Übersetzungsfunktionen, die mit iOS 26 kommen sollen, stehen bislang nicht auf der Streichliste für EU-Nutzer.
Apple-Nutzer sind verärgert
In Foren sind bereits zahlreiche verärgerte Reaktionen von Apple-Kunden zu lesen. Der Frust richtet sich zumeist allerdings gegen die Europäische Union und ihre Regulierung. Apple selbst unternimmt bislang wenig, um die Situation aufzuklären. Ähnlich lief es bei der Einführung der Apple Intelligence, wo lange unklar war, ob und wann sie in der EU eingeführt wird. Am Ende gehörten EU-Länder und -Sprachen sogar zu den ersten in der internationalen Erweiterung. Aber es gibt auch andere Beispiele: Das iPhone-Mirroring, das es ermöglicht, ein iPhone per Mac fernzusteuern, gibt es bis heute nicht in der EU. Auch hierzu äußert sich Apple nicht, woran es liegt und ob eine Perspektive besteht.
(mki)
-
Datenschutz & Sicherheitvor 3 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
UX/UI & Webdesignvor 3 Wochen
Der ultimative Guide für eine unvergessliche Customer Experience
-
Apps & Mobile Entwicklungvor 3 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Social Mediavor 3 Wochen
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
UX/UI & Webdesignvor 2 Wochen
Adobe Firefly Boards › PAGE online
-
Online Marketing & SEOvor 3 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Entwicklung & Codevor 1 Woche
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
Entwicklung & Codevor 3 Wochen
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R