Connect with us

Künstliche Intelligenz

Kommentar: Schluss mit der zweigeteilten Welt bei Apple


Als Apple-User genieße ich in Europa besondere Freiheiten: Ich darf Apps nicht nur über den App Store beziehen, sondern auch über alternative Marktplätze. Die EU will mit dem Digital Markets Act (DMA) für mehr Wettbewerb sorgen und Apples Monopolstellung brechen. Um Umsatzverluste muss sich der Konzern aber kaum sorgen – denn große App-Store-Alternativen gibt es bislang nicht.

Für uns EU-Bürger gelten noch weitere Sonderregeln. Wir dürfen sogar Apps wie Nachrichten oder Safari vom Gerät löschen und somit vollständig durch Konkurrenten ersetzen. Außerdem fordern mich iOS und iPadOS aktiv zur Wahl des Standardbrowsers auf. In Wahrheit erweckt dieser Dialog jedoch nur den Anschein echter Wahlfreiheit: Unter der Haube nutzt jeder iOS-Browser weiterhin Apples WebKit-Engine für die Darstellung der Inhalte. Chrome, Firefox & Co. sind lediglich eine Art Safari im neuen Gewand – und bleiben blasse Schatten ihrer Desktop-Versionen. Auf dem Mac hingegen hielt Apple derartige Einschränkungen nie für nötig.

Dabei dürfen Browseranbieter in der EU seit über einem Jahr eigene Engines einsetzen. Trotzdem fehlen immer noch echte Alternativen für iPhone und iPad. Apple ist hierbei nicht unschuldig, denn für den Rest der Welt halten sie am WebKit-Zwang fest. Wer einen eigenständigen Browser für iOS/iPadOS anbieten will, müsste eine separate Version nur für die EU pflegen – für weniger als zehn Prozent des weltweiten App-Store-Marktes. Dass Entwickler diesen Aufwand scheuen, ist schon allein wirtschaftlich nachvollziehbar. So fehlt weiterhin ein wichtiger Baustein für das iPad als vollwertigen Desktop-Ersatz. Vor allem einige Business-Webanwendungen funktionieren mit WebKit einfach nicht.

Apple sollte die künstliche Zweiteilung der Welt endlich aufgeben. Die EU hat die Basis für mehr Freiheit geschaffen – die Kalifornier könnten sie problemlos global ausrollen. Dann könnten Entwickler ihre Anwendungen ohne verwirrend fragmentierte Vorgaben oder technische Sonderwege wieder weltweit anbieten. Auch Apple selbst würde profitieren, wenn sie keine komplexen Weichen mehr für diverse Regionen in ihre Systeme einbauen und pflegen müssten.


Wolfgang Kreutz

Wolfgang Kreutz

Wolfgang Kreutz ist seit 2013 Redakteur bei Mac & i. Der gelernte Mediengestalter ist ein Mann der Praxis, Tool-Junkie sowie Workflow-Optimierer. Vom C64 mit Basic und Assembler geprägt, erleichtert er sich heute die Arbeit durch Skripte in verschiedenen Sprachen. Unter macOS bevorzugt er AppleScript und Shell-Skripte, erkundet aber auch Apples Kurzbefehle.

Dieser Kommentar erschien zuerst als Editorial in Mac & i 4/2025 – jetzt frisch am Kiosk und versandkostenfrei im heise shop.


(wre)



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Künstliche Intelligenz

tvOS und mehr: Video-App Infuse streamt von iCloud


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Der Videoabspieler Infuse, mit dem sich nahezu jedes Medienformat auf Apple-Geräten wiedergeben lässt, hat ein kleines, aber feines Update bekommen. Mit Version 8.2, die seit dieser Woche verfügbar ist, wird Apple-TV-Geräten unter anderem erstmals Streaming-Zugriff auf in Apples iCloud Drive gespeicherte Inhalte ermöglicht. Verbesserungen gibt es auch bei der Wiedergabequalität (mit KI-gestütztem Upscaling) und der Nutzung der App durch mehrere User im Haushalt.

Wer Videos und andere Mediendateien in iCloud vorhält, kann diese nun nicht nur in Infuse herunterladen, um sie wiederzugeben, sondern sie direkt streamen, also ohne Speicherverbrauch abspielen. Das geht auch unter tvOS. Allerdings muss man dazu zunächst Links auf einem anderen Gerät (etwa iPhone, iPad oder Mac) generieren, die man dann n der Links-Sektion von Infuse hinzufügen kann. Der Grund: Apple sieht derzeit kein Browsing in iCloud Drive (sowie Dateisysteme im Allgemeinen) auf Apple-TV-Geräten vor.

Ebenfalls neu sind Nutzerprofile für Infuse. Jedes Familien- oder Haushaltsmitglied bekommt dadurch einen eigenen Zugang zu der App, wenn das gewünscht ist – inklusive Netzwerkressourcen, Layout, Zusehgeschichte, Ratings oder Jugendschutzeinstellungen. Das Profil nutzt Apples hauseigene Profiltechnik unter tvOS (die künftig in tvOS 26 einfacher zu nutzen sein soll) und kennt auch die Zuordnung zum jeweiligen iCloud-Account.

Wer Videos mit geringerer Auflösung abspielen will, soll auf Apple-TV-4K-Geräten von einem verbesserten KI-Upscaling profitieren. Es soll „schärferer, klarere Bilder“ liefern. Allerdings können nur Geräte mit A16 oder höher die volle Qualität nutzen – entsprechend interessant wird dies für Apple-TV-Geräte, wenn diese möglicherweise noch dieses Jahr auf einen aktuelleren SoC-Stand gebracht werden. Weitere Neuerungen in Infuse 8.2: Künftig wird das Metacritic-Rating eines Films oder einer Serie eingeblendet, man kann die Helligkeit von HDR-Untertiteln einstellen und Deeplinks via TMDB-IDs verwenden.

Firecore verkauft Infuse in mehreren Varianten, im Monatsabo zahlt man 1,99 Euro, im Jahresabo 14,99 Euro für die Pro-Version mit allen Features. Eine „Lifetime“-Lizenz wird für knapp 100 Euro offeriert. Infuse läuft auf iPhone, iPad, Apple TV und Mac sowie Vision Pro.


(bsc)



Source link

Weiterlesen

Künstliche Intelligenz

KI-Zusammenfassungen reaktiviert: Weiter merkwürdige News-Schnipsel von Apple


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Mit iOS 26 Developer Beta 4 (respektive Public Beta 1) hat Apple eine umstrittene Apple-Intelligence-Funktion reaktiviert. Die sogenannten Notification Summaries, die Inhalte aus Benachrichtigungen mittels Künstlicher Intelligenz und Apples hauseigenes Sprachmodell zusammenfassen sollen, hatten nach ihrer Freigabe für Falschangaben und manche Lacher gesorgt, wenn sie sich aus Meldungen von News-Apps speisten. Der iPhone-Konzern entschied sich daher, die Funktion zunächst abzuschalten. Seither wurden Benachrichtigungen aus den Themensparten „Nachrichten“ und „Unterhaltung“ nicht mehr generiert. Das wird für Normalnutzer auch noch bis September so bleiben: Erst iOS 26 gibt die Funktion wieder frei. Allerdings berichten Betatester, dass Apple das Problem nur semigut löst.

So gibt es zunächst erstmals die Möglichkeit für die Nutzerschaft, selbst zu entscheiden, ob KI-Zusammenfassungen für bestimmte App-Sparten erscheinen oder nicht. Apple unterteilt dies in drei Kategorien: „News & Entertainment“ (Nachrichten und Unterhaltung), „Communication & Social“ (Kommunikation und Social Media) sowie „All other Apps“ (alle anderen Apps). Zudem soll man, sobald eine Zusammenfassung erschienen ist, diese per Prompt für einzelne Apps auch wieder abdrehen können – ob dies nur bei News-Apps geht oder bei allen, blieb zunächst unklar.

Verschiedene Beispiele, die im Netz kursierten, darunter beim Apple-Blog 9to5Mac, zeigen jedoch, dass die AI Summaries weiterhin nicht perfekt sind – und weiterhin für Lacher sorgen dürften. Fünf Nachrichten aus Apples hauseigener News-App wurden etwa mit den Worten „Überall riecht es nach Cannabis; Ozzy Osbournes Einfluss auf Heavy Metal; Geruch und Altersintelligenz“ zusammengefasst. Zwar stimmen hier alle Punkte, wirklich sinnig erscheinen sie jedoch nicht.

Das Grundproblem bleibt, dass Apple nur sehr geringe Datenmengen vorliegen: Aus einer sowieso schon kurzen Benachrichtigung wird eine noch kürzere. Lösen liese sich das Problem wohl nur, wenn Apple Intelligence in die einzelnen Apps einsteigen könnte, um mehr Details zu erhalten – oder die darin enthaltenen Links klickt.

Beides ist aber bislang nicht vorgesehen und technisch wohl nur schwer umzusetzen, wenn Apple seinen Datenschutzschwerpunkt bei KI behalten will. Immerhin kennzeichnet Apple Zusammenfassungen etwas besser. Doch grundsätzlich gilt: Auch jetzt sollte man sich auf diese nicht verlassen. Die BBC hatte Apple sogar aufgefordert, sie nicht mehr zu reaktivieren, um die Verbreitung von Fake News zu verhindern.


(bsc)



Source link

Weiterlesen

Künstliche Intelligenz

Meta macht das Handgelenk zur Computerschnittstelle


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Meta publizierte die Forschung in der Zeitschrift Nature und beschreibt dort, was das Armband leistet: Es erkennt frei in der Luft ausgeführte Pinch-, Tap- und Swipe-Gesten, erlaubt die Steuerung eines eindimensionalen Cursors durch Handgelenksbewegungen und ermöglicht das Schreiben von Wörtern, indem Nutzer mit dem Zeigefinger Buchstaben auf eine feste Oberfläche nachzeichnen. Das kann ein Tisch oder das eigene Bein sein.

Die Innenseite des Armbands ist mit 48 Trockenelektroden ausgestattet, die elektrische Muskelsignale am Handgelenk erfassen. Ein von Meta trainiertes KI-Modell analysiert diese Signale, erkennt darin individuelle Muster und deutet sie in die beschriebenen Computerbefehle um. Anders als bei herkömmlicher Elektromyografie (EMG), bei der Nadeln in die Haut geführt werden, erfasst das Armband die Signale non-invasiv über die Hautoberfläche, ein Verfahren, das sEMG (surface electromyography) heißt. Trotz dieser Einschränkung erreiche das System eine bemerkenswert hohe Bandbreite beim Dekodieren der Muskelsignale.


Metas sEMG-Produktprototyp mit sichtbaren Sensoren an der Innenseite.

Metas sEMG-Produktprototyp mit sichtbaren Sensoren an der Innenseite.

Meta stellte 2024 einen Prototyp des Armbands vor, der bereits sehr marktreif wirkt und von der Presse ausprobiert werden konnte.

(Bild: Meta)

Meta trainierte das KI-Modell mit Daten von über 6.500 Probanden und entwickelte damit nach eigenen Angaben die erste neuromotorische Schnittstelle, die bei einer breiten Bevölkerungsschicht ohne individuelles Training oder Kalibrierung zuverlässig funktioniert.

Testpersonen schrieben mit dem System rund 21 Wörter pro Minute (Medianwert), indem sie Buchstaben auf einer Oberfläche nachzeichneten. Durch personalisierte Modelle ließ sich dieser Wert weiter steigern, heißt es in der Forschungsarbeit. Dennoch liegt die Eingabegeschwindigkeit noch weit hinter dem Tippen auf digitalen Smartphone-Tastaturen (ca. 30–40 WPM) und physischen Computertastaturen (ca. 40–50 WPM) zurück.

Meta entwickelte das Armband mit dem Ziel, AR-Brillen ohne zusätzliche Eingabegeräte wie Touch-Displays, Tastaturen und Controller bedienen zu können. Die integrierte Schreibfunktion würde sich in diesem Kontext etwa zum Verfassen von Textnachrichten eignen. Durch die Erkennung subtiler Pinch-, Tap- und Swipe-Gesten ermöglicht das Armband zudem eine unauffällige Alternative zur Sprachsteuerung oder Gestenerkennung per optischem Handtracking, das in der Öffentlichkeit eher selten zur Anwendung kommen dürfte. Mit dem Armband reichen Mikrogesten und die Hand kann dabei in der Hosentasche bleiben.


Illustrative Zeichnung zweier Menschen, die im Alltag ein sEMG-Armband nutzen.

Illustrative Zeichnung zweier Menschen, die im Alltag ein sEMG-Armband nutzen.

Metas sEMG-Armband soll eine unauffällige Steuerung von AR-Brillen im Alltag ermöglichen.

(Bild: Meta)

Die Geschichte des Armbands reicht weit zurück und basiert auf Technologie des Start-ups CTRL Labs. Knapp sechs Jahre nach der Übernahme des Start-ups durch Meta rückt die Kommerzialisierung des Armbands in greifbare Nähe: 2024 demonstrierte das Unternehmen einen stark fortgeschrittenen Produktprototyp in Kombination mit der AR-Brille Orion und glaubt man einem Bloomberg-Bericht, könnte das Armband noch 2025 erscheinen und zur Steuerung einer neuen Smartbrille mit Display dienen.

Unabhängig davon besitzt die Kombination aus sEMG-Technologie und Künstlicher Intelligenz großes Zukunftspotenzial für die Mensch-Computer-Interaktion. Die Hoffnung geht dahin, dass sich Eingabemethoden künftig dem Menschen anpassen und nicht länger umgekehrt. Lernfähige KI-Modelle könnten individuelle Steuerungsmuster erkennen und übernehmen. So könnte etwa die Art, wie eine Mikrowelle bedient wird, automatisch auf die persönliche Bedienlogik eines Individuums zugeschnitten werden, ohne dass das Gerät eigens dafür programmiert werden müsste.

Auch in der Therapie könnte die Technologie Nutzen stiften. In einer von Meta unterstützten Studie war ein Schlaganfallpatient mithilfe eines sEMG-Armbands in der Lage, alle Finger einer virtuellen Hand zu bewegen, obwohl er seine physischen Finger nicht mehr strecken konnte: Das Armband konnte am Handgelenk allerfeinste Restaktivitäten erkennen und in Computerbefehle umsetzen. In einer weiteren Studie entwickelten Personen mit starken Bewegungseinschränkungen infolge von Muskelschwund und Rückenmarksverletzungen individuelle Gesten für typische Computerinteraktionen.

Die Forschungsarbeit ist frei im Internet zugänglich.


(tobe)



Source link

Weiterlesen

Beliebt