Künstliche Intelligenz

Analyse zu neuen Plänen: Macht Apple bei KI jetzt alles besser?


Apple Intelligence ist ein Begriff, bei dem Fans von KI bislang abwinken: Die Sprach- und Bildmodelle des iPhone-Herstellers gelten einfach nicht als konkurrenzfähig, genauso wenig wie die offerierten Dienste wie Schreibwerkzeuge, Image Playground oder Genmoji. Einen eigenen Chatbot bietet Apple ebenso wenig an, mit Siri lässt sich nur schlecht plaudern. Zwei Nachrichten aus den vergangenen Wochen könnten nun dazu führen, dass sich das alles ändert: Apple hat demnach vor, erstmals einen eigenen Chatbot direkt in seine Betriebssysteme zu integrieren, sowie, und das ist noch erstaunlicher, ein eigenes KI-Wearable auf den Markt zu bringen.

Weiterlesen nach der Anzeige




Ben Schwan lebt als Journalist und Autor in Berlin, schreibt seit 25 Jahren über Technologie-, Forschungs- und Wissenschaftsthemen und lässt sich seine Begeisterung für Neues weder durch sich ständig wiederholende Hype-Zyklen, amoklaufende Sicherheitspolitiker noch technische Unzulänglichkeiten nehmen.

Zunächst zum Chatbot. Diesen hatte Apple über einen langen Zeitraum sowohl nach Innen als nach Außen abgelehnt. Softwareboss Craig Federighi gilt allgemein als KI-Skeptiker, der Rieseninvestitionen wie bei anderen IT-Riesen bislang untersagt hatte. Offenbar fürchtete der Konzern, erstens nicht mit der Konkurrenz mithalten zu können, sowie zweitens in Fallen hineinzulaufen, die Apple gar nicht mag – etwa wenn KIs halluzinieren, Guardrails nicht beachten und damit das familienfreundliche Image des Konzerns antasten.

Doch mit iOS 27, macOS 27 und den anderen Betriebssystemen, die im Sommer vorgestellt und im Herbst ausgeliefert werden dürften, soll sich das ändern: Ein systemweit zur Verfügung stehender Chatbot ist glaubwürdigen Berichten zufolge vorgesehen, als eine Art Super-Siri. Das Ganze wird dann vom „bevorzugten Cloud-Anbieter“ des Konzerns „gepowert“, zu dem sich Google kürzlich offiziell erklären durfte. Heißt: Apple steht außen drauf, ein Google-Gemini-basiertes Modell ist drin. Interessant wird hier, wie Apple dies vermarkten wird. Der Konzern äußert sich nicht zu technischen Details, es könnte für ihn aber ratsam sein, durchblicken zu lassen, dass man Google-Technik nutzt, um die oben erwähnten möglichen Peinlichkeiten zu umgehen.

Völlig unklar ist auch noch, wie es mit dem Datenaustausch aussieht. Bislang wird angenommen, dass Apple zunächst einfachere Gemini-Modelle auf eigenen Servern im Rahmen der Private-Cloud-Compute-Initiative laufen lässt, doch sind die für den im Herbst geplanten Chatbot wohl nicht gut genug. Danach kann Apple eigentlich nur noch Google-Tensor-Systeme erwerben, die für die neuesten Gemini-Modelle optimiert sind, um sie in eigene Rechenzentren zu stellen. Oder aber die Rechenarbeit erfolgt in Googles Anlagen, was preislich und praktisch wohl sinnvoll ist, zumal auch die halbe iCloud auf Google-Cloud-Servern gehostet wird (neben Microsoft Azure und Amazons AWS).

Weiterlesen nach der Anzeige

Erste Anzeichen, wie man sich das alles vorzustellen hat, wird es wohl im April geben. Dann kommt nach allen aktuellen Erkenntnissen endlich die kontextsensitive Siri im Rahmen von iOS 26.4. Diese wird auf Apples eigenen Modellen sowie auf einfacheren Gemini-Modellen basieren, wie es bislang heißt. Der Konzern kann sich hier keine Schnitzer erlauben, nachdem das Vorhaben bereits im Sommer 2024 (!) angekündigt worden war. Siri soll damit endlich intelligenter werden, Nutzerinhalte verwenden, um echten Mehrwert zu bieten – und auch Apps steuern oder zumindest auslesen. Die Chatbot-Qualitäten eines ChatGPT oder Claude sind jedoch nicht zu erwarten, die kommen später.

Schließlich kam auch noch die Meldung herein, dass Apple im Sinne einer direkten Konkurrenz zu Ex-Designboss Jony Ive ein eigenes KI-Gadget in Form eines Wearables plant. Als ich dies erstmals vernahm, hielt ich es für einen Scherz. Schließlich sind bisherige Produkte in dem Segment krachend gescheitert, und es steht keineswegs fest, dass es Jony Ive zusammen mit Sam Altman gelingt, ein im Markt erfolgreiches KI-Wearable von OpenAI durchzusetzen.

Trotzdem scheinen die Informationen der Wahrheit zu entsprechen. Laut Angaben von The Information soll für 2027 eine Art anpinnbarer AirTag mit Lautsprecher, Kamera, Mikrofone und drahtloser Ladefunktion erscheinen. OpenAI hat selbst angeblich Stifte, Brillen, Pins und/oder Ohrstöpsel in der Pipeline. Die Sinnhaftigkeit dieser Geräte ergibt sich eigentlich nur daraus, dass sie ohne Zusatzhardware wie ein Smartphone funktionieren, denn sonst könnte man einfach dieses verwenden.

Apple hat außerdem bereits die Apple Watch, die die ideale Plattform für einen ständig verfügbaren KI-Assistenten darstellen dürfte – sie kann aber bislang offiziell nur indirekt Apple Intelligence. Apples möglicher KI-Pin soll ein Millionenseller werden. Wie intelligent oder Cloud-abhängig er wird, ist offen. Es wäre für Apple zumindest ungewöhnlich, in eine derart unbewiesene Kategorie vorzustoßen. Da ist der Aufkauf des KI-Unternehmens Q.AI schon spannender, das es ermöglichen soll, mit Sprachassistenten stimmlos zu kommunizieren. Das wäre ein echter Fortschritt.


(bsc)



Source link

Beliebt

Die mobile Version verlassen