Connect with us

Künstliche Intelligenz

Lokale KI auf dem iPhone: Apple zeigt erste Beispiel-Apps


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Mit der Veröffentlichung von iOS 26, iPadOS 26 und macOS 26 hat Apple die Voraussetzungen geschaffen, dass Dritt-Apps das lokale KI-Modell Apples auf dem Gerät nutzen können. Jetzt hat der iPhone-Hersteller in einer Pressemitteilung einige Beispiele hervorgehoben, was Entwickler aus dieser Möglichkeit gemacht haben.

Das Interesse der auf der Weltentwicklerkonferenz WWDC anwesenden Programmierer war groß, als Apple die Öffnung seiner KI ankündigte. Schon während der Veranstaltung experimentierten die ersten mit den Möglichkeiten. Für Entwickler ist die lokale Verarbeitung aus mehreren Gründen interessant: Neben dem Datenschutz können sie KI-Funktionen so auch verwenden, wenn das Gerät nicht oder nur schlecht mit dem Netz verbunden ist. Und für sie entfallen die Kosten, die für die Nutzung von externen KI-Modellen anfallen.

Von Nutzen ist das freilich nur, wenn die KI auch mit externen Lösungen wie von OpenAI oder Anthropic mithalten kann. Die jetzt veröffentlichten Apps zeigen, wo die Entwickler verlässliche Unterstützung durch Apples KI sehen. Ein großer Vorteil von Apples Lösung ist außerdem, dass die Antworten der KI zuverlässig in einem Format ausgegeben werden sollen, das von der App verarbeitet werden kann.

Die Videobearbeitungs-App „Detail: AI Video Editor“ erstellt etwa aus Entwürfen oder Gliederungen Teleprompter-Skripte. Für fertige Videos generiert die App automatisch Titel, Beschreibungen und Hashtags.

SmartGym“ verwandelt einfache Beschreibungen des Nutzers in strukturierte Trainingspläne mit Sätzen, Wiederholungen und Pausen. Die App lernt aus Trainingsdaten, gibt personalisierte Empfehlungen mit Erklärungen und erstellt automatisch Trainingsnotizen sowie dynamische Begrüßungsnachrichten.

Stoic“ generiert personalisierte Tagebuch-Prompts basierend auf vorherigen Einträgen und Stimmungen der Nutzer. Die App fasst vergangene Einträge zusammen, organisiert thematisch verwandte Einträge und bietet eine verbesserte natürliche Sprachsuche.

Streaks“ schlägt Aufgaben in To-do-Listen intelligent vor und kategorisiert diese automatisch. Die App hilft bei der Organisation täglicher Routinen. Und „Lil Artist“ kombiniert KI-Texterstellung mit Bildgenerierung, um illustrierte Kindergeschichten zu erstellen. Kinder wählen Charaktere und Themen über die Benutzeroberfläche aus, was das Erlebnis zugänglicher macht.

Das Foundation Models Framework ist in Apples Programmiersprache Swift integriert. Anfragen an das KI-Modell mit drei Milliarden Parametern können direkt aus dem bestehenden Swift-Code gesendet werden. Durch die ausschließlich lokale Verarbeitung will Apple besonders beim Thema Datenschutz punkten. So können Entwickler auch nicht auf Apples Cloud-KI Private Cloud Compute zugreifen, während das zum Beispiel Nutzern der Geräte via Kurzbefehle-App möglich ist. Das Foundation Models Framework ist mit iOS 26, iPadOS 26 und macOS 26 verfügbar und funktioniert auf jedem Apple Intelligence-kompatiblen Gerät, wenn Apple Intelligence aktiviert ist.


(mki)



Source link

Künstliche Intelligenz

Anonymisierendes Linux: Tails 7.2 mit dezenter Versionspflege


Die auch für den mobilen Einsatz auf USB-Stick optimierte anonymisierende Linux-Distribution Tails ist in Version 7.2 verfügbar. Die Entwickler haben kleine Ärgernisse und Probleme beseitigt und Kernkomponenten auf den aktuellen Stand gebracht.

Weiterlesen nach der Anzeige

In der Versionsankündigung schreibt das Tails-Projekt, dass die Entwickler etwa den Tor-Browser auf Version 15.0.1 – ein Versionssprung, zuvor war Version 14.5.8 aktuell – gehievt haben, der seinerseits auf Firefox 140 basiert und dadurch nützliche Neuerungen mitbringt. Dazu zählen vertikale Tabs, Tab-Gruppen und eine neue Adressleiste mit verbesserter Suche. Thunderbird ist hingegen auf Stand 140.4.0 dabei. Hier haben die Programmierer ein Problem ausgebügelt: Thunderbird hat Verbindungen zu Telemetriediensten von Mozilla aufgebaut – das tut es nun nicht mehr. Der Linux-Kernel kommt in Fassung 6.12.57 mit.

Die Root-Konsole haben die Maintainer entfernt. Um eine Root-Konsole zu erhalten, sollen Nutzerinnen und Nutzer schlicht sudo -i in der normalen Konsole aufrufen. Benachrichtigungen mit der „Nicht erneut nachfragen“-Option erscheinen jetzt erst, nachdem die Uhr mit Netzzeit synchronisiert wurde.

Tails 7.2 steht als Abbild zum Verfrachten auf USB-Sticks zum Herunterladen bereit. Damit lassen sich Rechner abseits der „heimischen Sicherheitszone“ mit geschützter Privatsphäre nutzen. Aber auch zum Brennen auf DVDs oder zum Ausprobieren in der VM gibt es Installationsabbilder in Form von ISO-Images, die das Tails-Projekt zum Download auf einer eigenen Webseite zur Verfügung stellt.

Die Mitte Oktober erschienene Version 7.1 von Tails brachte erste kleine Softwareaktualisierungen und Korrekturen für störende Fehlerchen mit, nachdem die Distribution kurz zuvor mit Version 7.0 auf die aktuelle Debian-Trixie-Basis umgezogen ist.


(dmk)



Source link

Weiterlesen

Künstliche Intelligenz

Aus Softwarefehlern lernen – Teil 8: Rundungs- und Gleitkommafehler


Zahlen erscheinen in der Programmierung oft eindeutig und exakt – zumindest, solange man sich in ganzzahligen Bereichen bewegt. Doch sobald Gleitkommazahlen, Dezimalwerte oder Rundungen ins Spiel kommen, entstehen subtile Probleme. Kleine Ungenauigkeiten, die im ersten Moment harmlos wirken, können sich mit der Zeit summieren und massive Auswirkungen haben.

Weiterlesen nach der Anzeige


Golo Roden

Golo Roden

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.

Die Teile der Serie „Aus Softwarefehlern lernen“:

Ein lehrreiches Beispiel stammt aus der Finanzwelt, nämlich dem Vancouver Stock Exchange (VSE) in den frühen 80er-Jahren. Der Börsenindex der VSE startete ursprünglich bei 1.000 Punkten. Nach fast zwei Jahren notierte er scheinbar bei rund 524 Punkten – was wie ein dramatischer Markteinbruch aussah. Tatsächlich hatte sich der Markt jedoch kaum verändert. Die Ursache war banal und gleichzeitig folgenschwer: Es handelte sich um Rundungs- und Trunkierungsfehler.

Nach jeder Transaktion wurde der Index nämlich auf drei Dezimalstellen getrimmt – und zwar durch Abschneiden (Trunkierung), nicht durch korrektes Runden. Dieser winzige Verlust setzte sich bei tausenden Updates pro Tag fort. Die kumulativen Fehler führten nach und nach zu einer schleichenden Absenkung des Index, bis er fast halbiert war. Erst nach einer umfassenden Korrektur sprang er schlagartig wieder auf rund 1.098 Punkte hoch.

Dieses Muster findet sich nicht nur im Finanzbereich. Jede Software, die periodisch Berechnungen durchführt, Zwischenergebnisse speichert oder fortlaufend Rundungen vornimmt, kann in die gleiche Falle tappen. Typische Beispiele:

  • Zinsberechnungen und Zahlungspläne: Falsch gerundete Centbeträge, die sich über Monate auf Hunderttausende summieren.
  • Statistiken und Berichte: Prozentwerte, die bei jeder Aggregation minimal nach unten oder oben verzerrt werden.
  • Physik- und Simulationstools: Kleine Ungenauigkeiten in Gleitkommawerten, die über tausende Iterationen davonlaufen.
  • Spiele und Echtzeitanimationen: Ein ständiger minimaler Fehler in der Position kann nach Minuten oder Stunden sichtbar werden.

Das Perfide an dieser Fehlerklasse ist, dass die ersten Ergebnisse durchaus plausibel aussehen. Eine Zahl wie 99,999 statt 100,0 fällt nicht notwendigerweise auf – bis sie tausendfach akkumuliert ist. Kumulative Rundungsfehler können dabei auf verschiedene Weise Schaden anrichten:

Weiterlesen nach der Anzeige

  1. Falsche Geschäftsentscheidungen: Ein Unternehmen könnte fälschlicherweise glauben, dass ein Portfolio Wert verliert oder eine bestimmte Handelsstrategie unprofitabel ist.
  2. Fehlerhafte Auswertungen und Alarmierungen: Monitoring-Systeme, die Schwellenwerte überwachen, können falsche Warnungen auslösen oder echte Probleme übersehen.
  3. Rechtliche und steuerliche Probleme: Schon minimale Differenzen in Geldbeträgen können zu Compliance-Verstößen oder Kundenbeschwerden führen.

Tatsächlich ist es sehr einfach, passende Gegenmaßnahmen für stabile Zahlen zu ergreifen – wie so oft muss diese nur auch jemand umsetzen:

  1. Dezimalarithmetik verwenden: Für Geld und präzise Berechnungen niemals Binär-Gleitkommazahlen (wie float oder double) nutzen, sondern dezimale Typen wie decimal in C#, BigDecimal in Java oder Bibliotheken wie decimal.js in JavaScript.
  2. Rundungsstrategie explizit festlegen: Ob Banker’s Rounding, mathematisches Runden oder Trunkierung – die Regel muss dokumentiert und einheitlich umgesetzt sein.
  3. Rekalkulationen from scratch: Wenn die Notwendigkeit besteht, Daten zu aggregieren oder fortzuschreiben, sollte das System regelmäßig aus den Rohdaten neu berechnen, um Drifts zu erkennen und zu korrigieren.
  4. Property-Based Testing und Langzeitsimulationen: Tests, die viele Iterationen simulieren, decken schleichende Effekte auf, bevor sie produktiv Schaden anrichten.

Viele Entwicklerinnen und Entwickler neigen dazu, Rundungsfragen als Detail zu betrachten. Es wirkt harmlos – bis es reale Folgen hat. Das Beispiel der Vancouver Stock Exchange zeigt, dass ein halber Punkt Verlust pro Transaktion in der Summe Milliarden an Marktverschiebung auslösen kann.

Wer präzise arbeitet, behandelt Zahlen nicht als bloße Technikfrage, sondern als Teil des Domänenmodells. Geldbeträge, Sensorwerte oder wissenschaftliche Messungen haben oft klare Regeln, wie sie zu runden oder darzustellen sind – und genau diesen Regeln muss auch die Software folgen.


(who)



Source link

Weiterlesen

Künstliche Intelligenz

Google: KI-Agent Sima 2 trainiert in Videospielen für die echte Welt


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Googles videospielender KI-Agent Sima beherrscht in Version 2 jetzt auch komplexere Befehle und Interaktionen mit der Spielwelt. In einem Blog-Eintrag beschreibt Google Sima 2 („Scalable Instructable Multiworld Agent“) als „interaktiven Gaming-Begleiter“, der selbst über Spielziele nachdenken kann.

Weiterlesen nach der Anzeige

Die erste Version von Sima hat Google im vergangenen Jahr vorgestellt. Von anderen Spiele-KIs aus Googles KI-Abteilung DeepMind unterscheidet sich Sima grundlegend: Während etwa AlphaStar darauf spezialisiert war, Profi-Gamer in „Starcraft 2“ zu besiegen, geht es Sima nicht um Highscores in einem einzigen Spiel. Das KI-Modell ist stattdessen in der Lage, verschiedene Spiele auf „natürliche“ Art und Weise zu spielen.

Dementsprechend lässt sich das Skillset von Sima auf zahlreiche verschiedene Videospiele anwenden. Laut Google DeepMind lernt Sima mit jedem gespielten Titel dazu. Ein Video zeigt, wie Sima 2 etwa „Minecraft“, „Satisfactory“, „No Man’s Sky“ und „Valheim“ spielt – allesamt recht komplexe Titel, bei denen es um den Abbau von Ressourcen und im weitesten Sinne das Aufbauen von Infrastruktur geht. Zudem kann Sima mit Welten interagieren, die von Googles Modell Genie 3 erzeugt wurden.

Die erste Version von Sima beherrschte laut Google etwa 600 Skills, die mit konkreten Anweisungen verbunden waren – etwa „nach links drehen“ oder „die Leiter hochklettern“. Dafür analysiert Sima den Bildschirminhalt und benutzt ein virtuelles Set von Maus und Tastatur, um mit dem Spiel zu interagieren. Im Kern spielt Sima also so, wie es auch Menschen tun. Sima 2 baut diese Fähigkeiten dank Gemini-Integration aus, schreibt Google im Blog-Eintrag.

Der KI-Agent kann demnach nicht mehr nur stur auf Anweisungen reagieren, sondern auch über seine Befehle nachdenken. In einem Demo-Video ist zum Beispiel zu sehen, wie Sima die Anweisung bekommt, in einer „Minecraft“-Höhle Kohle abzubauen. Während Sima 1 den kürzesten Weg sucht und sofort an einem Block stecken bleibt, ist Sima 2 erfolgreicher: Der KI-Agent versteht den Befehl, navigiert in die Höhle und identifiziert darin Kohlevorkommen.

Weiterlesen nach der Anzeige

Zudem kann Sima 2 Nutzeranfragen beantworten. Auf Nachfrage kann das Modell dem User etwa beantworten, wo sich die Spielfigur gerade befindet und was sie dort warum tut. Das Ziel des KI-Agenten ist es aber nicht, Menschen das Spielen abzunehmen: Vielmehr sieht Google DeepMind die virtuellen Welten als Trainingsumgebungen, in denen KI-Modelle für die echte Welt üben können. Agenten wie Sima könnten künftig etwa in Robotern eingesetzt werden, um mit realen Objekten zu interagieren.


(dahe)



Source link

Weiterlesen

Beliebt