Apps & Mobile Entwicklung
Garmin Smartwatch-Nutzer warten seit Jahren auf diese Funktion
Messaging ist nicht unbedingt die Stärke von Smartwatches mit ihren kleinen Displays. Hin und wieder kann eine Messaging-App am Handgelenk aber sehr nützlich sein. Jetzt hat Garmin dem Wunsch der Nutzer nachgegeben und eine offizielle WhatsApp-App auf seine Smartwatches gebracht.
Garmin hat offiziell die WhatsApp-App für seine Geräte angekündigt. Nach Angaben des Unternehmens ist es die erste und einzige Messaging-App eines Drittanbieters, die auf seiner Plattform verfügbar ist. Diese Veröffentlichung folgt auf die Einführung der offiziellen WhatsApp-App für die Apple Watch im vergangenen Jahr.
Welche Garmin-Uhren unterstützen WhatsApp?
Nutzer können die WhatsApp-App kostenlos aus dem Garmin Connect IQ Store herunterladen. Sie unterstützt eine Auswahl von Garmin-Uhrenmodellen, vor allem die neueren, darunter: Venu 4, Venu X1, Vivoactive 6, Forerunner 570, Forerunner 970, Fenix 8, Fenix 8 Pro, Fenix E, Enduro 3, und D2 Air X15.
Die Liste ist zwar noch überschaubar, deckt aber viele der beliebtesten aktuellen Modelle von Garmin ab. Die Unterstützung für diese Uhren hängt wahrscheinlich von den Hardware-Funktionen ab. Älteren Modellen fehlt oft ein Touchscreen zum Tippen und sie haben langsamere Prozessoren. Dass Garmin die Forerunner 165 trotz ihres Touchscreens nicht berücksichtigt hat, ist allerdings enttäuschend.

Die App funktioniert entweder mit einem Android- oder einem iPhone-Gerät, das mit der Smartwatch gekoppelt ist. Allerdings muss die Bluetooth-Verbindung des Wearables mit dem Telefon immer aktiv bleiben, da die App keine Wi-Fi-Verbindung unterstützt.
Was man mit WhatsApp auf Garmin machen kann
Mit der offiziellen WhatsApp-App können Nutzer eingehende Nachrichten lesen und über die integrierte Tastatur antworten. Auch Emojis können eingefügt und verschickt werden. Neben der Eingabe neuer Nachrichten sind auch mehrere voreingestellte Schnellantworten verfügbar. Benutzer können die letzten Nachrichten anzeigen oder den Chatverlauf der letzten 10 Nachrichten durchsuchen.
Die Anzeige von Medienanhängen wie Fotos oder GIFs wird nicht unterstützt, was angesichts der begrenzten Bildschirmgröße und der Hardwarebeschränkungen verständlich ist. Sprachanrufe über WhatsApp sind ebenfalls nicht verfügbar, aber die Nutzer können eingehende Anrufe sehen und sie ablehnen.
Bemerkenswert ist, dass es keine Diktierfunktion für Text gibt, obwohl viele dieser Uhren über ein Mikrofon verfügen. Diese Funktion wird möglicherweise mit einem zukünftigen Update nachgeliefert.
Auch wenn die Funktionalität einfach bleibt, ist sie für viele Nutzer wirklich praktisch, z. B. beim Training im Fitnessstudio oder auf dem Sportplatz, wenn das Telefon in einer Tasche verstaut ist, oder beim Radfahren auf Straßen oder Wegen.
Habt ihr eure Garmin-Smartwatch schon für Messaging genutzt? Findet ihr die zusätzliche Funktion mit WhatsApp nützlich? Sagt es uns unten in den Kommentaren.
Apps & Mobile Entwicklung
Nicht nur fürs iPhone: Apple plant günstigeren Schutz
Apple plant einen neuen Schutz für alle Eure Geräte, der zusätzlich sogar die Kosten reduzieren kann. Dabei spielt es keine Rolle, ob es sich um ein iPhone, iPad, einen Mac oder eine Apple Watch handelt.
Es kann jedem einmal passieren: Ein falscher Griff und das teure Technik-Gadget rutscht Euch aus der Hand und landet ungebremst auf dem Boden. Schnell kann so ein Ausrutscher mehrere hundert Euro kosten. Um die Kosten für derartige Unfälle zu reduzieren, bietet Apple selbst das sogenannte AppleCare an. Eine besondere Version davon ist bereits im vergangenen Jahr in den USA gestartet. Nun gibt es Anzeichen dafür, dass das sogenannte AppleCare One schon bald auch in der Europäischen Union starten könnte.
AppleCare One: Rundumschutz für alle Apple-Geräte
Wie MacRumors berichtet, hat sich Apple in der EU das entsprechende Markenzeichen für das neue Versicherungspaket registriert. Das deutet darauf hin, dass der iPhone-Hersteller eine Ausweitung des Angebots plant. In den USA ist AppleCare One bereits im Juli 2025 gestartet. Es beinhaltet dabei alle bekannten Dienstleistungen von AppleCare+.
Der Clou des neuen Angebots ist, dass Ihr für einen monatlichen Beitrag von rund 20 US-Dollar drei Apple-Geräte absichern könnt. Jedes weitere kostet 6 Dollar im Monat. Das sind aktuell umgerechnet rund 17,50 Euro plus etwaige Steuern; pro Gerät also rund 6 Euro im Monat. Dabei spielt es keine Rolle, um welche Geräte es sich handelt. Das Paket umfasst außerdem den Schutz bei Diebstahl und Verlust.
Ein Blick auf die aktuellen Kosten für die regulären AppleCare-Angebote zeigt, dass sich das bei mehreren versicherten Apple-Geräten schnell lohnen kann. So liegen die Kosten für AppleCare+ mit Diebstahl und Verlust für ein normales iPhone 17 bei rund 12 Euro im Monat. Eine Apple Watch, für die es im regulären AppleCare aber keinen Schutz bei Diebstahl und Verlust gibt, kostet 4,49 Euro im Monat.
Neuer Schutz vor allem bei mehreren Geräten sinnvoll
AppleCare One ist also insbesondere dann sinnvoll, wenn Ihr bereits mehrere Geräte mit Apples Versicherung Euer Eigen nennt. Ein weiterer Vorteil ist außerdem, dass das 60-Tage-Limit für das Hinzufügen eines Geräts entfällt. Produkte können bis zu vier Jahre alt sein und der Versicherung hinzugefügt werden, sofern sie in einem guten Zustand sind. Ihr könnt Geräte dadurch entspannter hinzufügen und entfernen.
Beim Start in den USA gab es jedoch auch Berichte über Probleme mit AppleCare One. Dazu gehörten beispielsweise Nutzer von geteilten Geräten, etwa einem Mac, der von mehreren Anwendern benutzt wird. Da die Versicherung an einen Apple Account gebunden ist, kam es vor, dass Geräte mit mehreren angemeldeten Konten regelmäßig aus dem Schutz entfernt wurden.
Wie teuer AppleCare One in der EU genau sein wird, ist bislang unbekannt. Ein exakter Zeitplan fehlt ebenfalls bislang. Der neue Schritt ist aber ein gutes Zeichen dafür, dass Apple den neuen Schutz möglicherweise schon bald auch hierzulande anbieten könnte.
Apps & Mobile Entwicklung
Musiker gesteht Betrug: 12 Mio. US-Dollar Streaming-Tantiemen mithilfe von KI-Bots
Dass sich mit KI mittlerweile leicht Musik für den Alltagsgebrauch erstellen lässt, dürfte nicht neu sein. Gleiches, wenn mittels KI-Bots die Streaming-Zahlen künstlich erhöht werden. In Kombination kann daraus ein durchaus lukratives Modell entstehen – das für einen US-Musiker nun schwerwiegende Folgen hatte.
Der aus North Carolina stammende Musiker Michael Smith (nicht zu verwechseln mit dem Musiker Michael W. Smith, bekannt für seine christlich-ausgerichtete Musik) hat in einem Gerichtsverfahren eingeräumt, die Streaming-Dienste Spotify, Apple Music, Amazon Music sowie YouTube Music im Rahmen einer aufwendig geplanten und groß angelegten Aktion um Tantiemen in Millionenhöhe betrogen zu haben.
Hierfür ließ er hunderttausende KI-generierte Musikstücke erstellen, die anschließend auf den Plattformen hochgeladen und veröffentlicht wurden. Parallel setzte er automatisierte KI-Bots ein, um die Titel milliardenfach abzuspielen. Laut Gerichtsunterlagen soll Smith zwischen 2017 und 2024 gemeinsam mit einem nicht namentlich genannten Musik-Promoter sowie dem Geschäftsführer eines KI-Musikunternehmens die Streamingzahlen „seiner“ Stücke gezielt und betrügerisch erhöht haben.
Bots, Bots, wir brauchen Bots
Den FBI-Ermittlungen zufolge war sich Smith bewusst, dass ein einzelner Song eines eher unbekannten Künstlers mit einer Milliarde Streams sofort aufgefallen wäre und die Schutzmechanismen der Plattformen aktiviert hätte.
Um eine Entdeckung zu vermeiden, stellte er sicher, dass die eingesetzten Bots ausschließlich über virtuelle private Netzwerke (VPN) auf die Dienste zugriffen. Gleichzeitig achtete er darauf, dass einzelne Titel keine auffällig hohen Abrufzahlen erreichten. Bereits 2018 forderte Smith in einer E-Mail bei seinem damaligen Komplizen zusätzliche Bots an: „Um bei den Verantwortlichen keinen Verdacht zu erregen, brauchen wir eine MENGE an Inhalten mit geringen Streamzahlen“, schrieb der mittlerweile 54-Jährige. Anschließend generierte er zufällige Künstler- und Songnamen, damit die Audiodateien den Eindruck erweckten, von realen Künstlern zu stammen und nicht von einer künstlichen Intelligenz erstellt worden zu sein.
Den Unterlagen zufolge unternahm Smith darüber hinaus kaum Versuche, seine Aktivitäten weiter zu verschleiern, etwa durch das Einbinden anderer Songs beim Abspielen. Der starke Fokus auf die eigenen Inhalte dürfte letztlich mit dazu beigetragen haben, dass der Betrug aufflog.
Milliarden Streams für Millionen US-Dollar
In der Hochphase setzte Smith nach Angaben der Ermittler deutlich über 1.000 Bots ein, um die Abrufzahlen seiner Musik künstlich zu steigern. Dabei kamen 52 Cloud-Service-Konten mit jeweils 20 Bot-Konten zum Einsatz. Jedes dieser Konten konnte täglich mehr als 600 Songs streamen, was insgesamt über 660.000 Streams pro Tag ergab. Bei einem durchschnittlichen Lizenzsatz von rund einem halben US-Cent pro Stream resultierten daraus Einnahmen von über 3.000 US-Dollar täglich beziehungsweise fast 100.000 US-Dollar pro Monat. Smith gab an, dass sich seine jährlichen Einnahmen in dieser Zeit auf rund 1,2 Millionen US-Dollar beliefen. In einer E-Mail aus dem Februar 2024 soll er zudem damit geprahlt haben, „seit 2019 über 4 Milliarden Streams und 12 Millionen US-Dollar an Tantiemen“ generiert zu haben.
Täter geständig, Strafmaß folgt im Sommer
2024 wurde Smith wegen Verschwörung zum Telekommunikationsbetrug, Telekommunikationsbetrug sowie Verschwörung zur Geldwäsche angeklagt, wobei auf jeden dieser Anklagepunkte jeweils eine Höchststrafe von 20 Jahren Haft steht. Anders als in Deutschland, wo Strafen häufig zu einer Gesamtstrafe zusammengeführt werden, werden diese in den USA bei verschiedenen Delikten oft kumulativ, also nacheinander („consecutive“), und nicht gleichzeitig („concurrent“) verbüßt.
Um eine geringere Strafe zu erreichen, bekannte sich Smith inzwischen im Anklagepunkt der Verschwörung zum Telekommunikationsbetrug schuldig und erklärte sich bereit, 8.091.843,64 US-Dollar aus seinen illegalen Einnahmen zurückzuzahlen. Dadurch würde sich seine Höchststrafe auf fünf Jahre Freiheitsentzug reduzieren. Das endgültige Strafmaß soll am 29. Juli dieses Jahres verkündet werden. Seinen Kopf hat Smith damit aber noch lange nicht aus der Schlinge gezogen. Auch wenn das FBI angab, in der Sache nicht mehr gegen ihn zu ermitteln, stehen immer noch die nicht versteuerten Einnahmen im Raum.
Apps & Mobile Entwicklung
Was macht DLSS 5?: Nvidias Antwort in einem Satz ist „die KI weiß, was sie tut“

Wie genau funktioniert DLSS 5? Welche Informationen nimmt die Technologie vom Spiel entgegen und welche Techniken kommen zum Einsatz um das finale Bild zu rendern? Jetzt hat Nvidia bestätigt, dass am Ende doch „nur“ das fertige 2D-Bild der Engine und Motion Vectors die Basis sind. Für Nvidia gibt es dieses „nur“ jedoch nicht.
Welchen Input liefert die Engine an DLSS 5?
Wie DLSS 5 im Detail funktioniert, war öffentlichen Informationen bisher nicht zu entnehmen. Nvidia hat allerdings gesagt, dass DLSS 5:
- Farb- und Bewegungsvektoren des Spiels für jedes Frame berücksichtigt, weshalb die Ausgabe im ursprünglichen 3D-Inhalt verankert bleibt („3D Guided Neural Rendering“).
- Die von der Engine vorgegebene Geometrie dabei nicht angepasst wird.
- Entwicklern detaillierte Steuerungsmöglichkeiten wie Intensität und Farbkorrektur zur Verfügung stellt. Künstler können damit Mischung (Blending), Kontrast, Sättigung und Gamma anpassen und festlegen, wo und wie Verbesserungen angewendet werden, um die einzigartige Ästhetik des Spiels zu erhalten.
Deshalb soll DLSS 5 auch nicht das Artdesign verändern, der zentrale Vorwurf der letzten Tage.
Doch wie genau berücksichtigt DLSS 5 den Inhalt eines Frames? Erhält DLSS 5 zu diesem Zweck auch Informationen zum zugrundeliegenden 3D-Modell inklusive Tiefeninformationen direkt aus der Engine oder nicht? Explizit gesagt hat das Nvidia bisher nicht, doch die Aussage, dass „die Geometrie“ nicht verändert wird, klang für viele danach.
Die Basis: Ein 2D-Bild und Bewegungsvektoren
Allem Anschein nach war diese Schlussfolgerung falsch. Denn wie Daniel Owen auf Nachfrage bei Nvidia von Jacob Freeman erfahren hat, ist die Basis von DLSS 5 das fertig gerenderte 2D-Bild der Engine zuzüglich Bewegungsvektoren („Motion Vectors“) um zu verstehen, wie sich Objekte von Bild zu Bild bewegen.
3D- und Tiefeninformationen oder Informationen zu den vom Designer gewählten Oberflächen (Physical Based Rendering Properties) bekommt DLSS 5 also nicht direkt von der Engine übergeben. DLSS 5 sieht „nur“ den fertig gerenderten Frame und wie sich Objekte von Frame zu Frame bewegen.
Für die KI ist das mehr als genug!?
Das „nur“ ist in der Bewertung dieses Ansatzes allerdings entscheidend. Für Nvidia gibt es allem Anschein nach kein „nur“. Denn die KI, die hinter DLSS 5 steckt, braucht in Nvidias Kosmos keine weiteren Informationen aus der Engine, im fertig gerenderten 2D-Bild ist unter Zuhilfenahme der Bewegungsvektoren schließlich all das enthalten:
- Die Geometrie
- Die Tiefeninformationen
- Informationen über Farben, Kontraste, Licht und Schatten
- Informationen zu den Oberflächenbeschaffenheiten
Nvidias Ansatz ist im Endeffekt „Die KI ist perfekt“. Die eigene KI versteht, was auf dem 2D-Bild zu sehen ist – ohne zu wissen, wie die Engine zu diesem Ergebnis gekommen ist. Denn das fertige Bild enthält ja alle Informationen. Das ist sicher nicht der Ansatz, den viele Spieler erwartet haben.
Am Kernproblem ändert sich auch dadurch aber eigentlich nichts: Egal wie DLSS 5 funktioniert, es kommt darauf an, was dann daraus gemacht wird. Bedenken, dass das nicht funktionieren wird, werden die neuen Erkenntnisse über die technischen Hintergründe mit einer allgemein wachsenden Skepsis gegenüber KI aber nicht ausräumen – im Gegenteil.
-
Künstliche Intelligenzvor 3 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 3 WochenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 1 MonatCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 4 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 2 MonatenAumovio: neue Displaykonzepte und Zentralrechner mit NXP‑Prozessor
-
Künstliche Intelligenzvor 3 MonatenÜber 220 m³ Fläche: Neuer Satellit von AST SpaceMobile ist noch größer
-
Künstliche Intelligenzvor 2 MonateneHealth: iOS‑App zeigt Störungen in der Telematikinfrastruktur
