Künstliche Intelligenz
Nacktfilter in FaceTime: Nie wieder ohne Hose in der Videokonferenz
Nie wieder aus Versehen nackt in eine Videokonferenz stolpern und die Blamage seines Lebens erleben – wem dieses Szenario bekannt vorkommt, der dürfte sich über eine neue Funktion in iOS 26 freuen, die genau solche peinlichen Momente in FaceTime-Videotelefonaten verhindern soll. Erkennt diese nämlich, dass sich jemand in „sensibler“ Art vor der Kamera zeigt, blendet sie das Video aus und zeigt dem Nutzer einen Hinweisbildschirm. Erst, wenn dieser sich bewusst entscheidet, die Videoübertragung fortzusetzen, wird die Kamera wieder zugeschaltet.
Was im Netz als ein Helferlein für Tollpatschigkeit diskutiert wird, ist in Wirklichkeit Teil der Bemühungen Apples, den Kinderschutz auf dem iPhone und anderen Geräten zu verbessern. Die Nackterkennung läuft hierbei unter dem Oberbegriff der Communication Safety (Kommunikationssicherheit), die bereits mit iOS 16 eingeführt wurde. Und diese soll mit den neuen Softwareversionen im Herbst ausgeweitet werden. Zumindest in der aktuellen Beta 2 hat es den Anschein, dass Apple diese Schutzfunktion, die Teil der Bildschirmzeit ist, auch für Erwachsene erweitern will.
Erst iMessage, künftig an noch mehr Stellen
In einem ersten Schritt hatte Apple die Nackterkennung in iMessage eingeführt. Die per Machine Learning trainierte Funktion, die auf dem Gerät selbst die Erkennung vornimmt, soll hier Kinder davor schützen, dass Fremde ihnen anrüchige Aufnahmen zusenden. Umgekehrt wird aber auch verhindert, dass intime Aufnahmen von dem Gerät einfach so nach außen verschickt werden.
Neben FaceTime erhält den Schutz jetzt auch die Fotos-App. Offenbar waren dort die geteilten Alben ein Einfallstor für solche Übergriffe. Bei den geteilten Alben werden Nutzer zwar gefragt, ob sie Teil einer solchen Gruppe werden wollen. Der Einladende könnte aber die Gruppe fälschlich benennen oder seine wahre Identität als Absender verschleiern, sodass erst nach Annahme der Einladung ersichtlich wird, dass es sich um eine ungewollte Gruppe handelt. Künftig würden anstößige Bilder dann aber ebenfalls nicht angezeigt werden.
Funktion ist zuerst ausgeschaltet
In der Diskussion im Netz empfinden einige die Funktion selbst übergriffig und fühlen sich in ihrer Freiheit eingeschränkt. Dem ist allerdings nicht so. Die Warnung vor sensiblen Inhalten in FaceTime muss gegenwärtig vom Nutzer erst einmal aktiviert werden – sonst passiert gar nichts. Dies ist über die Einstellungen-App, den Eintrag FaceTime und dort über „Warnung vor sensiblen Inhalten“ möglich.
Entwickler können übrigens Apples Erkennung auch in ihren eigenen Apps implementieren. Dies ist bereits seit iOS 17 beziehungsweise macOS 14 möglich. Das nötige Framework nennt sich SensitiveContentAnalysis. Diesem kann ein eingegangenes Bild einfach zur Analyse übergeben werden. Der Analyzer gibt dann eine Rückmeldung, ob das Bild als „isSensitive“ erkannt wurde. Der Entwickler kann dann geeignete Maßnahmen ergreifen, um das Bild nicht anzuzeigen und den Nutzer zu warnen.
(mki)