Connect with us

Künstliche Intelligenz

Nacktfilter in FaceTime: Nie wieder ohne Hose in der Videokonferenz


Nie wieder aus Versehen nackt in eine Videokonferenz stolpern und die Blamage seines Lebens erleben – wem dieses Szenario bekannt vorkommt, der dürfte sich über eine neue Funktion in iOS 26 freuen, die genau solche peinlichen Momente in FaceTime-Videotelefonaten verhindern soll. Erkennt diese nämlich, dass sich jemand in „sensibler“ Art vor der Kamera zeigt, blendet sie das Video aus und zeigt dem Nutzer einen Hinweisbildschirm. Erst, wenn dieser sich bewusst entscheidet, die Videoübertragung fortzusetzen, wird die Kamera wieder zugeschaltet.

Was im Netz als ein Helferlein für Tollpatschigkeit diskutiert wird, ist in Wirklichkeit Teil der Bemühungen Apples, den Kinderschutz auf dem iPhone und anderen Geräten zu verbessern. Die Nackterkennung läuft hierbei unter dem Oberbegriff der Communication Safety (Kommunikationssicherheit), die bereits mit iOS 16 eingeführt wurde. Und diese soll mit den neuen Softwareversionen im Herbst ausgeweitet werden. Zumindest in der aktuellen Beta 2 hat es den Anschein, dass Apple diese Schutzfunktion, die Teil der Bildschirmzeit ist, auch für Erwachsene erweitern will.

In einem ersten Schritt hatte Apple die Nackterkennung in iMessage eingeführt. Die per Machine Learning trainierte Funktion, die auf dem Gerät selbst die Erkennung vornimmt, soll hier Kinder davor schützen, dass Fremde ihnen anrüchige Aufnahmen zusenden. Umgekehrt wird aber auch verhindert, dass intime Aufnahmen von dem Gerät einfach so nach außen verschickt werden.

Neben FaceTime erhält den Schutz jetzt auch die Fotos-App. Offenbar waren dort die geteilten Alben ein Einfallstor für solche Übergriffe. Bei den geteilten Alben werden Nutzer zwar gefragt, ob sie Teil einer solchen Gruppe werden wollen. Der Einladende könnte aber die Gruppe fälschlich benennen oder seine wahre Identität als Absender verschleiern, sodass erst nach Annahme der Einladung ersichtlich wird, dass es sich um eine ungewollte Gruppe handelt. Künftig würden anstößige Bilder dann aber ebenfalls nicht angezeigt werden.

In der Diskussion im Netz empfinden einige die Funktion selbst übergriffig und fühlen sich in ihrer Freiheit eingeschränkt. Dem ist allerdings nicht so. Die Warnung vor sensiblen Inhalten in FaceTime muss gegenwärtig vom Nutzer erst einmal aktiviert werden – sonst passiert gar nichts. Dies ist über die Einstellungen-App, den Eintrag FaceTime und dort über „Warnung vor sensiblen Inhalten“ möglich.

Entwickler können übrigens Apples Erkennung auch in ihren eigenen Apps implementieren. Dies ist bereits seit iOS 17 beziehungsweise macOS 14 möglich. Das nötige Framework nennt sich SensitiveContentAnalysis. Diesem kann ein eingegangenes Bild einfach zur Analyse übergeben werden. Der Analyzer gibt dann eine Rückmeldung, ob das Bild als „isSensitive“ erkannt wurde. Der Entwickler kann dann geeignete Maßnahmen ergreifen, um das Bild nicht anzuzeigen und den Nutzer zu warnen.


(mki)



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Künstliche Intelligenz

Bundesnetzagentur führt neues Messkonzept für das Mobilfunk-Monitoring ein


Mit der Einführung eines neuen, einheitlichen Messverfahrens zum Monitoring der Mobilfunkversorgung in Deutschland habe die Bundesnetzagentur den Auftrag des Bundesministeriums für Digitales und Staatsmodernisierung „einen wichtigen Baustein des „Messpakets“ aus der Gigabitstrategie der Bundesregierung 2022 umgesetzt“.

Das neue Messkonzept hat zum Ziel, die Qualität der Mobilfunkversorgung aus Perspektive der Nutzerinnen und Nutzer zu erfassen, heißt es. Die im Verlauf der Messungen gesammelten Informationen seien wichtig, „um die Rahmenbedingungen für den Netzausbau weiter zu verbessern“, schreibt die Bundesnetzagentur in seiner Ankündigung.

Auf diese Weise erhalte man „einen genaueren Eindruck davon, wie der Ausbau der Netze in Deutschland vorankommt“, sagt Klaus Müller, Präsident der Bundesnetzagentur. Bislang wurde lediglich die Stärke des Funksignals gemessen. Zukünftig sollen auch die Datenraten und die Zuverlässigkeit der Sprachtelefonie erfasst werden können.

Das neue Konzept stehe auch Dritten offen, sodass Länder, Gemeinden und Dienstleister das Messkonzept für die Beauftragung eigener Messungen nutzen können. Die Resultate können diese mit der Bundesnetzagentur teilen und damit die „bundesweite Datenlage erweitern“. Die Bundesnetzagentur habe zu diesem Zweck Mindestanforderungen definiert, damit die Messdaten vergleichbar seien.

Laut der Bundesnetzagentur basiert das neue Messkonzept auf acht Smartphones mit einer einheitlichen Software. Auf Messfahrten durch festgelegte Gebiete werden vier der Geräte zum Testen der Qualität der Sprachtelefonie verwendet. Die weiteren vier sollen die verfügbaren Datenraten in den Netzen der vier Mobilfunknetzbetreiber – also der Deutschen Telekom, Vodafone, O2/Telefonica und 1&1 – messen. Die Steuerung und die Erfassung der Messreihen erfolgen über eine cloudbasierte Anwendung, erklärt die Bundesnetzagentur.

Dieser Ansatz klingt praxisnäher als das bisherige Textverfahren, bei dem Messungen mit Scannern durchgeführt wurden und primär die Stärke eines Funksignals vor Ort erfassten.

Das Messsystem soll zudem zu einem späteren Zeitpunkt um ein Rucksack-Setup ergänzt werden. Mit diesem werde es möglich sein, Gebiete zu prüfen, die mit Messfahrzeugen nicht erreichbar seien. Ferner wären auch Messungen in Innenräumen möglich. Ebenso seien Umsetzungen für Messungen entlang von Wasserwegen angedacht.


(afl)



Source link

Weiterlesen

Künstliche Intelligenz

„Samsung Galaxy G Fold“: Hinweise auf Tri-Fold-Gerät in One UI 8 entdeckt


Das Samsung „Galaxy G Fold“ – so der mutmaßliche Name – könnte schon im Laufe des Galaxy-Unpacked-Event am 9. Juli vorgestellt werden. Android Authority hat in der Beta von One UI 8 mehrere Animationen und Bilder gefunden, die das Tri-Fold-Smartphone oder „Trifoldable“ zeigen. Damit dürfte Huaweis Mate XT in Kürze Konkurrenz bekommen.

Den Darstellungen zufolge besteht das Gerät aus drei Elementen und zwei Scharnieren. Auf dem linken Element sind drei rückseitige Kameras im Samsung-typischen Design verbaut, mittig ist das „Außendisplay“ mit Punch-Hole-Kamera zu sehen und rechts das dritte Element, das beim Zusammenklappen offenbar in der Mitte platziert wird.

Samsungs Tri-Foldable unterscheidet sich von Huaweis Mate XT im Aufbau: Das Huawei-Modell besitzt ein nach innen und ein nach außen klappbares Scharnier, das als „S-förmige“ Faltung bezeichnet wird. Bei Samsungs Tri-Foldable werden die Scharniere offenbar von zwei Seiten nach innen gefaltet. Diese Faltung wird als „G-förmig“ beschrieben.

Bei Samsungs Modell muss der Nutzer die richtige Reihenfolge beachten: zuerst die rechte, dann die linke Seite. Hierfür sollen die Scharniere unterschiedliche Größen besitzen. Zudem wird Nutzern offenbar eine Warnung angezeigt, sollten sie es falsch falten.

Auch wenn Samsung das Gerät womöglich im Zuge des Unpacked-Events zeigen könnte, scheint es erst später in den Handel zu kommen. Nach Informationen der koreanischen Zeitung The Bell soll Samsung mit der Produktion erst im September starten, um es im Laufe des vierten Quartals in den Handel zu bringen. Weiter heißt es, dass es zunächst in Kleinserie aufgelegt werden soll, um die Marktresonanz zu testen. Ob es überhaupt in Europa erhältlich sein wird, ist noch ungewiss.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Inhalt geladen.

MULTI FOLDABLE CONFIRMED
byu/FragmentedChicken inGalaxyFold

Dass Samsung an einem solchen Gerät arbeitet, hat der Hersteller schon im Zuge des Galaxy-S25-Events Anfang des Jahres angedeutet. Der Hersteller zeigte eine Folie, auf der neben einer AR-Brille auch ein solches Tri-Fold-Gerät abgebildet war.

Lesen Sie auch

Im Zuge des Unpacked-Events am 9. Juli werden neben neuen Modellen des Galaxy Z Fold und Z Flip Updates der Smartwatches der Galaxy-Watch-Serie erwartet.


(afl)



Source link

Weiterlesen

Künstliche Intelligenz

Warum Augmented Reality auf der Stelle tritt


Virtual und Augmented Reality traten mit einem großen Versprechen an. Die neue Computerplattform sollte ein räumliches Interface und eine natürliche Bedienung per Gesten, Blick und Spracheingabe ermöglichen. Und damit die Art und Weise, wie Menschen Computer nutzen, grundlegend verändern.

Doch an den etablierten Eingabemethoden hat sich bis heute wenig geändert: Am Arbeitsplatz dominieren weiterhin Maus, Tastatur und klassische Bildschirme, unterwegs der Touchscreen von Smartphones und Tablets.

Der AR-Pionier Kharis O’Connell überrascht das nicht. In einem Podcast schildert der Aussteiger seine ungeschönte Sicht auf die Branche und spricht über Dinge, die in der AR-Blase oftmals Tabu sind.

O’Connell blickt auf eine lange Karriere in der AR-Branche zurück. Er entwickelte schon 2009 bei Nokia erste AR-Anwendungen für mobile Geräte. 2017 wurde er Designchef beim AR-Start-up Meta, Jahre, bevor sich Facebook diesen Namen aneignete. Es folgte eine Zeit bei Google, wo O’Connell ein Betriebssystem für AR-Brillen designte. Nach einem Zwischenstopp bei Amazon und mehreren Start-ups hat er der AR-Branche inzwischen den Rücken gekehrt und arbeitet jetzt bei einem digitalen Pharmazie-Unternehmen.

Seine glücklichste Zeit hatte er beim visionären AR-Start-up Meta, erinnert sich Kharis O’Connell in der jüngsten Folge des Tech-Podcasts Dream Machines. Das Unternehmen entwickelte ein AR-Headset mit räumlichem Interface und Gestensteuerung, eine frühe Form von Spatial Computing. Meta war seiner Zeit weit voraus und scheiterte an der technologischen Umsetzbarkeit seiner Vision. 2019 musste das Start-up Insolvenz anmelden und Teile seiner Technologie verkaufen.

Laut O’Connell „starb“ das Spatial Computing mit Meta und kam in der Form nicht mehr zurück. Der AR-Pionier kritisiert Unternehmen wie Apple, Google und Meta, die das Konzept seiner Ansicht nach nicht radikal genug denken. Selbst Apples „räumlicher Computer“, die Vision Pro, bliebe etablierten Paradigmen verhaftet. Wenn man lediglich iPad-Apps vor die Augen projiziere, habe man den eigentlichen Sinn des gesamten Mediums verfehlt, so O’Connell.

Auch wenn er an dieser Stelle stark vereinfacht, lässt sich dennoch festhalten: Geräte wie die Apple Vision Pro werden Arbeitscomputer so schnell nicht ersetzen und die Art zu arbeiten nicht grundlegend verändern. Zwar lassen sich mit dem Headset beliebig viele Fenster frei im Raum platzieren, doch am Ende bleiben es Fenster. Für produktives Arbeiten braucht es weiterhin Maus und Tastatur. Von einer echten Computerrevolution sind wir also noch ein gutes Stück entfernt.

2018 wechselte O’Connell zu Google. Nach dem Google-Glass-Debakel und der Einstellung der VR-Plattform Daydream setzte Google gerade zu einem weiteren Anlauf im Bereich der Computerbrillen an. In den Laboren stieß O’Connell auf AR-Technologie, von der er früher nicht einmal zu träumen gewagt hätte. Die eigentliche Herausforderung bestand darin, daraus ein Produkt zu formen, das reale Probleme löst.

Wie sich herausstellte, waren die intern diskutierten Anwendungsfälle alles andere als neu. Es waren mehr oder weniger die gleichen Nutzungsszenarien wie bei Google Glass, die 2025 erneut für Googles kommende Smart Glasses aufgewärmt wurden.

„Die Anwendungsfälle, die man heute in den Google-Demos sieht, das sind genau die Anwendungsfälle, an denen ich gearbeitet habe. Und das waren dieselben Anwendungsfälle, die mir schon von der vorherigen Generation übergeben wurden. Es hat sich nichts verändert“, sagt O’Connell. „Wir stecken in der gleichen Endlosschleife fest.“

Seine Kritik trifft nicht nur Google, sie ist ein branchenweites Problem. AR-Kartennavigation, Anzeige von Smartphone-Mitteilungen im Sichtfeld, visuelle Kochhilfen: Die Anwendungsszenarien wiederholen sich mit jeder neuen Generation, mit jedem neuen Anlauf. Möglich, dass diese Konzepte bislang gescheitert sind, weil die Technik einfach noch nicht ausgereift war. Gleichzeitig wirkt Augmented Reality noch immer, als suche sie nach Problemen, die sie lösen kann.

O’Connell verließ Google im Jahr 2021. Angeblich, weil sich das Unternehmen erneut aus dem AR-Bereich zurückgezogen hatte. Beim Idealisten O’Connell stellte sich Ernüchterung ein angesichts der Tatsache, dass Profite wichtiger waren als langfristige Visionen und der Wunsch, die Welt mit Technologie zu verbessern. Oder wie es sein Vorgesetzter im vertraulichen Gespräch formulierte: Google sei es gleichgültig, ob AR und VR die Zukunft seien, für das Geschäftsergebnis seien sie nichts weiter als ein Rundungsfehler.

Tech-Konzerne, die On-off-Beziehungen zu Technologien pflegen und Talente in kurzfristigen Projekten verheizen: Die Geschichte der Virtual und Augmented Reality ist voll davon. O’Connells Zeit bei Google trug maßgeblich zu seiner Desillusionierung und seinem Ausstieg aus der AR-Branche ein paar Jahre später bei.

Die Abkehr selbst beschreibt O’Connell als heilsam. Sein Leben außerhalb des Silicon Valley habe ihm die Augen geöffnet für seine Technikbesessenheit, die Echokammer, in der er sich mit Gleichgesinnten jahrelang bewegt habe, und die daraus erwachsene Überzeugung, der Durchbruch der neuen Computerplattform sei unausweichlich. Heute glaubt er nicht mehr daran, dass Menschen außerhalb der Tech-Blase Augmented Reality wirklich brauchen.

Was die technologischen Hürden betrifft, ist O’Connell überzeugt, dass sie sich eines Tages überwinden lassen. Entscheidend sei aus seiner Sicht eine andere Frage: Wer diese Technologie überhaupt wolle und was man bereit sei, dafür aufzugeben? Welche Daten, welche Freiheiten? Denn eine Technologie, die alles sieht und hört, was wir tun, werde nicht ohne Preis zu haben sein, meint O’Connell.


(tobe)



Source link

Weiterlesen

Beliebt