Künstliche Intelligenz
Googles KI-Blamage und frisches Blut für MFT – die Fotonews der Woche 7/26
Manchmal fühlt sich die schöne neue Tech-Welt an wie eine Szene aus einem Roman von Franz Kafka, nur dass der unnahbare Beamte im Schloss heute ein Algorithmus ist. Und wenn dieser Algorithmus entscheidet, dass Schwarz eigentlich Weiß ist, dann ist das so. Widerspruch? Zwecklos. Eine besonders absurde Episode dieser Art hat diese Woche der Journalist und Fotograf Georg Berg durchlebt und akribisch dokumentiert. Es ist eine Geschichte, die jeden, der eine Kamera in die Hand nimmt, aufhorchen lassen sollte.
Weiterlesen nach der Anzeige
Googles „Won’t Fix“-Politik: Wenn gute Arbeit zum KI-Verdacht wird
Der Fall ist so paradox, dass man ihn kaum erfinden könnte: Georg Berg nahm ein authentisches Reportagefoto – vier ältere Herren in Schweizer Sennentracht – auf. Er bearbeitete es dann professionell in Lightroom, um die Personen präzise vom Hintergrund abzuheben. Eine handwerkliche Fleißarbeit, die jeder gute Fotograf kennt. Das Ergebnis? Googles KI-Detektor „SynthID“ stempelte das Bild als „KI-generiert“ ab. Die Begründung, wenn man sie so nennen möchte, liegt in der Präzision: Die saubere Maskierung erzeugte statistische Muster, die der Algorithmus als „unnatürlich“ und damit als Werk einer Maschine interpretierte. Ein Profi, der zu gut arbeitet, wird so zum Fälscher erklärt.
Das eigentliche Sahnehäubchen auf dieser Torte der Ironie ist jedoch, dass das Foto ein C2PA-Zertifikat (Content Credentials) besaß. Das ist quasi der digitale Herkunftsnachweis, der kryptografisch belegt, woher ein Bild stammt und wie es bearbeitet wurde. Und jetzt halten Sie sich fest: Google ist Mitglied ebenjener C2PA-Initiative, die diesen Standard entwickelt hat und von Adobe, der New York Times und Twitter ins Leben gerufen wurde. Man hat also einen Standard für Authentizität mitentwickelt, ignoriert ihn aber in den eigenen Produkten geflissentlich. Adobe erkennt das Bild korrekt als „menschlich“ – der Nutzer steht nun zwischen zwei konkurrierenden ‚Wahrheiten‘.

Als der Fotograf Berg diesen Systemfehler pflichtbewusst an Google meldete, kam die Antwort nach nur 60 Sekunden, was auf eine automatisierte Abfuhr schließen lässt: „Won’t Fix (Intended Behavior)“. Auf Deutsch: „Wird nicht repariert (beabsichtigtes Verhalten)“. Google teilt damit mit, dass es kein Fehler, sondern Absicht ist, wenn authentische Werke fälschlicherweise als KI-Produkt gebrandmarkt werden. Für Fotografen und Journalisten ist das ein Schlag ins Gesicht. Es bedeutet, dass der Algorithmus die Wahrheit definiert und es kein Recht auf Widerspruch gibt. Wenn der digitale Schiedsrichter pfeift, ist das Spiel aus – auch wenn er auf dem falschen Feld steht.
c’t Fotografie Zoom In abonnieren
Ihr Newsletter mit exklusiven Foto-Tipps, spannenden News, Profi-Einblicken und Inspirationen – jeden Samstag neu.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
MFT-Allianz wächst: Sonida aus Shenzhen ist dabei
Weiterlesen nach der Anzeige
Während ein Tech-Gigant das Vertrauen in digitale Bilder untergräbt, gibt es an anderer Front handfeste und erfreulichere Nachrichten. Die Micro-Four-Thirds-Allianz (MFT), angeführt von OM Digital Solutions (ehemals Olympus) und Panasonic, hat ein neues Mitglied: die Shenzhen Sonida Digital Technology Co, Ltd. aus China. Wer jetzt die Augenbrauen hochzieht und „Wer?“ fragt, dem sei gesagt: Das ist potenziell eine sehr gute Nachricht für alle MFT-Nutzer.
Sonida ist kein unbeschriebenes Blatt, sondern hat bereits als sogenannter ODM-Hersteller Kameras für andere internationale Marken produziert. Sie wissen also, wie man Kameras baut. Unter der eigenen Marke „Songdian“ wollen sie nun MFT-kompatible Produkte auf den Markt bringen. Für das MFT-System, das oft als agiler Underdog gegen die Vollformat-Übermacht von Sony, Canon und Nikon antritt, ist das ein Gewinn. Jeder neue Partner stärkt das Ökosystem und verspricht mehr Auswahl bei Kameras und vor allem bei Objektiven. Und wer weiß, vielleicht sorgt ein neuer Spieler aus China ja auch für eine erfrischende Preisdynamik. Man darf gespannt sein, ob die Produkte so klingen, wie der Markenname vermuten lässt.
Zum Nachlesen: Wenn der Fehler Methode hat
Wer tiefer in die absurde Welt der KI-Detektion und Plattformverantwortung eintauchen will, dem sei der vollständige Bericht von Georg Berg auf seiner Webseite „Tellerrand-Stories“ wärmstens ans Herz gelegt. Er legt nicht nur den Fall dar, sondern liefert auch die komplette technische Analyse und die Beweiskette. Es ist ein wichtiges Dokument, das zeigt, warum freiwillige Selbstverpflichtungen von Tech-Konzernen oft nicht mehr wert sind als das digitale Papier, auf dem sie stehen. Ein Weckruf für alle, denen Authentizität in der Fotografie am Herzen liegt.
Lesen Sie auch
(tho)
Künstliche Intelligenz
OLG Bamberg: TikTok schummelt bei DSA-Pflichten
Tiktok muss seine Webseite für Nutzer in Deutschland umprogrammieren, urteilt das Oberlandesgericht Bamberg (OLG). Die aktuelle Gestaltung verstößt mehrfach gegen die als DSA (Digital Services Act, auch Gesetz über digitale Dienste) bekannte EU-Verordnung. Tiktok muss es Nutzern leicht machen, die Nutzung personenbezogener Daten für die Auswahl der vorgesetzten Videos auszuschalten.
Weiterlesen nach der Anzeige
Außerdem muss die Meldung rechtswidriger Inhalte benutzerfreundlich gestaltet werden. Beides ist laut dem von der Verbraucherzentrale Bayern erstrittenen Urteil ( 3 UKl 5/25 e) nicht gegeben, obwohl der DSA das in Artikel 38 respektive 16 vorschreibt.
Da der Fall grundsätzliche Bedeutung hat, es zu den relevanten Rechtsfragen aber noch keine Rechtsprechung gibt, hat das OLG in seinem erstinstanzlichen Endurteil vom 18. März die Revision zum Bundesgerichtshof zugelassen. Tiktok wird das wohl in Anspruch nehmen und hat seine Webseite bisher nicht verbessert. TikToks Anregung, bestimmte Rechtsfragen zuerst dem Europäischen Gerichtshof (EuGH) vorzulegen, hat das Gericht nicht aufgegriffen.
TikTok will sich dem Verfahren nicht stellen
Im Prozess hat TikTok zunächst versucht, der Verbraucherzentrale die Berechtigung zur Klageführung abzustreiten. Der DSA diene der Wettbewerbsregulierung und nicht dem Verbraucherschutz; zudem sei ausschließlich die Europäische Kommission zur Durchsetzung befugt, und diese habe an der Webseite nichts ausgesetzt. Und überhaupt würden auch Nicht-Verbraucher die Webseite aufrufen.
Diese Argumente griffen beim OLG Bamberg nicht. Einerseits seien die für die Klage relevanten Passagen des DSA eindeutig verbraucherschützend, andererseits gebe das deutsche Gesetz über Unterlassungsklagen bei Verbraucherrechts- und anderen Verstößen (UKlaG) der Verbraucherzentrale ausdrücklich das Recht, wegen Verstößen gegen solche DSA-Passagen vor Gericht zu ziehen. Die Regelung des DSA, wonach die EU-Kommission für die Durchsetzung zuständig sei, diene der Abgrenzung gegenüber anderen Verwaltungsbehörden, schließe aber Gerichtsverfahren nach dem UKlaG nicht aus.
Interface-Tricks
Nutzer haben gemäß Artikel 38 DSA das Recht, TikTok zu verbieten, seinem Algorithmus ein Profil aus personenbezogenen Daten zu füttern. Diese Option hat TikTok allerdings ausnehmend gut versteckt. Nutzer müssen mit der rechten Maustaste auf ein Video oder ein beworbenes Produktbild klicken, und dann im Kontextmenü „Feed verwalten“ auswählen.
Weiterlesen nach der Anzeige

Nur durch Klicken mit der rechten Maustaste auf ein Video oder ein angezeigtes Produkt kommt man zu diesem Menü – wenn der Browser mitspielt. Unter „Feeds verwalten“ kann man sich dann verbitten, dass der Algorithmus ein personenbezogenes Profil heranzieht.
(Bild: Tiktok (Screenshot))
Dieser Weg ist alles andere als naheliegend. Beim Versuch der Redaktion ist das Kontextmenü auch nur in einem von drei Webbrowsern aufgetaucht; die anderen beiden Browser zeigten ihr eigenes Kontextmenü. Und über jene TikTok-Menüs, die über die bekannten drei Punkte aufgerufen werden können, ist die Datenschutz-Option nicht zu finden. Damit sei die De-Personalisierungsfunktion auf Tiktoks Webseite zwar unmittelbar, aber nicht leicht zugänglich, was die Vorgaben des DSA verletzt.
Die Meldung rechtswidriger Inhalte gemäß DSA ist sehr wohl über das Drei-Punkte-Menü im rechten oberen Eck des jeweiligen Videos erreichbar – allerdings gut versteckt. Zunächst muss „Melden“ ausgewählt werden, was eine Reihe von Auswahlmöglichkeiten beschert. Darunter „Hass und Belästigung“, „Betrug und Schwindel“ oder „Fälschungen und geistiges Eigentum“, was ja durchaus rechtswidrige Tatbestände sind.
Nur so wird korrekt gemeldet
Doch wer meint, damit eine Meldung gemäß Artikel 16 DSA erstattet zu haben, irrt. TikTok betrachtet dies lediglich als Hinweis auf einen Verstoß gegen die eigenen Richtlinien und setzt nicht die im DSA vorgesehenen Maßnahmen. Nutzer können keine Begründung hinzufügen und auch keine Kontaktdaten beifügen. Damit entfallen nicht nur die Empfangsbestätigung und Information über die Entscheidung über die Meldung, sondern TikTok wähnt sich auch haftungsfrei. Nur bei Meldungen nach Artikel 16 DSA gilt TikTok formalrechtlich als in Kenntnis gesetzt und muss gegebenenfalls Maßnahmen ergreifen.

Wer hier klickt, klickt vielleicht falsch. Die rechtsverbindliche Meldung nach dem Digital Services Act geht nur über die hier nicht sichtbare Option „Widerrechtlichen Inhalt melden“. Sie wird erst durch Scrollen nach unten sichtbar. Das ist unannehmlich, sagt das Gericht.
(Bild: TikTok/Daniel AJ Sokolov (bearbeiteter Screenshot))
Nur wer in dem Menü unter den Seitenumbruch hinunterscrollt und „Widerrechtlichen Inhalt melden“ auswählt, kann nähere Informationen und seine Kontaktdaten hinzufügen. Das erschließt sich aber erst, nachdem man das ausgewählt hat. „Faktisch hängt es daher häufig vom Zufall ab, welche Schaltfläche der Nutzer betätigt und demnach auch, ob er ein den Anforderungen des Art 16 DSA genügendes Meldeverfahren in die Wege leitet“, begründet der OLG sein Unterlassungsurteil. „Die Auffindung dieses Meldeverfahrens wird dem Nutzer daher durch die Ausgestaltung in einer Weise erschwert, dass sie entgegen der Vorgabe der Benutzerfreundlichkeit mit Unannehmlichkeiten verbunden ist.“
(ds)
Künstliche Intelligenz
Ray-Ban Meta Smart Glasses: Neue Modelle und KI-Funktionen angekündigt
Meta erweitert sein Portfolio um eine neue Kategorie von Smart Glasses, die speziell für Korrekturgläser und ganztägigen Tragekomfort ausgelegt sind. Die sogenannten „Ray-Ban Meta Optics Styles“ unterstützen laut Meta nahezu alle Sehstärken und führen neue ergonomische Anpassungen für unterschiedliche Gesichtsformen ein, darunter flexiblere Scharniere, austauschbare Nasenpads und vom Optiker anpassbare Bügelenden.
Weiterlesen nach der Anzeige
Mit der neuen Produktkategorie reagiert Meta auf zwei der größten Kritikpunkte: einen begrenzten Bereich an unterstützten Dioptrien und eine mangelnde Eignung für den ganztägigen Einsatz. Laut The Verge ist die Sachlage beim Dioptrienbereich komplexer, als es auf den ersten Blick erscheint und ob die neuen Modelle beim Tragekomfort tatsächlich Abhilfe schaffen, muss ein Praxistest zeigen. Die neuen Smart Glasses kann man wohlgemerkt auch ohne Korrekturgläser bestellen.
Die ersten beiden Modelle der neuen Kategorie heißen „Blayzer“ und „Scriber“ und sie kommen mit zwei schlankeren Fassungen als bei früheren Ray-Ban Meta-Brillen. Blayzer hat eine rechteckige Form und ist in zwei Größen erhältlich, während das Scriber-Modell eine rundere Form aufweist. Sie sind in verschiedenen Farben erhältlich und werden mit einem dunkelbraunen Ladeetui geliefert.
Obwohl die neue Kategorie schlanker ausfällt, bringen die Modelle laut Meta alle Funktionen der bisherigen Ray-Ban Meta-Brillen mit. Ob sie an anderer Stelle Kompromisse aufweisen, ist noch unklar. Gewichtsangaben macht Meta nicht.
Die Brillen können ab sofort in den USA über Meta und Ray-Ban vorbestellt werden und sind Meta zufolge ab dem 14. April bei Optikern in den USA sowie in „ausgewählten internationalen Märkten“ erhältlich. Meta nennt im deutschen Webstore einen Einstiegspreis von 469 Euro. Damit liegen die schlankeren und ergonomischeren Modelle preislich über dem Niveau der ersten Generation (ab 329 Euro) und zweiten Generation (ab 419 Euro) der Ray-Ban Meta-Brillen.
Neue KI-Funktionen für alle Smart Glasses
Für das bestehende Portfolio kündigt Meta neue Farben und Linsen an. Die Sportbrillen Oakley Meta HSTN und Oakley Meta Vanguard erhalten neue Kombinationen aus Farben und Gläsern, während die zweite Generation der Ray-Ban-Meta-Brillen im Frühjahr und Sommer drei neue, zeitlich limitierte Farbvarianten bekommt.
Weiterlesen nach der Anzeige
Metas Smart Glasses erhalten zudem portfolioübergreifend neue KI-Funktionen rund um Ernährung und WhatsApp. Die Erfassung der eigenen Ernährung soll dadurch deutlicher einfacher werden. Nutzer können Mahlzeiten per Sprachbefehl oder Foto erfassen, woraufhin Meta AI Nährwertinformationen extrahiert und in der entsprechenden App protokolliert. Auf dieser Basis erstellt das System mit der Zeit personalisierte Empfehlungen und kann auch situativ Ernährungstipps geben. Diese Funktionen starten demnächst in den USA auf den Ray-Ban- und Oakley-Modellen und im Sommer auf der Meta Ray-Ban Display, die derzeit nur in den USA verkauft wird.
Zusätzlich führt Meta neue KI-Funktionen für WhatsApp ein. Künftig lassen sich eingehende Nachrichten per Sprachbefehl von Metas KI-Assistent zusammenfassen oder gezielt durchsuchen, etwa nach konkreten Details aus einem Chat. Die Verarbeitung erfolgt dabei direkt auf dem Gerät und bleibt durch E2E-Verschlüsselung geschützt. Die Funktionen werden bald für Betatester aller bislang erhältlichen Modelle freigeschaltet.
Neue Sprachen für Live-Übersetzung
Die Meta-Ray Ban Display hat diesen Monat bereits eine Reihe neuer Features erhalten. Für das Frühjahr kündigt Meta nun weitere Funktionen an. Künftig sollen Nutzer ihre Perspektive und den Inhalt des Displays gleichzeitig aufzeichnen können. Die digitalen Einblendungen und das Kamerabild werden dabei in einem Video kombiniert, das sich teilen lässt. Darüber hinaus wird die visuelle Fußgängernavigation ausgeweitet: Ab Mai soll sie in allen Städten der USA verfügbar werden und Schritt-für-Schritt-Anweisungen direkt im Sichtfeld anzeigen.
Auch das Meta Neural Band, das der Meta-Ray Ban Display beiliegt, wird in den kommenden Wochen per Update erweitert: Die im Januar eingeführte Fingerschrift verlässt die Testphase und erreicht bald alle US-Nutzer. Zudem wird sie künftig auch mit iMessage kompatibel sein. Bislang unterstützte die Funktion lediglich Instagram, WhatsApp, Messenger und die native Nachrichten-App von Android.
Die Ray-Ban Meta- und Oakley Meta-Brillen werden in den kommenden Monaten auf weitere Märkte ausgeweitet, darunter Japan, Südkorea, Singapur, Chile, Kolumbien und Peru. Zudem baut Meta die Live-Übersetzungsfunktion für diese Modelle aus. Ab dem Sommer sollen sie insgesamt 20 Sprachen unterstützen, darunter Mandarin, Koreanisch, Japanisch und Arabisch. Bisher unterstützte die Live-Übersetzung Englisch, Deutsch, Französisch, Italienisch, Spanisch und Portugiesisch.
(tobe)
Künstliche Intelligenz
Milliarden-Deal: Nvidia steigt bei Marvell ein
Die KI-Branche läuft weiter heiß. Der US-Chip-Konzern Nividia hat zwei Milliarden US-Dollar in Marvell Technology investiert. Beide Unternehmen gehen zudem eine strategische Partnerschaft ein. Diese soll Kunden, die auf Nvidia-Architekturen aufbauen, die Nutzung der von Marvell entwickelten, kundenspezifischen KI-Chips in Kombination mit Nvidias Netzwerkkomponenten und Prozessoren erleichtern. Das teilten beide Unternehmen am Dienstag in gleichlautenden Erklärungen mit.
Weiterlesen nach der Anzeige
Durch die Partnerschaft erhalten die Kunden „mehr Auswahl und Flexibilität bei der Entwicklung von Infrastrukturen der nächsten Generation“, heißt es. Marvell wird demnach kundenspezifische Chips und mit Nvidias NVLink Fusion kompatible Netzwerklösungen beisteuern, während der Nvidia unterstützende Technologien wie CPUs, Netzwerkkarten und Verbindungen bereitstellt.
„Der Wendepunkt in der KI-Entwicklung ist erreicht. Die Nachfrage nach Token-Generierung steigt rasant, und weltweit wird mit Hochdruck an der Entwicklung von KI-Fabriken gearbeitet“, wird Nvidia-CEO Jensen Huang in der Mitteilung zitiert. „Gemeinsam mit Marvell ermöglichen wir unseren Kunden, das KI-Infrastruktur-Ökosystem von Nvidia zu nutzen und spezialisierte KI-Rechenkapazitäten zu skalieren.“
Die Partnerschaft mit Nvidia unterstreiche die wachsende Bedeutung von Hochgeschwindigkeitsverbindungen, optischen Verbindungen und beschleunigter Infrastruktur für die Skalierung von KI, erklärte der CEO von Marvell, Matt Murphy. „Durch die Verbindung von Marvells führender Expertise in den Bereichen analoge Hochleistungselektronik, optische digitale Signalverarbeitung (DSP), Siliziumphotonik und kundenspezifische Siliziumtechnologie mit Nvidias wachsendem KI-Ökosystem mittels NVLink Fusion ermöglichen wir unseren Kunden den Aufbau skalierbarer und effizienter KI-Infrastrukturen.“
Skalierbarkeit und Energieeffizienz immer wichtiger
Jacob Bourne, Analyst bei dem Marktforschungsunternehmen eMarketer verweist gegenüber der Nachrichtenagentur Reuters darauf, dass bei KI-Systemen und -Rechenzentren deren Skalierbarkeit sowie Bandbreite und Energieeffizienz eine Schlüsselrolle spielen. „Die Übernahme [von Marvell, Anm.] erweitert Nvidias Ökosystem um spezialisiertere Siliziumchips und stärkt damit Nvidias Position als zentraler Zugangspunkt für zunehmend vielfältige KI-Workloads“, so der Experte.
Beide Unternehmen werden außerdem zusammenarbeiten, um fortschrittliche Netzwerklösungen für KI voranzutreiben, darunter optische Verbindungslösungen und Siliziumphotoniktechnologie, die eine schnelle und energieeffiziente Datenübertragung ermöglichen, kündigten sie an.
Angesichts des weltweiten KI-Booms investieren die großen Tech-Konzerne derzeit Milliarden in den Aufbau von KI-Infrastruktur. Im vergangenen Herbst kündigte Nvidia zusammen mit OpenAI das „größte KI-Infrastrukturprojekt der Geschichte“ an und dafür insgesamt 100 Milliarden US-Dollar in den ChatGPT-Entwickler zu investieren. Geplant wurden mehrere Rechenzentren, die mit zehn Gigawatt einen Energiebedarf aufweisen sollten, welcher der Leistung von zehn Kernkraftwerken entsprechen würde. Mittlerweile klingen die OpenAI-Pläne von Nvidia weniger forsch. Zwar dementierte Nvidia-CEO Huang Medienberichte, wonach die Investitionspläne auf Eis gelegt wurden. Aber auch die ursprünglich genannte Summe von 100 Milliarden US-Dollar erscheint nunmehr unrealistisch. Nvidia will zwar weiter in OpenAI investieren – aber keine 100 Milliarden.
Weiterlesen nach der Anzeige
(akn)
-
Künstliche Intelligenzvor 1 Monat
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 4 WochenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 3 MonatenAumovio: neue Displaykonzepte und Zentralrechner mit NXP‑Prozessor
-
Künstliche Intelligenzvor 3 MonateneHealth: iOS‑App zeigt Störungen in der Telematikinfrastruktur
-
Apps & Mobile Entwicklungvor 3 MonatenX3D² bestätigt: Der AMD Ryzen 9 9950X3D2 mit doppeltem 3D V-Cache kommt!
-
Entwicklung & Codevor 3 WochenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
