Connect with us

Künstliche Intelligenz

Xiaomi stellt eigene KI-Brille im Stil der Ray-Ban Meta vor


Die neuen Smart Glasses von Xiaomi sind ähnlich schlank gebaut wie das Konkurrenzmodell, mit 40 Gramm jedoch etwas leichter.

Bei der technischen Ausstattung gibt es keine großen Unterschiede: Die Xiaomi AI Glasses verfügen ebenfalls über eine 12-Megapixel-Frontkamera, zwei Lautsprecher sowie fünf Mikrofone mit Windgeräuschunterdrückung. Wie Metas Brillen unterstützen sie Echtzeit-Livestreaming und Videotelefonie aus der Ich-Perspektive. Xiaomis KI-Brille kommt ohne Display aus, genauso wie Metas Produkt.

Angetrieben werden die Xiaomi AI Glasses von einem Dual-Chip-System, bestehend aus dem Snapdragon AR1-Prozessor, der auch in Metas KI-Brillen zum Einsatz kommt, sowie einem zweiten, stromsparenden Chip, auf dem Xiaomis Betriebssystem Vela OS läuft. Die Brille ist mit einem integrierten 263-mAh-Akku ausgestattet, der eine Laufzeit von bis zu 8,6 Stunden ermöglicht. Das entspricht etwa dem Doppelten der Ray-Ban Meta-Brille, aber liegt auf dem Niveau der erst kürzlich vorgestellten Oakley Meta-Brille.

Wie der Name nahelegt, bieten die Xiaomi AI Glasses eine Reihe von KI-Funktionen, darunter Objekterkennung, Textübersetzung, Transkription, intelligente Zusammenfassungen und Kalorienzählung. Sie sollen außerdem als „Meeting-Assistent“ taugen, alltägliche Fragen beantworten können und Live-Übersetzung in zehn Sprachen, darunter Englisch, Japanisch, Deutsch und Spanisch, bieten. Die Ray-Ban Meta-Brille beherrscht diese Funktion derzeit nur in Englisch, Spanisch, Italienisch und Französisch.

Xiaomis KI-Brille ist in den Farben Schwarz, Braun und Grün erhältlich. Optional sind elektrochrome Gläser erhältlich, die ihre Tönung in 0,2 Sekunden ändern. Der Rahmen verfügt über Scharniere aus Titanlegierung für langlebige Haltbarkeit und einen komfortablen Sitz, der laut Xiaomi speziell für asiatische Gesichtskonturen entwickelt wurde.

Eine Markteinführung im Westen ist mit diesem Modell offenbar nicht vorgesehen. Xiaomi will erst einmal testen, wie das Produkt auf dem heimischen Markt ankommt, wo keine Konkurrenz seitens Meta herrscht.

Die Xiaomi AI Glasses sind ab sofort ab 1.999 RMB in China erhältlich, was circa 250 Euro entspricht. Das ist günstiger als Metas Ray Ban-Brille, die in Deutschland ab 330 Euro erhältlich ist. Allerdings fehlt Xiaomis Modell ein vergleichbar ikonisches Design mit hohem Wiedererkennungswert. Zudem bietet Meta mittlerweile deutlich mehr Auswahl bei Modellen sowie Farb- und Linsenkombinationen. Beides dürfte entscheidend für den Erfolg von Smart Glasses im Massenmarkt sein. Google, das ebenfalls an KI-Brillen arbeitet, setzt auf eine Partnerschaft mit den Brillenherstellern Warby Parker und Gentle Monster.

Ob Xiaomis Kopie der Ray-Ban Meta Glasses technisch und funktional mit dem Original mithalten kann, lässt sich derzeit nicht beurteilen. Das muss ein Praxistest zeigen.


(tobe)



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Künstliche Intelligenz

Podcast: Kritische Infrastrukturen — wenn IT-Sicherheit zur Schwachstelle wird


Der aktuelle Angriff der USA auf iranische Uranaufbereitungsanlagen war nicht der erste seiner Art. Genau genommen war es schon der erste seiner Art: denn als die USA und Israel zuletzt versuchten, das iranische Atomprogramm zu stoppen, taten sie das auf minimalinvasive Art und Weise: mit einem ausgefeilten Cyberangriff. Stuxnet ging in die Geschichte ein als der erste cyberphysische Angriff und der Beginn einer neuen Ära: Der Angriff galt als der Auftakt des Cyberwar. „Damals dachte man, dass künftige Kriege reine Cyberkriege sein werden“, sagt Sarah Fluchs im c’t-Podcast „They Talk Tech“, „aber das ist so nicht eingetroffen.“ Die Expertin beschäftigt sich mit der Sicherheit kritischer Infrastrukturen und industrieller Kontrollsysteme. Wie angreifbar diese sind, wurde mit Stuxnet klar und ist angesichts der aktuellen geopolitischen Situation ein drängendes Thema.

Ein Grund dafür, dass man dennoch nur hin und wieder von Cyberangriffen auf kritische Infrastrukturen zum Beispiel im Energiesektor hört – unter anderem im Zuge der russischen Angriffe auf die Ukraine – sei sicherlich, dass es doch nicht ganz so einfach ist, mit rein digitalen Angriffen massive physische Zerstörungen anzurichten, sagt Fluchs. „Wenn wirklich schwarzer Rauch gefordert ist, also physische Zerstörung, dann ist ein Cyberangriff oft nicht die effizienteste Waffe.“

Wirklich verheerend werden digitale Angriffe erst in Kombination mit physischen Angriffen. Das zeigte sich etwa zu Beginn des russischen Angriffskriegs gegen die Ukraine. Noch bevor die ersten Bomben fielen, legte ein Cyberangriff auf das Satellitennetzwerk KA-SAT die Kommunikation lahm – mit Auswirkungen bis nach Westeuropa. „Das wirklich Bedrohliche ist nicht der einzelne Cyberangriff, sondern das Zusammenspiel“, sagt Sarah Fluchs. „Wenn etwa ein Angriff auf die Kommunikation einen Bombenangriff noch viel schlimmer macht.“

Gleichzeitig ist seit dem Bombenangriff der USA die Angst groß, dass der Iran mit Cyberangriffen auf kritische Infrastrukturen in den USA und Europa zurückschlägt. Deshalb sei es wichtig, sich jetzt intensiv mit der Sicherheit entsprechender Anlagen zu beschäftigen. Aber das ist gar nicht so einfach, denn die Sicherheit kritischer Infrastrukturen ist komplex – unter anderem gerade deshalb, weil in den vergangenen Jahren immer mehr Schichten an Sicherheitsmaßnahmen ergänzt wurden. „Die Best-Practice-Listen wachsen immer auch nur. Es hat ja nie jemand in den letzten 20 Jahren jemals eine Best- Practice wieder runtergenommen.“ Dadurch werden die Anforderungen für Menschen undurchsichtig.

„Wir haben mittlerweile mit den allerbesten Intentionen so komplizierte Systeme gebaut, dass wir sie nicht mehr durchblicken“, sagt Fluchs. Jede zusätzliche Sicherheitsmaßnahme erhöht die Komplexität – und damit auch das Risiko, dass etwas schiefläuft. Ein Beispiel dafür ist das Update der Sicherheitssoftware CrowdStrike, das im Sommer 2024 weltweit Systeme lahmlegte und unter anderem ein riesiges Chaos im Flugverkehr verursachte. Gerade bei Sicherheitsmaßnahmen sei es wichtig, gut zu überlegen, was man brauche und was vielleicht auch verzichtbar ist. Denn gerade bei industriellen Kontrollsystemen sei es unabdingbar, Sicherheit einfach zu gestalten, weil jedes Update auch ein Risiko mit sich bringt. KI und die verlockende Möglichkeit, immer mehr Daten auszuwerten, mache es nicht unbedingt besser – im Gegenteil: Je mehr Daten erhoben würden, umso unübersichtlicher werde alles. „Wir sehen das gerade bei Security Tools“, sagt Fluchs: Immer mehr Daten würden erhoben, ohne zu analysieren, wie sinnvoll diese wirklich seien für die Fragestellung. „Alles blinkt wie ein Tannenbaum und die Leute schauen drauf und haben keine Ahnung mehr, was sie damit tun sollen.“

Dazu kommt, dass auch Software angesichts vieler Komponenten, die in Systemen stecken, unüberschaubar und dadurch ebenfalls unsicher wird. Das zeigte sich etwa bei der manipulierten Open-Source-Bibliothek XZ Utils, deren Backdoor nur durch Zufall entdeckt wurde. „Wir müssen aufhören, Systeme zu bauen, die Menschen nicht mehr verstehen“, fordert Fluchs. Ein Kernproblem sei der leichtsinnige Einsatz von Open-Source-Produkten. Unternehmen verlassen sich auf freie Komponenten, ohne Verantwortung für deren Sicherheit zu übernehmen. „Wir können Open Source nicht mehr so nutzen, als sei sie kostenlos und niemand verantwortlich“, sagt Fluchs. Künftig, etwa durch den Cyber Resilience Act der EU, dürften Hersteller auch für die Sicherheit fremder Komponenten haften.

Besonders gefährlich findet Fluchs, dass viele neue Systeme die Transparenz weiter verschlechtern. Tools automatisieren Entscheidungen, die niemand mehr nachvollziehen kann. „KI kann Informationen aufbereiten, aber Entscheidungen müssen Menschen treffen“, sagt sie. „Sonst fliegt uns das irgendwann um die Ohren.“

Sicherheit bedeute nicht, alles technisch Mögliche umzusetzen. Im Gegenteil: Wer einfach nur Best Practices aufeinanderschichtet, schaffe oft ein undurchschaubares, wartungsintensives System. „Manchmal ist es besser, Dinge bewusst wegzulassen“, so Fluchs. Gerade im industriellen Umfeld sei Reduktion oft die bessere Strategie – auch, weil jedes Update eine Herausforderung ist: „Du kannst ein Atomkraftwerk nicht neu starten, nur weil Windows Patchday hat.“ Je deterministischer ein System in diesem Bereich funktioniert, umso einfacher ist es, es zu schützen – weil es für Menschen durchschaubar bleibt. „Weniger ist hier wirklich manchmal mehr“, so Fluchs.

Stuxnet hat 2010 eine Tür aufgestoßen. Seither haben sich Cyber- und physische Angriffe weiter verzahnt, während die Verteidigung Systeme weiter verkompliziert hat. Die größte Gefahr liegt vielleicht nicht mehr im gezielten Angriff, sondern in der Intransparenz der Verteidigung.

„They Talk Tech“ erscheint jeden Mittwoch überall, wo es Podcasts gibt. Svea Eckert und Eva Wolfangel diskutieren ein Tech-Thema oder treffen inspirierende Frauen aus und rund um die Tech-Welt.


(mond)



Source link

Weiterlesen

Künstliche Intelligenz

USA: Polizisten haben Kennzeichen-Scanner missbraucht


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Kennzeichen-Scanner, die ohne Verdacht oder Anlass alle vorbeifahrenden Fahrzeuge erfassen und speichern, sind bei US-Polizisten besonders beliebt. Es gibt nur bescheidene Einschränkungen für die Auswertung der Daten. Und selbst die halten manche Polizeibehörden nicht ein. Flock, einer von mehreren Scannerbetreibern in den USA, ergreift jetzt behutsame Maßnahmen gegen Missbrauch: Daten aus Kalifornien, Illinois und Virginia können nur noch im Staat selbst abgefragt werden. Bald soll auch eine KI bei möglichem Missbrauch Mitteilung machen.

Flock hat in mehr als 5.000 US-Städten und Gemeinden Kennzeichenscanner installiert. Erklärtes Ziel ist, die Überwachungsgeräte in allen US-Kommunen auszurollen. Die Kameras erkennen neben Kennzeichen auch Modell, Farbe und besondere Merkmale aller erfassten Fahrzeuge und legen diese Informationen für spätere Abfragen in eine Datenbank. Gerichtliche Genehmigungen sind nicht erforderlich.

Die örtliche Polizeibehörde kann die Datenbank für Abfragen durch andere Polizeibehörden freigeben, entweder für bestimmte Partner, für alle in einem gewissen Umkreis, im selben Staat, oder überhaupt US-weit (National Lookup). Möchte eine Polizeibehörde selbst die landesweite Suche nutzen, muss sie ihre eigenen Daten ebenfalls für National Lookup zur Verfügung stellen. Und so ist das Netz für National Lookup stark gewachsen.

Einzelne US-Staaten haben Gesetze, die die Abfragen einschränken. Nach kalifornischem Recht dürfen die Daten nur innerhalb des Staates geteilt werden. Illinois schränkt die Datenweitergabe an Behörden außerhalb des Staates ein: Sie dürfen Illinois‘ Daten nicht zur Verfolgung von Frauen, die Abtreibungen in Anspruch genommen haben könnten, sowie zur Verfolgung von Menschen, deren Aufenthaltstitel abgelaufen sein könnte, verwenden. Und ab Juli beschränkt Virginia die Abfragen auf bestimmte Zwecke: Verdacht der Verletzung städtischer Verordnungen, des Strafrechts des Staates Illinois, des Diebstahls eines Fahrzeuges sowie bei Vermisstenmeldungen und Fahndungen. Damit sind Verletzungen des US-Aufenthaltsrechts wahrscheinlich nicht gedeckt. Zudem beschränkt Virginia die Speicherdauer auf 21 Tage.

404media hat aufgedeckt, dass sich manche Polizeibehörden über die bereits geltenden Regeln hinwegsetzen. Sie greifen durchaus von außerhalb auf kalifornische Daten zu oder suchen in Illinois‘ Datenbank nach Hinweisen auf Personen mit abgelaufenem Visum. Diese Erkenntnis geht ausschließlich auf die von den Polizisten im elektronischen Abfrageformular angegebenen Abfragegründe zurück. Dabei haben sie unmittelbar zuvor die Einhaltung der Vorschriften Illinois‘ per Mausklick bestätigen müssen.

Dabei sind die abfragenden Polizisten für Aufenthaltsrecht gar nicht zuständig. Sie versuchen offenbar aus eigenem Drang, der zuständigen Bundesbehörde zuzuarbeiten. 47 Polizeibehörden sind wegen solcher verbotenen Abfragen in Illinois aufgeflogen, als Flock in Folge des Berichts 404medias selbst ein Audit durchgeführt hat.

Als Reaktion hat Flock zuerst einen Filter installiert, der die Abfrage verhindern soll, wenn ein illegaler Abfragegrund (wie zum Beispiel „Immigration“ oder „Abortion“) angegeben wird. Das greift aber nur in Illinois. Inzwischen geht Flock noch einen Schritt weiter und sperrt Abfragen aus anderen US-Staaten in Kalifornien, Illinois und Virginia.

Aus Texas ist ein Fall bekannt geworden, in dem ein Polizist in Flocks Kennzeichendatenbank landesweit nach einer Frau gesucht hat, die eigenständig abgetrieben haben soll. In Texas sind Abtreibungen praktisch vollständig verboten. Der Polizist und Flock streiten ab, dass es bei der Suche um Strafverfolgung ging. Vielmehr habe sich die Familie der Frau Sorgen gemacht und Vermisstenmeldung erstattet, der der Polizist dann nachgegangen sei.

Noch dieses Jahr möchte Flock Künstliche Intelligenz auf Patrouille schicken. Sie soll verdächtige Abfragen erkennen und dann einen Mitarbeiter jener Polizeibehörde informieren, in dessen Gebiet die abgefragte Kamera steht. Automatische Sperren sind nicht vorgesehen. Zudem möchte Flock den einzelnen Polizeibehörden ermöglichen, das Abfrageformular zu verbessern: Sie können dann verlangen, dass Abfragende eine Aktenzahl angeben müssen, sodass theoretisch überprüft werden kann, für welchen Fall die Abfrage durchgeführt wird. Pläne, das landesweit verpflichtend zu machen, hat Flock nicht.


(ds)



Source link

Weiterlesen

Künstliche Intelligenz

Kein Verbot vorgesehen: Creative Commons arbeitet an Lizenzen fürs KI-Training


Die für die gleichnamigen Lizenzen verantwortliche Organisation Creative Commons arbeitet an Kennzeichnungen, um bei Datensätzen anzugeben, unter welchen Bedingungen die für das Training von KI-Modellen benutzt werden können. Das geht aus einem Blogeintrag hervor, in dem die „CC Signals“ vorgestellt werden. Erklärtes Ziel ist die Erhaltung des offenen Internets, indem klar geregelt wird, ob und wie Inhalte für KI-Training benutzt werden können. Andernfalls drohe eine Zukunft, in der die Daten weiter einfach benutzt würden und die Verantwortlichen versuchen, das technisch zu unterbinden. Das Ergebnis wäre ein Netz aus abgegrenzten Bereichen, die etwa von Paywalls geschützt würden.

Wie Creative Commons erklärt, wurden vier CC-Signale erarbeitet. Alle sehen vor, dass für die Benutzung des Datensatzes eine Anerkennung („Credit“) der Verantwortlichen fällig ist, dabei geht es also um eine Art Namensnennung. Weiterhin soll man vorschreiben können, dass für die Nutzung ein finanzieller Beitrag fällig ist. Dabei sieht Creative Commons zwei Formen vor. Einmal geht es um Geld für die Verantwortlichen selbst oder Geld für das Ökosystem, zu dem es gehört. Der Betrag solle jeweils nach Treu und Glauben ermittelt werden. Schließlich sollen die Verantwortlichen auch vorschreiben können, dass ihre Daten nur für das Training von KIs benutzt werden können, die offen sind. Ein komplettes Verbot von KI-Training ist nicht vorgesehen.

Ziel des Projekts ist die Entwicklung eines globalen Werkzeugs, so wie es die Creative-Commons-Lizenzen längst geworden sind. Es sollten keine neuen Besitzrechte entstehen, sondern mehr eine Art von „Manieren für Maschinen“, schreibt die Organisation. Die erkennt an, dass man darauf angewiesen sei, dass sich KI-Firmen daran halten. Natürlich könne man zynisch sein und daran Zweifel haben, aber es gebe viele Gründe, das Gegenteil zu erwarten. Den Signalen sollen zudem technische Standards zugrunde liegen, die von der Internet Engineering Task Force entwickelt werden. Zu dem Projekt gibt es eine eigene Seite auf GitHub, dort bittet die Organisation um Feedback. Bislang gibt es dort fast ausschließlich und teils harsche Kritik.


(mho)



Source link

Weiterlesen

Beliebt