Künstliche Intelligenz
Zweite Generation der klassischen Ray-Ban Meta kommt raus
Es ist inzwischen der Klassiker unter den KI-Brillen: Metas Ray-Ban erscheint nun in einer verbesserten, klar, zweiten Generation. 27 Fassungen stehen inzwischen zur Auswahl, allesamt relativ unauffällig im typischen Ray-Ban-Stil. Hinzukommen die verschiedenen Optionen für Gläser – von klar bis Transitions. Das sind Gläser, die bei Sonneneinstrahlung dunkel werden.
Mit den neuen Modellen der RBM verlängert sich die Batterielaufzeit der Brille auf bis zu acht Stunden. Wenn man durchgängig Musik hört oder telefoniert, sind es fünf Stunden. Weitere 48 Stunden können aus dem Ladecase herausgeholt werden.
Die Brille ist freilich weiterhin über Meta AI zu steuern und hat den vollen Funktionsumfang der älteren Generation. Man kann etwa per Tippen auf den Bügel oder mittels Sprachbefehl Videos oder Fotos aufnehmen. Die neuen Modelle haben eine 12-Megapixel-Weitwinkelkamera eingebaut – mit verbesserter 3K-UltraHD-Auflösung. Portraits werden standardmäßig mit 3024 x 4032 Pixeln aufgenommen. Videos können bei einer Länge von bis zu drei Minuten in verschiedenen Größen aufgenommen werden.
Echtzeit-Übersetzer per KI-Brille
Fünf Mikrofone sind eingebaut, damit Meta genau zuhören kann. Zwei Ausgänge sorgen dafür, dass man selbst Musik und Gesprächspartner gut versteht.
Meta AI kann zudem nun die Umgebung via Kameras sehen und, sofern Informationen vorhanden sind, diese auch geben. „Hey Meta, was für ein Schild ist das da hinten?“ Meta kennt in der Regel die Antwort. Und auch fremde Sprachen sind kein Problem. Mit der Brille ist eine Echtzeit-Übersetzung möglich. Die gibt es allerdings bisher nicht in allen Sprachen. Französisch und Englisch konnten wir bereits testen. Gespräche sind mit sehr kurzer Latenz gut zu führen. Meta AI übersetzt sehr nah am gesprochenen Wort, leistet also keinen Dolmetscherdienst wie etwa der Übersetzer in Google Meet, der auch den Sinn verstehen will und Sätze entsprechend anpasst.
Den Echtzeit-Übersetzer hatte Mark Zuckerberg bereits vergangenes Jahr auf der hauseigenen Messe Connect vorgestellt, jetzt ist er auch tatsächlich verfügbar. Diese Funktion wird auch für die alte MRB verfügbar gemacht.
Gen 2 der RBM verträgt Spritzwasser. Anders als mit der neuen Oakley Vanguard sollte man sie jedoch nicht komplett unter Wasser tauchen.
Transparenzhinweis: Die Autorin wurde vorab eingeladen, um die neue Generation der Ray-Ban-Meta-Glasses zu testen. Vorgaben für die Berichterstattung hat es nicht gegeben.
(emw)
Künstliche Intelligenz
Meta Oakley Vanguard – des Sportlers neues Must-have
Rennradfahrer bekommen ein neues Must-have. Die Meta Oakley Vanguard ist eine smarte Brille für Sportler. Mit 549 Euro ist sie kein Schnäppchen, garantiert steht es um die Haltbarkeit aber besser als bei so mancher Radlerhose, die schnell mal durchgescheuert ist – und die auch ein Sümmchen kostet. Den Funktionsumfang bezeichnet Meta als Athletic Intelligence.
Die Vanguard kommt als KI-Brille und wird mit Meta AI verbunden, wie auch die bisherigen Brillenmodelle von Meta. Sie ist mit einer mittigen 12-Megapixel-Kamera (122 Grad Weitwinkel) im Steg für eine verbesserte Ich-Perspektive ausgestattet und kann Videos in 3K aufnehmen. Auch Slow-Motion-Videos und Hyperlapse sind möglich.
(Bild: emw)
Außerdem ist die Vanguard wasserfest. Meta sagt, Tiefseetauchen wär zu viel des Guten, im kleinen Pool ist alles möglich (entspricht IP67). Auch Schweiß soll der Brille nichts anhaben können. Die Nasenflügel bekommen bei zunehmender Feuchtigkeit sogar noch mehr Grip. Sie werden in drei Größen mitgeliefert.
Das klassische, sportive Visier gibt es in verschiedenen Farben, ebenso das Gestell. Die rot getönten Gläser können helfen, Objekte besser zu erkennen. Wer nicht Rennrad fährt, sondern etwa Ski oder Snowboard, tut gut an dem weißen Gestell mit goldenem Glas für Kontraste im Schnee.
Vanguard lässt sich mit Garmin und Strava verknüpfen
Die Vanguard lässt sich mit anderen Geräten und Systemen verknüpfen, konkret Garmin und Strava. Diese lassen sich dann auch via Meta AI per Sprache steuern. Man kann also beispielsweise Meta AI fragen, wie es aktuell um den eigenen Puls steht. Wer seine Brille mit Garmin Connect, Apple Health oder Health Connect von Android verbindet, bekommt Aktivitätszusammenfassungen direkt in die Meta-AI-App geschickt.
(Bild: emw)
Sobald die Brille eine Besonderheit feststellt, reagiert sie mit der Aktivierung der Kamera. So bleiben die Hände frei. Sollte man die Knöpfe doch selbst drücken wollen, befinden sich diese nun am unteren Rand der Bügel. Oben stört bisher nämlich der Helm.
Die Vanguard ist deutlich geräuschempfindlicher als ihre Vorgänger und kann zugleich viel mehr Umgebungsgeräusche wegfiltern. Auch bei mehr als 30 Kilometern pro Stunde und Verkehr daneben kann man so noch Musik hören oder mit Mutti telefonieren. Es sind sechs Dezibel mehr Lautstärke als bei der Meta Oakley HSTN möglich.
Insgesamt sind bis zu neun Stunden Batterielaufzeit möglich, sechs Stunden, wenn man durchgängig Musik hört. Das Ladecase reicht für weitere 36 Stunden Akkulaufzeit. 20 Minuten darin reichen für eine zur Hälfte aufgeladene Brille.
Auch wenn sich die Vanguard ganz deutlich an Hobby- und Profisportler richtet, ist das Aussehen potenziell auch was für den Streetstyle.
Transparenzhinweis: Die Autorin wurde von Meta zu einer Preview der Meta Oakley Vanguard eingeladen. Meta hat die Reisekosten übernommen. Vorgaben zur Art und zum Umfang unserer Berichterstattung gab es nicht.
(emw)
Künstliche Intelligenz
Studie: KI-Modell „Delphi-2M“ sagt Krankheitsrisiken voraus
Ein Team von Forschern aus England, Dänemark und der Universität Heidelberg hat ein KI-Modell entwickelt, das Erkrankungsrisiken für mehr als 1000 Krankheiten vorhersagen können soll – und das nicht nur für Einzelpersonen, sondern auch für ganze Bevölkerungsgruppen. Das System namens Delphi-2M (mit zwei Millionen Parametern) basiert auf einer Transformer-Architektur, wie sie auch in großen Sprachmodellen zum Einsatz kommt.
Bisherige Systeme beschränkten sich meist auf einzelne Krankheiten. Delphi-2M dagegen soll simultan Muster über viele Diagnosen hinweg erkennen und sogenannte „health trajectories“ – also individuelle Krankheitsverläufe – prognostizieren. Die Modellierung reicht laut den Forschenden bis zu 20 Jahre in die Zukunft. Veröffentlicht wurden die Ergebnisse in der Fachzeitschrift Nature.
Krankheitstrajektorien von Delphi‑2M, die typische Verläufe einzelner Diagnosen bis zum Tod veranschaulichen sollen.
(Bild: Shmatko et al.)
Trainiert wurde Delphi-2M mit klinischen Daten von 400.000 Patientinnen und Patienten aus der britischen UK Biobank, darunter auch Faktoren wie Body-Mass-Index oder Konsumgewohnheiten. Für die Validierung griff das Team auf ein dänisches Register mit 1,9 Millionen Personen zurück. Erste Tests zeigen: Beim Risiko für Herzinfarkte, bestimmte Tumoren oder Mortalität lieferte das System ähnlich verlässliche Vorhersagen wie spezialisierte Modelle. Delphie‑2M erreicht im Schnitt einen C-Index – mit der Vorhersagemodelle bewertet werden – von ungefähr 0,85 im 5‑Jahres-Zeitraum.
Grenzen hat die Technik dort, wo Krankheitsbilder komplex, unregelmäßig oder selten sind, etwa bei psychischen Störungen oder Schwangerschaftskomplikationen. Das liegt beispielsweise daran, dass es zu seltenen Erkrankungen weniger Trainingsdaten gibt. Hinzu kommt, dass die Trainingsdaten bisher nicht repräsentativ für die Gesamtbevölkerung sind, da die UK Biobank vor allem Daten älterer und britischer Teilnehmender enthält.
„Wir reden hier noch von Zukunftsmusik. Der Weg in die konkrete medizinische Anwendung ist meist länger, als man denkt. Bei allen Potenzialen dürfen wir uns nicht in eine KI-gestützte Glaskugelschau verrennen – auch die besten Modelle erkennen Muster, aber sie sagen keine Zukunft voraus. Für Patienten muss klar sein: solche Prognosen sind keine Schicksalsurteile. Sie können aber Anhaltspunkte für Präventions- oder Therapieentscheidungen geben“, schätzt dazu Prof. Robert Ranisch ein, Juniorprofessor für Medizinische Ethik mit Schwerpunkt auf Digitalisierung von der Universität Potsdam. Wichtig sei zudem, „dass der Einsatz solcher Modelle den Entscheidungsspielraum der Patienten nicht einengt. Ihre Autonomie im Jetzt darf nicht einem Behandlungsregime untergeordnet werden, das allein auf zukünftige Gesundheit ausgerichtet ist. Selbst wo dies nicht geschieht, bliebe doch eine gewisse Nötigung, sich zu prognostizierten Zukünften zu verhalten. Entscheidend bleibt deshalb auch ein Recht auf Nichtwissen.“
Begehrlichkeiten bei Versicherungen oder Arbeitgebern
„Gleichzeitig ist zu befürchten, dass solche KI-Modelle falsche Begehrlichkeiten wecken – etwa bei Versicherungen oder Arbeitgebern, besonders über Deutschland hinaus. Dann geht es weniger darum, ob die Vorhersagen tatsächlich belastbar sind, sondern um die Illusion einer exakten Berechenbarkeit. Diese kann dazu führen, dass Menschen ungerechtfertigt benachteiligt werden. Deshalb müssen wir sehr genau überlegen, wo wir solche Modelle im Gesundheitssystem einsetzen wollen“, gibt Ranisch zu bedenken. Ethik und Recht würden sich „bisher oft an binären Kategorien von gesund oder krank“ orientieren, oft seien in der „digitalen und präventiven Medizin […] Graustufen entscheidend“. Zudem wirft Ranisch weitere Fragen auf, was es bedeute, wenn gesunde Menschen in ein Muster „bald Kranker“ passen, oder wie Gesundheitsinformationen geschützt werden sollen, „wenn plötzlich eine Vielzahl persönlicher Daten für KI-Prognosen relevant“ werden.
„Bei der Frage, wer und wie die Technologie zum Einsatz kommen sollte, ist zwischen zwei Fällen zu unterscheiden: Dem Einsatz, um Entwicklungen im gesamten Gesundheitssystem abzuschätzen, und der Einsatz, um Aussagen über Individuen zu treffen“, erklärt dazu PD Dr. Markus Herrmann, Leiter des Bereichs KI-Ethik am Institut für Medizin- und Datenethik an der Universität Heidelberg. Ersteres wäre vergleichsweise unproblematisch, bei letzterem müsse bedacht werden, dass der Menschen auch ein Recht auf „Nicht-Wissen“ habe – also ein Recht darauf, „sein Leben nicht in Sorge oder gar Angst vor drohender Krankheit zu führen“.
(mack)
Künstliche Intelligenz
AMD bringt den achten Ryzen 5 5600
AMD hat den Sechskern-Prozessor Ryzen 5 5600F in seine CPU-Datenbank aufgenommen. Es ist das inzwischen achte 5600er-Modell für AM4-Mainboards – Pro- und Embedded-Modelle wie der Ryzen 5 5600GE nicht einmal mitgezählt. Bei der F-Version handelt es sich um ein Einstiegsmodell mit den niedrigsten Taktfrequenzen unter allen 5600er-Ryzens: AMD garantiert nur noch einen Basistakt von 3,0 GHz und einen maximalen Boost von 4,0 GHz.
Damit unterbietet der Ryzen 5 5600F das bislang günstigste 5600er-Modell Ryzen 5 5600 (ab 86,90 €) um etwa zehn Prozent. Entsprechend sollte der Neuling noch günstiger in den Handel gelangen und weniger als 80 Euro kosten.
Prozessor | Kerne / Threads | Basistakt / max. Boost | L3-Cache | Grafik |
Ryzen 5 5600F | 6 / 12 | 3,0 / 4,0 GHz | 32 MByte | – |
Ryzen 5 5600 | 6 / 12 | 3,5 / 4,4 GHz | 32 MByte | – |
Ryzen 5 5600X | 6 / 12 | 3,7 / 4,6 GHz | 32 MByte | – |
Ryzen 5 5600T | 6 / 12 | 3,5 / 4,5 GHz | 32 MByte | – |
Ryzen 5 5600XT | 6 / 12 | 3,7 / 4,7 GHz | 32 MByte | – |
Ryzen 5 5600X3D | 6 / 12 | 3,3 / 4,4 GHz | 96 MByte | – |
Ryzen 5 5600G | 6 / 12 | 3,9 / 4,4 GHz | 16 MByte | 448 Shader |
Ryzen 5 5600GT | 6 / 12 | 3,6 / 4,6 GHz | 16 MByte | 448 Shader |
Chiplet-Verwertung
Normalerweise steht das F-Suffix sowohl bei AMD als auch bei Intel für eine fehlende integrierte Grafikeinheit. Im Falle der AM4-Plattform haben allerdings ohnehin schon nur die wenigsten Prozessoren eine GPU. Der einzige Unterschied zum Ryzen 5 5600 liegt daher bei der Taktfrequenz. AMD kann beim F-Modell Compute-Chiplets verwenden, die keine hohe Taktfrequenzen bei einer Thermal Design Power (TDP) von 65 Watt schaffen.
Eine Grafikeinheit haben die G-Typen Ryzen 5 5600G und die leicht beschleunigte Variante Ryzen 5 5600GT. Weil diese vom Mobilchip mit Codenamen Cezanne abstammen, ist ihr Level-3-Cache allerdings nur halb so groß wie bei den GPU-losen Prozessoren. Das verschlechtert die CPU-Performance in latenzkritischen Spielen und Anwendungen.
Bisher ist der Ryzen 5 5600F nicht im deutschen Handel zu finden. Sobald er da ist, kann er sich für Billig-PCs lohnen, wenn er Richtung 60 Euro geht und man günstig DDR4-Speicher bekommt. Die Preise für DDR4-Kits sollen in den nächsten Monaten allerdings weiter steigen – daher ist das Zeitfenster für entsprechende attraktive Systeme klein.
(mma)
-
UX/UI & Webdesignvor 4 Wochen
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 3 Wochen
Adobe Firefly Boards › PAGE online
-
Social Mediavor 4 Wochen
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 4 Wochen
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 Wochen
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
Digital Business & Startupsvor 3 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
UX/UI & Webdesignvor 2 Tagen
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Digital Business & Startupsvor 3 Monaten
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier