Connect with us

Apps & Mobile Entwicklung

Smart Glasses im Test – Geniale Technik, großes Problem


Die IFA 2025 zeigt, wie rasant sich Smart Glasses entwickeln. Kameras mit 12 bis 16 MP, KI-Features wie Übersetzung oder AR-Navigation und Akkulaufzeiten von fünf Stunden sind inzwischen Standard. Doch die Unterschiede liegen in Design, Komfort und Detailfunktionen. Wir haben vier der spannendsten Modelle getestet.

Bleequp Ranger: Für Outdoor-Abenteuer

Die Bleequp Ranger ist klar auf Action ausgelegt. Der nur 37 Gramm leichte TR90-Rahmen ist IP54-zertifiziert und damit spritzwassergeschützt. Der dreifach verstellbare Nasensteg sorgt für festen Halt. Allerdings nur bei größeren Köpfen, für kleine Kopfformen sitzt sie locker. Die 16-MP-Kamera liefert Fotos in 4.656 × 3.496 Pixeln und Videos in 1080p/30 FPS. Dank KI-Bildstabilisierung bleiben Aufnahmen auch in Bewegung ruhig. Das Highlight ist die Walkie-Talkie-Funktion, mit der Ihr direkt mit anderen Ranger-Pro-Nutzern sprechen könnt.

Nahaufnahme einer Person mit Sonnenbrille und reflektierenden Gläsern, die einen bunten Hintergrund zeigt.
Bleequp Ranger / © nextpit

Fünf Mikrofone mit Rauschunterdrückung und vier Lautsprecher garantieren klare Kommunikation und kräftigen Sound. Der interne Akku hält rund eine Stunde Video oder acht Stunden Audio. Mit dem 1.600-mAh-Powerpack verlängert sich die Laufzeit auf bis zu fünf Stunden Video oder 40 Stunden Audio. Mit 32 GB Speicher reicht Platz für etwa fünf Stunden Videomaterial. Für Outdoor-Fans und Vlogger ist die Ranger Pro ein starkes Werkzeug – für den Alltag aber zu groß und unflexibel.

TCL RayNeo X3 Pro: Technik top, Komfort flop

Die RayNeo X3 Pro setzt Maßstäbe bei der Display-Technik. Die MicroLEDs mit Full-HD-Auflösung und 2.000 Nits Helligkeit sorgen für gestochen scharfe AR-Inhalte, auch bei Sonnenlicht. Der Snapdragon XR2+ Gen 2 liefert satte Leistung, während 5G und Wi-Fi 7 saubere Datenverbindungen ermöglichen. Sehenswert ist die KI-Navigation, die Eure Umgebung analysiert und Infos wie Wegbeschreibungen direkt ins Sichtfeld projiziert. Auch der Teleprompter-Modus, der Texte fließend einblendet, ist gut geeignet für Präsentationen oder Content-Creator.

Nahaufnahme einer Person, die TCL RayNeo X3 Pro Smart Glasses trägt.
RayNeo X3 Pro / © nextpit

Doch es gibt gravierende Schwächen. Die Brille ist schwer und klobig, die seitlich platzierten Displays zwingen Nutzer zum leichten Schielen. Nach 20 bis 30 Minuten machten sich bei uns Kopfschmerzen bemerkbar. Auch die Bedienung über Touchflächen wirkt unausgereift. Technisch ist die X3 Pro ein beeindruckendes High-End-Gerät, das jedoch noch weit von alltagstauglichem Komfort entfernt ist. Sie richtet sich eher an Entwickler und Tech-Enthusiasten als an den Mainstream.

Rokid Glasses: Leicht und KI-stark

Mit nur 49 Gramm Gewicht gehören die Rokid Glasses zu den leichtesten Modellen. Dank magnetischer Korrekturlinsen eignen sie sich auch für Brillenträger. Die Dual-MicroLED-Displays bieten 480 × 398 Pixel pro Auge und 1.500 Nits Helligkeit, ebenfalls gut sichtbar im Freien. Die 12-MP-Kamera mit Sony IMX681-Sensor und 109°-Weitwinkel liefert detailreiche Fotos und Videos. Besonders stark sind die KI-Features. Unter anderem Live-Übersetzungen, Objekterkennung, Sprachtranskription und sogar ChatGPT-Integration machen die Brille vielseitig einsetzbar.

Nahaufnahme von Rokid-Brillen, die von einer Person getragen werden, mit Fokus auf den Gläsern und dem Rahmen.
Rokid Glasses / © nextpit

Audio läuft über Dual-HD-Richtlautsprecher und ein 4-Mikrofon-Array mit KI-Rauschunterdrückung. Der 210-mAh-Akku wirkt klein, doch das Ladecase bietet zehn zusätzliche Ladungen. Die IPX4-Zertifizierung macht die Brille zudem spritzwassergeschützt. Negativ fallen die relativ geringe Auflösung und das nach außen sichtbare grüne Displaylicht auf. Dennoch ist die Rokid ideal für alle, die eine leichte, smarte Brille mit starker KI suchen.

L’Atitude 52°N: Reisebegleiter mit Stil

Die L’Atitude 52°N kombiniert angesagtes Design mit smarten Funktionen. Drei Modelle, die Berlin, Milan und Antwerp, sehen aus wie Designerbrillen und verbergen die Technik elegant. Die 12-MP-Kamera mit Bildstabilisierung schießt Fotos und 1080p-Videos mit bis zu drei Minuten Länge. Dank 107°-Ultraweitwinkel lassen sich Hoch- und Querformate flexibel aufnehmen.

Ein Paar schwarze Sonnenbrillen mit orangen Gläsern, die auf einer Holzoberfläche neben anderen Sonnenbrillen liegen.
L’Atitude 52°N Berlin Glasses / © nextpit

Für Reisende sind vor allem die Live-Übersetzungen in fünf Sprachen und die Goya-AI-Tour-Guide-Funktion interessant. Sie erkennt Sehenswürdigkeiten und erklärt diese auf Wunsch per Sprachbefehl oder Doppeltippen. Im Test saß die Brille angenehm, allerdings waren auf der Messe nur Prototypen verfügbar. Schwächen zeigten sich bei der Passform für kleine Köpfe. Die L’Atitude richtet sich klar an Vielreisende, die smarte Funktionen wollen, ohne auf Stil zu verzichten. Ein spannender Ansatz, mit noch unausgereiften Details.

Fazit: Starke Technik, schwache Passform

Die IFA 2025 hat klar gezeigt. Smart Glasses sind technisch, im Vergleich zu den letzten Jahren, auf einem hohen Niveau angekommen. 12-MP-Kameras, KI-gestützte Übersetzungen, AR-Navigation und Akkulaufzeiten zwischen vier und sechs Stunden gehören inzwischen zur Grundausstattung und liefern ein solides Fundament für AR-Anwendungen. Die Unterschiede zwischen den Herstellern liegen inzwischen in den Spezialfeatures. Bleequp setzt auf eine integrierte Walkie-Talkie-Funktion, TCL kombiniert starke KI-Navigation, Rokid bietet eine besonders leichte Bauweise mit ChatGPT-Integration und Unifly punktet mit per Touch dimmbaren Gläsern.

Das größte Problem bleibt jedoch die Ergonomie. Kein Hersteller konnte ein Modell liefern, das auch auf kleinen oder durchschnittlichen Köpfen richtig sitzt. Für ein Consumer-Produkt ist das ein K.-o.-Kriterium. Eine noch so ausgereifte Hardware bringt wenig, wenn die Brille nach kurzer Zeit drückt, rutscht oder schlichtweg nicht getragen werden kann. Genau hier droht die gesamte Produktkategorie in der Early-Adopter-Nische stecken zu bleiben.

Wenn Ihr experimentierfreudig seid, könnt Ihr jetzt schon spannende Konzepte wie die Bleequp Ranger oder die L’Atitude 52°N ausprobieren. Für den breiten Markt empfehlen wir jedoch, eine oder zwei Generationen abzuwarten. Erst wenn die Hersteller Tragekomfort, Display-Positionierung und Gewicht in den Griff bekommen, können Smart Glasses ihr volles Potenzial entfalten.



Source link

Apps & Mobile Entwicklung

Darum halluziniert ChatGPT – und wird nie ganz damit aufhören



Nicht nur ChatGPT halluziniert, das steht mal fest. Vielmehr sind wir es von allen KI-Plattformen gewohnt, dass sie uns da gelegentlich glatte Lügen auftischen. OpenAI hat sich dazu jetzt erklärt und verrät uns, wieso das so ist.  Was OpenAI ebenfalls sagt: Das mit dem Halluzinieren werden wir vermutlich niemals so ganz los!

Warum Sprachmodelle halluzinieren

„Why language models hallucinate“ heißt ein Beitrag auf dem OpenAI-Blog. Dort lässt sich das Unternehmen in die Karten blicken und erklärt genau das – also wie es dazu kommt, dass Sprachmodelle wie Gemini, Grok oder eben auch ChatGPT halluzinieren. Wer nicht im Thema ist: Mit „Halluzinieren“ ist gemeint, dass das Sprachmodell die richtige Antwort nicht kennt und nicht nennt, sondern sich stattdessen sehr souverän eine alternative, aber faktisch leider komplett falsche Antwort ausdenkt. 

Tatsächlich ist die Antwort auf die Frage, wieso die LLMs (Large Language Models) halluzinieren, sogar erschreckend einfach: Weil sie es so beigebracht bekommen! Beim Training werden die LLMs so geschult, dass sie eben lieber eine beliebige Antwort geben, als stumpf den Mund zu halten. 

OpenAI betont, dass Halluzinationen kein bloßer Bug sind – sondern eine systemische Folge von Sprachmodellen, die auf Wahrscheinlichkeiten trainiert und bewertet werden. Weil sie dafür optimiert sind, möglichst präzise Antworten zu geben, werden diese präzisen Antworten – selbst wenn sie falsch sind – belohnt. Das ist in der Konsequenz für ein so trainiertes Modell die deutlich richtigere Antwort als ein „Ich weiß es nicht“.

Ein Beispiel, wieso Halluzinieren für eine KI richtig ist

Stellt Euch eine Klassenarbeit vor, für die Ihr nicht gelernt habt. Ihr sollt bei einer Aufgabe etwas ins Feld schreiben, habt aber keinen blassen Schimmer, wie die Antwort lautet. Schreibt Ihr nichts hinein, sind es null Punkte für die Aufgabe. Schreibt Ihr stattdessen irgendetwas hinein, was Euch schlüssig erscheint, habt Ihr zwei Chancen: 

  • Entweder ist das Geschriebene einfach zufällig richtig, dann gibt es die volle Punktzahl. 
  • Oder Ihr ratet falsch, habt aber vielleicht einen Teilaspekt richtig, der immerhin mit einer geringeren Punktzahl geahndet wird.

Im allerschlimmsten Fall schreibt Ihr kompletten Quatsch, aber auch das wäre nicht schlimmer, als das Feld leer zu lassen. Genau so arbeitet auch eine KI: Sie wägt Wahrscheinlichkeiten ab und sagt lieber etwas theoretisch Mögliches als zu erklären, dass sie absolut keine Ahnung hat. 

Eine Mitschuld tragen also auch die Benchmark-Tests, für die KI-Modelle ebenfalls optimiert werden, und die ähnlich funktionieren wie in dem genannten Beispiel. Somit werden die LLMs durch diese falschen Anreize zum Raten verleitet, was dann zu den Halluzinationen führt. 

Und was kann man gegen das Halluzinieren unternehmen?

Die Wissenschaftler:innen, die an dieser Studie beteiligt waren, sind sich einig, dass man das Halluzinieren nie zu 100 Prozent verhindern kann. Aber zumindest gibt es Ideen, wie man das Risiko minimieren kann. Dazu müssten beim Training lediglich falsche Antworten auch tatsächlich negativ bewertet werden. Nicht beantwortete Fragen sollen hingegen auch Teilpunkte erhalten können.

Bei OpenAI heißt es dazu: „Es gibt eine einfache Lösung: Bestrafen Sie selbstbewusste Fehler stärker als Unsicherheit und vergeben Sie Teilpunkte für angemessene Begründungen dieser Unsicherheit“. So soll das blinde Raten verhindert werden, indem man die KI eben auch dafür belohnt, wenn sie lieber keine als eine falsche Antwort äußert. Dazu braucht es aber auch ganz neue Tests und Testmethoden – und bis die etabliert sind, wird sicher noch Zeit vergehen.

Was bedeutet das für uns? Dass wir weiterhin haargenau aufpassen müssen, was uns ChatGPT oder ein anderes KI-Modell vorsetzt. Das ist übrigens generell eine gute Idee, bevor man sich blind den Antworten ausliefert, die eine KI oder wer auch immer einem auftischt. 



Source link

Weiterlesen

Apps & Mobile Entwicklung

Samsung One UI 8: Beta 2 für das Galaxy Z Fold 5 und Flip 5 ver­öf­fent­licht


Samsung One UI 8: Beta 2 für das Galaxy Z Fold 5 und Flip 5 ver­öf­fent­licht

Samsung hat die zweite Beta-Version der Benutzeroberfläche One UI 8 auf Basis von Android 16 für das Galaxy Z Fold 5 und das Galaxy Z Flip 5 (Test) veröffentlicht. Die Aktualisierung enthält ausschließlich Korrekturen und bringt keine neuen Funktionen mit sich, soll aber verschiedene Probleme der ersten Beta-Version beheben.

Das Update mit der Versionsnummer ZYI6 soll den Release Notes nach unter anderem einen schwerwiegenden Fehler beseitigen, bei dem sich das Smartphone während der Nutzung zurücksetzte. Zudem sollen die DeX-Einstellungen nun erhalten bleiben, wenn von einer früheren OS-Version auf One UI 8 aktualisiert wird. Auch die Wetteranzeige auf der Galaxy Watch 7 soll sich nach dem Update wieder in Echtzeit aktualisieren. Darüber hinaus sollen sich Multi-Fenster beim Einsatz des KakaoTalk-Chats nicht mehr schließen, wenn parallel die Kamera genutzt wird.

Derzeit wird das Update in Südkorea verteilt, weitere Regionen dürften erfahrungsgemäß in Kürze folgen. Nutzer können die zweite Beta-Version über die Softwareaktualisierung in den Einstellungen anstoßen.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Core i5-110: Intel verpasst 5 Jahre altem i5-10400 einen neuen Namen


Core i5-110: Intel verpasst 5 Jahre altem i5-10400 einen neuen Namen

Intel hat eine neue CPU ins Programm aufgenommen, deren Bezeichnung mit allen aktuellen Konventionen bricht – und deren Basis bereits seit fünf Jahren auf dem Markt ist: den Core i5-110. Er entspricht 1:1 dem Intel Core i5-10400, trägt sogar dieselbe Device ID (0x9BC8) wie dessen native 6-Kern-Die-Variante (G1-Stepping).

Aus Core i5-10400 wird Core i5-110

Zur Erinnerung: Den Intel Core i5-10400(F) (Test) gab es im Jahr 2020 sowohl mit einem nativen 6-Kern-Die (G1-Stepping, 0x9BC8) als auch als Cutdown des größeren 10-Kern-Chips (Q0-Stepping, 0x9BC5). Für den neuen Core i5-110 nutzt Intel den kleinen Die.

Nun ist der Verkauf einer älteren CPU unter neuem Namen keine Seltenheit in der Branche. Wie alt die Basis schon ist und welchen Namen sie in Zukunft trägt, ist aber schon bemerkenswert. Denn „Core i“ war eigentlich tot.

Direktvergleich des Core i5-10400 zu Core i5-110

Intel lässt das „i“ stehen

Selbst Prozessoren, die ursprünglich noch als Core-i-Prozessor auf den Markt gekommen waren, hatte Intel zuletzt in die neue Nomenklatur (Core Ultra/Core) überführt: Raptor Lake-U und Raptor Lake-H (13 und 14. Gen Core i) firmieren inzwischen als Core 100 oder Core 200 unterhalb der neuen Architekturen in den Serien Core Ultra 100 und Core Ultra 200.

Mit dem Core i5-110 steckt Intel jetzt eine Comet-Lake-CPU (14 nm) für Desktop-PCs (LGA 1200) in die „Intel® Core™ processors (Series 1)“, die bisher nur CPUs für Mobile- und Embedded-Workloads bot – und lässt das „i“ im Namen stehen. Die Übersicht zur Serie führt diesen Prozessor dann allerdings auch gar nicht.

Intels neue CPU-Architekturen (Core und Core Ultra) im Vergleich



Source link

Weiterlesen

Beliebt