Connect with us

Künstliche Intelligenz

Mentra entwickelt ein Open-Source-Betriebssystem für Smart Glasses


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Mentra hat eine Finanzierungsrunde in Höhe von acht Millionen US-Dollar abgeschlossen. Gleichzeitig kündigte das Unternehmen das Betriebssystem MentraOS 2.0 an und für diesen Herbst ein erstes eigenes Smart-Glasses-Modell mit Namen Mentra Live. Mentra Live ist ähnlich wie die Ray-Ban Meta-Brille mit Kamera, Mikrofon und Lautsprechern ausgestattet, richtet sich jedoch primär an Unternehmen und Entwickler. Die Smart Glasses kosten Vorbesteller 250 US-Dollar, die Auslieferung beginnt im Herbst.

Das Betriebssystem MentraOS ist für den ganztägigen Einsatz, KI-Anwendungen und Cloud-native Apps optimiert. Es unterstützt unter anderem Live-Untertitelung, Übersetzung, Benachrichtigungen sowie einen KI-Assistenten. Für Anfang 2026 ist ein weiteres Smart-Glasses-Modell mit integriertem Display geplant, das diese Funktionen voll ausschöpfen soll. Bereits jetzt ist das Betriebssystem mit den Smart Glasses Even Realities G1 und Vuzix Z100 kompatibel.

Mentra wurde 2024 von Cayden Pierce und Alexander Israelov in San Francisco und Shenzhen gegründet. Zu den aktuellen Investoren gehören der Android-Kogründer Rich Miner, der Youtube-Kogründer Jawed Karim und die Venture-Abteilungen von Toyota und Amazon.

Laut Forbes will das Start-up durch gebührenpflichtige Entwicklerkonten und Umsatzbeteiligungen bei App-Verkäufen Geld verdienen, also nach einem Modell, wie es auch Apple mit dem App Store und Google mit dem Play Store praktizieren. Es dürfte jedoch nicht leicht werden, Entwickler und Hardware-Partner für MentraOS zu gewinnen. Nicht zuletzt, weil Google noch in diesem Jahr Entwicklertools für Smart Glasses basierend auf Android XR veröffentlichen wird. Das Unternehmen hatte im Mai bekannt gegeben, gemeinsam mit Samsung an einer Soft- und Hardwareplattform für Smart Glasses von Drittanbietern zu arbeiten.

Meta hat bislang noch keine Entwicklerplattform für seine Smart Glasses vorgestellt, eine Ankündigung könnte jedoch im Herbst erfolgen. Ein Fragezeichen bleibt Apple: Laut einer Prognose des Analysten Ming-Chi Kuo ist mit den ersten Smart Glasses des Unternehmens nicht vor 2027 zu rechnen.


(tobe)



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Künstliche Intelligenz

Jetzt im Heise Shop: Das neue Oxocard Connect Experimentierkit


Wie regelt man einen Motor, wie misst man Gewicht oder Licht, und wie steuert man damit sein Smart Home? Das neue Make Special zur Oxocard Connect liefert auf über 60 Seiten die passenden Antworten – mit leicht verständlichen Anleitungen, praktischen Versuchen und spannenden Projekten rund um das Thema Messen, Steuern und Regeln.

Im Fokus steht das neue Oxocard Connect Experimentierkit, das die Programmierplattform Oxocard Connect (seperat im Shop erhältlich) um zahlreiche Sensoren, Aktoren und Treiber erweitert: Farb- und Lichtsensor, Wägezelle, Touch-Sensor, IR-Kommunikation, smartes Servo und motorisierter Fader sind nur einige Highlights. Alle Module sind als Breakouts ausgeführt und direkt ins Breadboard steckbar.


Blick ins Heft

Gesteuert wird alles direkt im Browser: Über eine webbasierte Programmierumgebung und die leicht zu erlernende Sprache NanoPy lassen sich Sensoren und Motoren intuitiv ansprechen – ohne Installation, plattformunabhängig und ideal für Einsteiger. Perfekt für Schule, Ausbildung, Maker-Projekte oder das eigene Labor!

Ein Highlight-Projekt aus dem neuen Kit zeigt, wie ein motorisierter Fader nicht nur Werte messen, sondern auch aktiv regeln kann: Gesteuert über die Oxocard Connect wird damit eine smarte WLAN-Lampe (z. B. Shelly) per HTTP-Request gedimmt. Das System funktioniert bidirektional – verändert man die Helligkeit per App, fährt der Fader automatisch in die passende Position. Grundlage dafür ist ein PID-Regler, der präzise die gewünschte Zielstellung ansteuert. Das Projekt kombiniert analoges Auslesen, Motorsteuerung, Netzwerkanbindung und smarte Zustandslogik.



Oxocard Connect bringt sie zusammen: Motorfader steuert Shelly-Lampe

Das Bundle aus Heft und Experimentierkit ist ab sofort für 49,90 Euro exklusiv im heise Shop erhältlich – versandkostenfrei innerhalb Deutschlands.


(pan)



Source link

Weiterlesen

Künstliche Intelligenz

Vier spiegellose Kameras von Nikon mit Firmware-Problemen


Wenn man die Firmware einer Nikon Zf, Z50 II, Z6 III oder Z8 aktualisiert, während ein Objektiv eines Fremdherstellers auf der Kamera sitzt, kann dieses funktionslos werden. Im Laufe dieser Woche kamen nach ersten Warnungen über Probleme mit der Z8 immer mehr Hinweise auf Nikons Downloadseiten zu anderen Kameras hinzu. Als bisher letzter auch für die kompakte Zf im Retro-Look. Eine Erklärung des Unternehmens oder eine Ankündigung von korrigierten Firmwareversionen gibt es weiterhin nicht.

Daher gilt bis auf Weiteres, dass man ein Update der Kameras nur vornehmen sollte, wenn ein Nikon-Objektiv montiert ist. Alternativ, so schreibt Nikon auf seinen Downloadseiten, kann auch einer der beiden FTZ-Adapter verwendet werden. Diese dienen dazu, Objektive mit dem F-Bajonett an den spiegellosen Kameras mit deren Z-Bajonett zu verwenden. Die fehlerhafte Firmware samt den Warnhinweisen findet sich unter den folgenden Links, angegeben ist jeweils die aktuelle Versionsnummer und deren Fehlerzustand, wenn sich daran etwas ändert, wird diese Meldung aktualisiert:

Alle diese Kameras sind mit Nikons Expeed-7-Prozessor bestückt, den das Unternehmen mit dem Flaggschiff Z9 eingeführt hatte. Diese Kamera ist von den aktuellen Problemen jedoch nicht betroffen. Das liegt vermutlich daran, dass für die Z9 länger keine neue Firmware erschien.

Aufgefallen sind die Probleme zuerst bei der Nikon Z8, wie unter anderem der Objektivhersteller Tamron berichtet. Für diese Kamera hatte das Unternehmen schon vor Wochen die Firmware 3.00 angekündigt, und auch eine eigene Webseite dafür gestaltet. Wie schon bei früheren Updates für die Z8 bringt auch Version 3.00 neue Funktionen mit, in diesem Fall unter anderem die Kombination von Pixel- und Fokus-Shift für 180-Megapixel-Bilder mit erweiterter Schärfentiefe. Ebenso lässt sich der Bereich des Autofokus begrenzen, was vor allem beim Filmen hilft. Wenn man eine Z8 auf die neue Version aktualisieren will, sollte man die Hinweise zum Update unbedingt beherzigen.

Manche Benutzer berichten in Foren auch, dass ein „eingefrorenes“ Fremdobjektiv an einer Z8 nach einem Downgrade von Firmware 3.00 auf Version 2.10 wieder funktionierte. Auf solche Tipps sollte man sich aber nicht verlassen, weil sie immer nur für eine Kombination aus Kamera und Objektiv gelten.


(nie)



Source link

Weiterlesen

Künstliche Intelligenz

iOS 26: Apples Speech-APIs lassen Whisper in puncto Geschwindigkeit alt aussehen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Apple legt in seinen kommenden Betriebssystem-Versionen bei der Transkription von Live-Audio oder Aufnahmen deutlich zu. In verschiedenen Tests wurde die Leistung jetzt mit gängigen anderen Spracherkennungs-Modellen verglichen. Die Ergebnisse sind allerdings gemischt: Apples neue API, die in iOS 26, iPadOS 26 und macOS 26 Tahoe bereitgestellt wird, steht bei der Geschwindigkeit deutlich besser da als zum Beispiel das verbreitete Whisper-Modell von OpenAI. Allerdings gibt es bei der Genauigkeit noch Luft nach oben.

Das Apple-Nachrichten-Blog MacStories erprobte das verbesserte Speech-Framework mit einer 34-minütigen Videodatei. Zur Transkription wurde für den Test von Apples APIs ein Tool namens Yap verwendet, das auf GitHub abgerufen werden kann. Es erledigte die Aufgabe in nur 45 Sekunden, während das recht beliebte Tool MacWhisper mit seinen Large-Modellen zwischen 1:41 Minuten und 3:55 Minuten benötigte.

Die Nachrichtenseite 9to5Mac ließ Apples API gegen NVIDIA Parakeet antreten, das als sehr schnell gilt, und gegen OpenAI Whisper Large V3 Turbo. Testrechner war ein MacBook Pro mit M2 Pro und 16 GByte Unified Memory. Während Parakeet das 7:31 Minuten lange Audio-File in 2 Sekunden schaffte, benötigte Apples Transkription 9 Sekunden. Das OpenAI-Modell war erst nach 40 Sekunden fertig. Je länger die Audiodatei war, desto weiter lagen die Modelle zeitlich auseinander.

Doch Whispers Langsamkeit zahlte sich wiederum bei der Genauigkeit aus. Dabei wurde zwischen dem Anteil an Zeichenfehlern (Character Error Rate, CER) und Wortfehlern (Word Error Rate, WER) unterschieden. Durchschnittlich erwies sich Whisper Large V3 Turbo mit einer CER von 0,3 Prozent und einer WER von 1 Prozent als die genaueste Lösung. Apple hatte bei den Zeichen eine Fehlerrate von durchschnittlich 3 Prozent und bei Wörtern von 8 Prozent. Parakeet liegt deutlich zurück mit einer CER von 7 Prozent und einer WER von 12 Prozent.

Damit verspricht Apples Transkription im Ergebnis einen deutlichen Geschwindigkeitsvorteil gegenüber Whisper und macht dabei nicht so viele Fehler wie das NVIDIA-Modell. Die Tester kommen zu dem Ergebnis, dass die Wahl des Modells damit vor allem eine Frage des Anwendungszwecks ist. Apples Modell empfiehlt sich für zeitkritische Anwendungen wie Live-Untertitel oder die grobe Transkription längerer Inhalte zur Indexierung. Whisper hat die Nase vorn, wenn nur minimale Nachbearbeitung gewünscht ist oder bei Anwendungen, wo es auf die Genauigkeit ankommt.


(mki)



Source link

Weiterlesen

Beliebt