Künstliche Intelligenz
Nie mehr öde Meetings: Zucks Display-Brille hat Potenzial
Natürlich funktioniert erstmal etwas nicht. Klar. Weniger klar ist, ob es eine geschickt-charmante Art ist, das Publikum zum Lachen zu bringen, oder ob wirklich Probleme auftreten. Der früher als roboterhaft verrufene Mark Zuckerberg hat das Spiel mit dem Publikum inzwischen sehr gut drauf – auch bei der Connect 24 lief zum Vergnügen der Zuschauer nicht alles rund.
In diesem Jahr trifft es zuerst einen Kollegen, der mit dem neuen KI-Assistenten Live AI eine Soße für sein Sandwich zusammenstellen soll. Live AI sieht und hört per Brille alles, nimmt dazu Informationen des Trägers entgegen und kann zugleich das Internet durchforsten. Doch die KI streikt – oder das WLAN.

Das Display zeigt einen Tomatensalat.
(Bild: Meta)
Und auch Zuck kann einen Anruf mit der neuen Display-Brille nicht über das dazugehörige Armband annehmen. Absicht oder nicht, die Scherze darüber funktionieren. Zucks Lässigkeit ist glaubhaft. Seine Brillen und die Verkaufszahlen geben ihm womöglich recht, dieses Mal nicht auf das falsche Pferd gesetzt zu haben, wie in den Augen vieler mit dem Metaverse. Und sie geben ihm offenbar Sicherheit.
Das neue POV der Meta Ray-Ban Display
Zu Beginn seiner Keynote in der Nacht zum Donnerstag wird Zuck, wie er sich nennt, in einem Video gezeigt. Eine Live-Aufnahme. Er solle nun auf die Bühne kommen, ruft jemand. Zuck setzt seine neue „Meta Ray-Ban Display“ auf, die Perspektive wechselt zu seiner Brillenkamera. POV – das steht für Point of View und wird mittlerweile für eigentlich alles genutzt, was man aus seiner eigenen Sicht zu sagen hat.

Eva-Maria Weiß ist Journalistin für Social Media, Browser, Messenger und allerlei Anwendungen im Internet. Seit ChatGPT ist KI in den Vordergrund gerückt.
POV wählt Zuck bei Spotify die passende Musik und geht los. Auf dem Weg zur Bühne schaut er noch den Gruppenchat mit den Kollegen an – samt Fotos, auch Videos sind möglich. Alles ist auf dem Display der neuen Brille zu sehen. Dieses Display ähnelt dabei einem HUD – etwa der Anzeige der Geschwindigkeit im Auto. Nur, dass es einfach viel mehr kann und viel besser ausschaut. „Realistische Hologramme“, sagt Zuck dazu. Ein High-Resolution-Display steckt dahinter, 600 × 600 Pixel. Nutzbar bei Tag und Nacht, mit Transitions-Brillengläsern, absolut unsichtbar für Mitmenschen.
Natürlich funktioniert die Brille grundsätzlich nur mittels einer Verbindung zum Smartphone und dort konkret der Meta AI App. Doch Zuck drückt noch kurz vor der Bühne demonstrativ einer Kollegin sein Smartphone in die Hand. Smarte Brillen sollen in seiner Zukunftsvision das Smartphone ablösen, er spricht schon seit Langem von einer neuen Gerätekategorie. Zu der Hoffnung gehört auch, dass Meta damit unabhängiger von anderen Hardware-Herstellern wird. Bisher müssen sie schließlich Apps für Apples und Googles Geräte anbieten – was im Fall von Apple auch schon zu Streit um Abgaben und Datenabfluss führte.
KI macht smarte Brillen erst wirklich möglich
Nun ist die Brille mit Display also da. Die hatten alle vorab erwartet. Möglich ist Zuckerbergs Vision von smarten Brillen dank Künstlicher Intelligenz (K). Erst Large Language Models haben möglich gemacht, dass man ein Gerät über die Sprache steuern kann. Hinzu kommt bei Meta nun ein Armband, das „Neural Band“. Kleine Muskelbewegungen wie ein Tippen (Pinch) von Zeigefinger und Daumen reichen aus, und das Armband sendet Signale, um etwa einen Dienst auszuwählen, Musik zu starten oder eine Nachricht zu lesen. Alles absolut unauffällig.

Zuckerberg dreht einen imaginären Lautstärkeregler.
(Bild: Screenshot/Facebook)
Tatsächlich gehört es zu den eher unangenehmen Momenten, wenn man mit einer „Ray-Ban Meta“ mitten in der Menschenmenge spricht, um beispielsweise zu erfahren, vor was für einem Gebäude man steht. Den Tipp auf den Bügel zur Steuerung kennt man schon vom Vorgängermodell. Das Armband hat den Vorteil, besonders unauffällig zu sein.
Die Unauffälligkeit sorgt dann auch für einen Zwiespalt – wir erinnern uns an die Google Glass und die Kampagne gegen „Glassholes“. Zuckerberg sagt, das Smartphone habe uns von der Umgebung getrennt. Die Brille mache es in seinen Augen besser, indem wir mit der Umwelt verbunden bleiben. Doch die Umwelt könnte auch ein Gesprächspartner am Esstisch sein, der nicht mitbekommt, dass wir gerade in der Brille Nachrichten von anderen Leuten lesen. Seien wir ehrlich: Es gibt genug Veranstaltungen, bei denen sich jeder mal unauffällige Ablenkung gewünscht hat, aber es kann auch unpassend sein.
800 US-Dollar für viel Spielerei
Die Brille soll schlanke 799 US-Dollar kosten. Der Verkaufsstart für Deutschland ist noch unbekannt. Es werden wohl regulatorische Gründe sein. Seltsam, dass die Ray-Ban Meta Display aber kommendes Jahr schon nach Frankreich und Italien kommen soll. Man darf also Hoffnung haben, dass Deutschland bis dahin auch noch auf der Liste steht. Meta kann dazu bisher keine Auskunft geben.
Ob die Brille bei dem Preis ein Verkaufsschlager wird, wie die klassische Ray-Ban Meta (RBM) es bereits ist? Das ist doch ein bisschen zu bezweifeln. Es wird aber sicherlich einige Menschen geben, die ausreichend gerne spielen und dabei sind, um das Geld auszugeben. Oder es gibt genug Menschen, die in vielen langweiligen Meetings und Veranstaltungen sitzen, für die sie Ablenkung brauchen.
Anders dürfte es dafür bei den beiden weniger prominent gezeigten Brillen sein. Die RBM ist bereits ein Klassiker, sie wird auch weiterhin Absatz finden. Die Oakley Meta HSTN hat ebenfalls genug Stylefaktor und denselben Funktionsumfang. Zuckerberg betont immer wieder, wie wichtig das Aussehen ist und da mag er absolut recht haben. Niemand will mit einem Klotz im Gesicht herumlaufen. Meta tut gut an der Partnerschaft mit EssilorLuxottica, dem Unternehmen hinter Ray-Ban, Oakley und so ziemlich jeder bekannten Brillenmarke.
Die Oakley Meta Vanguard ist für Sportler, die ohnehin ein teures Hobby haben oder ohnehin Profis sind, garantiert ausgesprochen reizvoll. Kein Rennradfahrer ohne Brille, warum also dann nicht gleich eine mit deutlich mehr hilfreichen Funktionen.
Aber: Meta warnt vor der Keynote, es ginge um die Zukunft – und die könne sich anders gestalten, als man denkt.
(emw)
Künstliche Intelligenz
Jetzt patchen! Angreifer schieben Schadcode auf WatchGuard Firebox
Aufgrund von zurzeit laufenden Attacken sollten Admins ihre Firebox-Firewalls von WatchGuard auf den aktuellen Stand bringen. Angreifer führen Schadcode aus.
Weiterlesen nach der Anzeige
Hintergründe
In einer Warnmeldung führen die Entwickler aus, dass von der „kritischen“ Sicherheitslücke (CVE-2025-14733) in Fireware OS folgende Konfigurationen betroffen sind: Mobile User VPN mit IKEv2 und Branch Office VPN mit IKEv2, wenn es mit einem dynamischen Gateway-Peer konfiguriert ist.
Ist das gegeben, sind Attacken aus der Ferne und ohne Authentifizierung möglich. Setzen Angreifer erfolgreich an der Lücke an, kommt es zu Speicherfehlern (Out-of-bounds) und es gelangt Schadcode auf Systeme.
In welchem Umfang und wie genau solche Attacken ablaufen, ist derzeit nicht bekannt. Unklar ist auch, was Angreifer konkret anstellen. Aufgrund der kritischen Einstufung ist aber davon auszugehen, dass Angreifer Geräte nach der Ausführung von Schadcode vollständig kompromittieren.
Damit Admins bereits attackierte Instanzen erkennen können, listet WatchGuard diverse Parameter (Indicator of Compromise, IoC) wie IP-Adressen in der Warnmeldung auf. Es gibt aber auch bestimmte Hinweise in Logdateien. Außerdem kommt es nach erfolgreichen Angriffen zu Fehlern bei VPN-Verbindungen.
Gegenmaßnahmen
Weiterlesen nach der Anzeige
Um Firewalls und Netzwerke zu schützen, müssen Admins zügig Fireware OS 12.3.1_Update4 (B728352), 12.5.15, 12.11.6 oder 2025.1.4 installieren. Für den Versionsstrang 11.x ist der Support ausgelaufen und es gibt keine Sicherheitspatches mehr. An dieser Stelle ist ein Upgrade nötig.
Können Admins die abgesicherten Ausgaben nicht direkt installieren, müssen sie Geräte temporär über einen Workaround absichern.
(des)
Künstliche Intelligenz
Wie Sie automatisierte Reports mit KI-Agenten erstellen
Generative KI (GenAI) und agentische Ansätze haben in den vergangenen zwei Jahren einen riesigen Sprung gemacht. Sprachmodelle wie GPT-4o, Claude und Gemini können heute mehr als nur Text generieren: Sie orchestrieren Workflows, rufen Werkzeuge auf, interagieren mit Datenbanken und schreiben Berichte. Das rückt Reporting als einen viel genutzten Anwendungsfall ins Rampenlicht. Es sammelt Daten aus internen und externen Quellen, führt Analysen durch, erzeugt visuelle Darstellungen und verteilt sie per Chatbot oder E-Mail – ohne jede Aktion hart zu codieren.
Während klassische Automatisierung definierte Schritte in fester Reihenfolge ausführt, sind Agenten Systeme, die Aufgaben im Auftrag von Nutzern selbstständig erledigen. Laut OpenAI (PDF) führen Agenten eine LLM-gesteuerte Logik aus, entscheiden, wann ein Workflow abgeschlossen ist, und geben bei Fehlern die Kontrolle an den Nutzer zurück. Agenten können verschiedene Werkzeuge nutzen und wählen sie dynamisch aus, um Kontext zu sammeln und Aktionen auszuführen. Sie eignen sich vor allem für komplexe Entscheidungsprozesse, schwer wartbare Regelsysteme und Aufgaben mit unstrukturierten Daten.
- KI-Agenten bieten die Chance, Berichte schnell, präzise und individuell zu erstellen.
- Sie verwenden Tools und Datenbanken, die sich über das Model Context Protocol (MCP) bereitstellen lassen.
- Bei komplexen Reports ist es sinnvoll, mehrere spezialisierte Agenten zusammenarbeiten zu lassen.
- Vorsicht ist beim Zugriff auf Datenbanktabellen geboten; er sollte über Whitelists und Auditlogs gesichert sein. Ansonsten droht ein Dataset Creep, bei dem Agenten auf Daten zugreifen, die sie nicht nutzen dürfen.
Ein Agent besitzt drei Kernkomponenten: ein Modell, also das LLM für Reasoning und Planung, Tools für externe Funktionen wie Datenbanken oder APIs, und Instruktionen mit Prompts und Guardrails, die das Verhalten steuern. Viele aktuelle Frameworks erweitern das um einen vierten Baustein – Memory. Hier speichert der Agent Kontext, Dokumente oder Nutzerinformationen, um über mehrere Abfragen hinweg konsistent zu bleiben.
Das war die Leseprobe unseres heise-Plus-Artikels „Wie Sie automatisierte Reports mit KI-Agenten erstellen“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Web-Suche für die lokale KI: So schließen Ihre LLMs Wissenslücken
Zu den größten Stärken lokaler KIs zählt der Datenschutz. Nutzer können sich ungestört mit ihren LLMs unterhalten, ohne dass ein Dritter Gespräche mitliest, speichert und für eigene Zwecke auswertet. Ein wesentlicher Nachteil der lokalen LLMs aber ist der statische Wissensstichtag: Er ist auf den Zeitpunkt des Trainings beschränkt; Informationen, die danach entstanden sind, bleiben ohne externe Hilfe verborgen. Bei vielen Modellen liegt dieser Stichtag mehr als ein Jahr zurück. Ein Anfang 2025 trainiertes lokales LLM kann nicht wissen, wer beispielsweise im Oktober 2025 den Physiknobelpreis erhalten hat.
Web-Suchfunktionen schließen diese Lücke. Lokale KI-Modelle lassen sich relativ unkompliziert mit der Fähigkeit zur Internet-Recherche ausstatten: völlig kostenlos und komplett auf dem eigenen System gehostet. Wir haben das in einem lokalen Setup eingerichtet und ausprobiert. Der Einrichtungsaufwand liegt nur bei einer guten Stunde und bedient sich ausschließlich frei nutzbarer, quelloffener Software.
- Mit der Fähigkeit zur Web-Suche holen Nutzer ihre lokalen LLMs aus der eigenen Trainings-Bubble. So liefern die Modelle auch Informationen zu aktuellen Ereignissen.
- Die browserbasierte Software Open WebUI bietet einen komfortablen Weg, die lokalen Sprachmodelle mit dem Werkzeug einer Online-Recherche zu verknüpfen.
- Der Artikel erläutert Schritt für Schritt den vollständigen Weg zur Einrichtung der Web-Suche für lokale KIs unter Windows 11.
Der Artikel erklärt, wie Sie eine Web-Suchfunktion für Ihre lokalen KI-Modelle unter Windows 11 einrichten. Voraussetzung dafür ist eine Ollama-Installation. Der Text erläutert Schritt für Schritt die Einrichtung von Open WebUI unter Docker und einer geeigneten Suchmaschine für hohen Datenschutz. Fertig eingerichtet durchpflügt das KI-System das Internet nach aktuellen Informationen, liest Web-Inhalte aus und liefert die passenden Quellen zum Nachlesen.
Das war die Leseprobe unseres heise-Plus-Artikels „Web-Suche für die lokale KI: So schließen Ihre LLMs Wissenslücken“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Künstliche Intelligenzvor 2 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Entwicklung & Codevor 1 MonatKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 2 MonatenNeue PC-Spiele im November 2025: „Anno 117: Pax Romana“
-
Künstliche Intelligenzvor 2 MonatenDonnerstag: Deutsches Flugtaxi-Start-up am Ende, KI-Rechenzentren mit ARM-Chips
-
UX/UI & Webdesignvor 2 MonatenArndt Benedikt rebranded GreatVita › PAGE online
