Künstliche Intelligenz
Smart Glasses & VR-Brillen: Die 3 wichtigsten Trends im Jahr 2026
Weiterlesen nach der Anzeige
Die Ray-Ban Meta-Brillen haben einen neuen Hype um Smart Glasses ausgelöst. Während Google und Apple unter Hochdruck an Gegenentwürfen arbeiten, geht VR-Hardware ans Reißbrett zurück, um mit einer neuen Architektur wieder Fahrt aufzunehmen. Mit welchen Entwicklungen kann man 2026 rechnen?
Smart Glasses werden vielfältiger – und fluten den Markt
Im vergangenen Jahr drängten zahlreiche Smart Glasses kleiner und großer Hersteller auf den Markt, und 2026 wird sich diese Entwicklung weiter beschleunigen.
Zwölf Jahre nach dem missglückten Google-Glass-Experiment wagt Google einen Neustart und hat für dieses Jahr KI-Brillen mit und ohne Display angekündigt. Als Betriebssystem kommt Android XR zum Einsatz, das den KI-Assistenten Gemini in den Mittelpunkt rückt.
Eine neue Produktkategorie, die Elemente von Smart Glasses und Mixed-Reality-Headsets verbindet, ist „Project Aura“. Das Gemeinschaftsprojekt von Google und dem Displaybrillen-Hersteller Xreal übernimmt zentrale Funktionen des Android-XR-Headsets Samsung Galaxy XR und schrumpft den Formfaktor auf leichte Smart Glasses mit semitransparenter Optik und einem diagonalen Sichtfeld von rund 70 Grad. Die Miniaturisierung wird durch das Auslagern von Recheneinheit und Akku in einen kabelgebundenen Taschencomputer erreicht.

Project Aura wirkt äußerlich wie eine einfache Display-Brille, basiert jedoch auf Android XR und ist beim Funktionsumfang sowie bei der Leistung mit Samsung Galaxy XR vergleichbar.
(Bild: Xreal)
Auch Apple verfolgt Pläne im Smart-Glasses-Segment. Laut Bloomberg will der Konzern noch in diesem Jahr ein erstes Modell vorstellen, das mit dem iPhone gekoppelt wird und kein eigenes Display besitzt. Der Marktstart ist jedoch erst für 2027 vorgesehen.
Weiterlesen nach der Anzeige
Spannend wird, wie Google und Apple die Smart Glasses in die eigenen Ökosysteme integrieren und mit Smartphones und Smartwatches verzahnen. Darin liegt ein entscheidender Plattformvorteil gegenüber anderen Herstellern und dem Marktführer Meta, der sich nicht auf seinem bisherigen Erfolg ausruhen und sein stetig wachsendes Smart-Glasses-Portfolio in diesem Jahr weiter ausbauen wird.
Auch Snap wird in diesem Jahr mitmischen und hat eine vollintegrierte AR-Brille für Konsumenten angekündigt, die gegenüber dem aktuellen Entwicklermodell deutlich leichter und kompakter ausfallen soll. Gelingt das Kunststück, wäre Snap das erste Unternehmen, das eine vollwertige AR-Brille mit alltagstauglichen Formfaktor am Markt positioniert.
Neben diesen Produkten ist 2026 mit einer Flut von Geräten kleinerer Hersteller und Start-ups zu rechnen. Mit wachsender Menge und Vielfalt wird das Angebot an Smart Glasses noch unübersichtlicher als bisher. Da sich die Geräte bei Formfaktor, Technik, Eingabemethoden und Software teils deutlich unterscheiden, wird der Sammelbegriff „Smart Glasses“ weiter ausfransen und nur noch begrenzt Orientierung bieten.
Gleichzeitig wird die Nachfrage kaum mit dem schnell wachsenden Angebot Schritt halten können, sodass der Optimismus der Branche in diesem Jahr kippen könnte.
Vom Headset zur Brille: VR-Geräte mit neuem Formfaktor
Bereits im vergangenen Jahr rückten Smart Glasses stärker in den Fokus der Branche, während Virtual Reality an Sichtbarkeit einbüßte. Mit der wachsenden Präsenz von Smart Glasses in diesem Jahr wird sich diese Verschiebung fortsetzen, zumal für 2026 auch nur wenige VR-Headsets angekündigt sind. Von allen neuen Geräten dürfte allein Steam Frame größere Aufmerksamkeit auf sich ziehen, aufgrund der kleinen Zielgruppe und eines voraussichtlich höheren Preisniveaus jedoch nur eine begrenzte Marktwirkung entfalten.
Spannend bleibt das Jahr dennoch, weil sich ein neuer Hardware-Trend abzeichnet: Durch das Auslagern von Recheneinheit und Akku in einen kabelgebundenen Taschencomputer nähern sich Formfaktor und Gewicht dem einer Sonnenbrille statt eines Headsets.

Ein Teil der VR-Hardware dürfte ab 2026 einen deutlich schlankeren, brillenähnlichen Formfaktor annehmen. Kabel und Taschencomputer sind nicht abgebildet.
(Bild: VR Tuoluo)
Das erste Produkt dieser Art könnte von Pico kommen und auch Meta entwickelt ein entsprechendes Produkt, das angeblich auf 2027 verschoben wurde. Wie erstaunlich leicht und kompakt solche Geräte ausfallen könnten, zeigt ein chinesischer Prototyp, der auf diese Split-Architektur setzt (siehe Bild oben). Google und Xreal verfolgen mit Project Aura ein ähnliches Vorhaben, setzen dabei jedoch auf ein semitransparentes Display und Birdbath-Optik. Ein Ansatz, der die bislang klare Trennung zwischen VR-Geräten und Smart Glasses aufweichen könnte.
Die Größe und das Gewicht von VR-Headsets haben eine breitere Akzeptanz von Virtual Reality gehemmt. Hersteller hoffen daher, dass deutlich schlankere Geräte auf größere Resonanz stoßen. 2026 werden erste VR-Geräte mit Split-Architektur erscheinen und zeigen, ob diese Hoffnung berechtigt ist.
KI und Gaussian Splatting werden wichtiger denn je
Für 2026 zeichnet sich eine breite Palette an Smart Glasses ab. Wie erfolgreich sie im Einzelnen sein werden, wird weniger von der technischen Ausstattung abhängen als davon, wie nahtlos sie in bestehende Hardware-Ökosysteme integriert sind und wie nützlich die KI im Alltag tatsächlich ist.
Bei den Ray-Ban-Meta-Brillen bietet KI bislang nur einen begrenzten Mehrwert. Die zentrale Frage ist daher, welche neuen KI-Funktionen Meta, Google und andere Hersteller entwickeln. Der langfristige Trend geht in Richtung einer personalisierten, proaktiven und permanent aktiven KI, die Nutzer sehend und hörend durch den Alltag begleitet und Anliegen situativ antizipiert. Wobei abzuwarten bleibt, wie die dafür erforderliche Umgebungserfassung von der Gesellschaft aufgenommen wird und ob sie auf ähnlichen Widerstand stößt wie seinerzeit Google Glass. Klar ist, dass KI für Smart Glasses so selbstverständlich werden wird, dass der Sammelbegriff „KI-Brille“ an Aussagekraft einbüßen wird.
Auch im VR-Bereich gewinnt KI weiter an Bedeutung. Dass KI Bilder, Filme und sogar Spiele in 3D-Erlebnisse mit stereoskopischer Tiefenwirkung verwandelt, wird 2026 zunehmend zum Standard. Google hat eine entsprechende Funktion für Android XR in Aussicht gestellt und die bald erscheinende Display-Brille Xreal 1S soll die 3D-Konvertierung ebenfalls unterstützen.
Noch weiter geht eine KI-Technik, die aus Bildern räumliche Szenen erzeugt und Perspektivwechsel erlaubt. Apple hat eine entsprechende Funktion vor Kurzem für die Apple Vision Pro eingeführt und man darf erwarten, dass sie im Laufe des Jahres auf Geräten anderer Hersteller Verbreitung findet.
Davon ausgehend liegt der nächste große Entwicklungsschritt in generativen KI-Systemen, die aus Textprompts, Bildern oder Videos frei erkundbare Räume erzeugen. Weltmodelle wie Marble und Google Genie 3 geben einen Eindruck davon, welche Möglichkeiten hier entstehen. Im VR-Kontext könnten solche Weltmodelle zu einer Holodeck-Maschine heranreifen: Man beschreibt einen Ort und findet sich Augenblicke später in ihm wieder. Auf diese Weise ließen sich auch Erinnerungen, klassische Kunstwerke oder Filmschauplätze betreten und neu erleben. 2026 werden diese Werkzeuge an Kontur gewinnen und zugänglicher werden.

Mit „Meta Hyperscape“ lassen sich reale Orte originalgetreu digitalisieren. Hier besucht der Autor den Heise-Redakteur Jan Wöbbeking (als VR-Avatar zu sehen) in einer Hyperscape-Version seiner Wohnung.
(Bild: Tomislav Bezmalinović / heise medien)
Eine andere Technologie, die VR in diesem Jahr Jahr prägen wird, ist Gaussian Splatting. Während generative KI die Kreierung virtueller Welten beschleunigen wird, hat Gaussian Splatting eine vergleichbare Rolle bei der Digitalisierung der realen Welt für Virtual Reality. So ist es seit Kurzem ohne Fachwissen und spezielle Ausrüstung möglich, eine nahezu fotorealistische Replik der eigenen Wohnung zu erstellen und entfernte Familie und Freunde per Meta Quest 3 in diese einzuladen.
Will man das Metaverse als ein räumliches Internet verstehen, das virtuelle Räume statt Webseiten miteinander verbindet, dann zählen KI und Gaussian Splatting zu den zentralen Bausteinen. Eine Vision, die 2026 ein gutes Stück näher rücken wird.
(tobe)
Künstliche Intelligenz
CES: Google TV bekommt neue Gemini-Funktionen
Google hat im Zuge der CES einen Vorgeschmack auf neue Gemini-Funktionen für Google TV gewährt: Die KI soll künftig mehr Möglichkeiten zur Interaktion mit dem Fernseher verschiedener Hersteller und Oberflächen bieten. Auch Projektoren sollen die Funktionen erhalten. Zuerst sollen die neuen Gemini-Funktionen auf Geräten von TCL landen.
Weiterlesen nach der Anzeige
TV-Einstellungen per Gemini
Wie Google in seinem Blogbeitrag erklärt, müssen Nutzerinnen und Nutzer künftig nicht mehr umständlich in den tendenziell unübersichtlichen Einstellungsmenüs suchen, um bestimmte Einstellungen vorzunehmen. Mit dem anstehenden Update sei es möglich, Befehle in natürlicher Sprache zu verwenden. Sagt man etwa zu Gemini „Der Bildschirm ist zu dunkel“ oder „Der Dialog ist nicht zu verstehen“, könne die KI Bild und Ton anpassen, ohne den Film oder die Sendung zu verlassen.
Zudem sollen Nutzer mit den neuen Google-TV-Funktionen Informationen zu Sportergebnissen, Empfehlungen für neue Filme und Serien erhalten oder den Gemini nach allgemeinen Informationen befragen können. Hierfür hat Google eine neue Nutzeroberfläche speziell für große Bildschirme entwickelt.
Die Antworten werden laut Google mit Bildern, Videos und bei Sport-Updates mit Informationen in Echtzeit ergänzt. Bei komplexen Themen bietet Gemini auch „Deep Dives“ an. Dabei handelt es sich um „kommentierte, interaktive Übersichten, die für die ganze Familie leicht verständlich sind“, so der Hersteller.
Nano Banana und Veo
Google integriert in die TV-Oberfläche außerdem die Möglichkeit, mit Gemini die eigene Google-Fotos-Bibliothek nach bestimmten Personen oder Momenten zu durchsuchen. Zudem könne man mit der Funktion „Photos Remix“ künstlerische Stile anwenden oder „Erinnerungen in filmreife, immersive Diashows“ verwandeln.
Weiterlesen nach der Anzeige
Überdies ziehen die KI-Bild- und -Videotools Nano Banana und Veo in Google-TV-Geräte ein. Mit den Werkzeugen können persönliche Fotos neu gestaltet oder Inhalte per Sprachbefehl direkt auf dem Fernseher kreiert werden.
Die neuen Gemini-Funktionen werden zunächst auf ausgewählten TCL-Geräten verfügbar sein, so Google. Für weitere Google-TV-Geräte sollen die Features in den kommenden Monaten bereitgestellt werden. Laut der Pressemitteilung von TCL wird Microsofts Xbox Game Pass im Laufe dieses Jahres auf Googles TV-Plattform landen. Die App ist bereits auf LG- und Amazon-Fire-TV-Geräten verfügbar und auch auf Samsung-Fernsehern erhältlich.
heise online ist Medienpartner der CES 2026
(afl)
Künstliche Intelligenz
Plattner zum BSI-Portal: Werden nicht die ganze Republik retten können
Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat sein neues „BSI-Portal“ gestartet, das nun als zentraler Anlaufpunkt für Betroffene von IT-Sicherheitsvorschriften des Bundes etabliert werden soll. Die Präsidentin der Bundesbehörde, Claudia Plattner, hofft dabei auf deutliche Effekte durch das deutsche Umsetzungsgesetz zur Netzwerk- und Informationssicherheitsrichtlinie der EU, mit dem das BSI-Gesetz geändert und der Kreis der Betroffenen deutlich ausgeweitet wurde. „NIS2 ist trotz Regierungswechsel vergleichsweise schnell umgesetzt worden und wir sind bereit. „Von uns aus kann es losgehen“, sagt Plattner gegenüber heise online. Die Überarbeitung der alten NIS-Richtlinie und ihre deutsche Umsetzung hatten zuvor Jahre gedauert.
Weiterlesen nach der Anzeige
Mit der Website sollen nun Verpflichtete, also nach bisherigen Schätzungen knapp 30.000 Unternehmen, Behörden und andere Institutionen, die als kritisch im Sinne des Gesetzes gelten, künftig mit dem BSI-Portal nur noch eine Anlaufstelle benötigen, einen sogenannten „One-Stop-Shop“. Neben der gesetzlich verpflichtenden Registrierung sollen dort relevante Informationen zu den anwendbaren Cybersicherheitspflichten auffindbar sein. In den kommenden Monaten sollen dann weitere funktionale Features ergänzt werden. Vor allem der Austausch von Echtzeitdaten soll künftig das Bewusstsein für akute Vorfälle erhöhen, aber auch die Reaktionszeiten verringern. Bislang gibt es kein zentrales Meldeportal in standardisiertem Format, aus dem sich strukturiert Auffälligkeiten ablesen lassen würden.
BSI setzt bei Portal auf AWS
Für Stirnrunzeln und Kritik dürfte die Wahl des Anbieters sorgen, auf den das BSI dabei für sein Portal setzt: Amazons Web Services. „AWS bietet hierfür eine passende Infrastruktur mit Sicherheitseigenschaften nach dem Stand der Technik, auf die wir aufgesetzt haben“, sagt die BSI-Präsidentin auf Nachfrage von heise online. Das BSI-Portal soll auch anonyme Meldungen von Cybersicherheitsvorfällen und Schwachstellen ermöglichen – diese beiden Features sollen auch ohne Registrierung nutzbar sein.
Dass es nun ein zentrales BSI-Portal für die NIS2-Betroffenen gibt, will BSI-Präsidentin Claudia Plattner jedoch auf keinen Fall missverstanden wissen. Das BSI könne nicht überall sein. „Werden wir die ganze Republik retten können? Nein, das nicht“, sagt sie im Gespräch mit heise online. „Auch wenn wir Hilfestellungen leisten können: Am Ende des Tages müssen sich die Firmen anschauen, wie ihre IT aussieht, wie ihre Backups gemacht werden.“ Sie müssten selbst die Ärmel hochkrempeln, meint Plattner.
Die NIS2-Richtlinie und die jetzt in das BSI-Gesetz überführten Regelungen sehen eine Vielzahl an Pflichten für die Betreiber kritischer Infrastrukturen vor, vom Internetprovider über Energienetzbetreiber bis hin zu Gesundheitsversorgern, Wasserwerken, Lebensmittelherstellern oder anderen relevanten Unternehmen, aber auch Behörden. Dabei wird nicht exakt aufgeführt, was genau getan werden muss. „NIS2 sagt nicht, dass man einen gepatchten Exchange-Server haben muss“, erklärt Plattner. Pflicht sei vielmehr ein Risikomanagement, das zeige, ob dies ein Problem für die Cybersicherheit des eigenen Unternehmens ist. Die Wahrscheinlichkeit, dass ein ungepatchter Exchangeserver ein Problem sei, sei hoch, erklärt die BSI-Präsidentin. Aber das heiße nicht, dass ein solcher Patch genau das eine sei, was zu tun ist. Mit der NIS2 kommen aber auch überarbeitete Meldepflichten für IT-Sicherheitsvorfälle – auch hierbei soll das neue Portal nun eine Hilfestellung leisten.
Plattner hofft auf Geschäftsführerhaftung
Weiterlesen nach der Anzeige
Halten sich Anbieter nicht an die Regeln, wären nach § 65 BSI-Gesetz inzwischen bis zu 10 Millionen Euro oder zwei Prozent des Jahresumsatzes als Bußgeld möglich. „Die Menschen müssen sich darauf verlassen können: Eine gewisse Quote wird angeschaut – und irgendwann trifft es dann eben jeden mal“, erklärt Plattner den Ansatz ihrer Behörde.
Dabei spielen die unter dem NIS2-Regime möglichen Strafen nach Ansicht der seit Mitte 2023 amtierenden BSI-Präsidentin aber gar nicht die größte Rolle. „Der große Hebel sind nicht wir“, sagt Plattner. Sie erwartet eine Nebenwirkung der NIS2-Regelungen auf die sogenannten Directors-and-Officers-Versicherungen (D&O). „Der große Hebel sind die Organhaftungen der Geschäftsführer, Vorstände und Aufsichtsräte“, sagt die BSI-Präsidentin, die zumindest einen Großteil ihres Berufswegs selbst in der Wirtschaft verbracht hat. „Wenn die ihren Versicherungen nicht nachweisen können, dass sie sich zumindest um die Basics gekümmert haben, dann können sich je nach Sachlage sogar persönliche Haftungsfragen stellen, die nicht abgedeckt sind.“
BSI-Präsidentin hofft auf Schub für IT-Sicherheitsbranche
Inwieweit die vom Bundesgesetzgeber am Ende getroffenen Formulierungen im jetzigen §38 BSI-Gesetz tatsächlich wirken, bleibt abzuwarten. Bereits heute zeichnet sich aber ab, dass der Markt für Risikomanagement- und IT-Sicherheitsschulungen Fahrt aufnimmt. Geht es nach der BSI-Präsidentin, soll das nicht der einzige Effekt der NIS2 bleiben. „Ich habe die Hoffnung und auch die Erwartung, dass wir durch NIS2 einen ordentlichen Ruck hineinbekommen und auch hierzulande alles rund um IT-Sicherheits-Services wächst“, unterstreicht Plattner gegenüber heise online. „Auch einfach deshalb, weil es lukrativ ist.“
(mack)
Künstliche Intelligenz
Nvidia: DLSS 4.5 verbessert Upscaling und Frame Generation
Nvidia hat auf der CES 2026 eine neue Version von DLSS mit der Versionsnummer 4.5 angekündigt, die das auf einem Transformer-Modell basierende KI-Modell umfangreich verbessern soll. Sowohl die Upscaling-Komponente als auch der Frame-Generation-Part wurden dabei überarbeitet. DLSS 4.5 Upscaling steht in allen Nvidia-Grafikkarten ab der 2000er-Generation zur Verfügung, für die neuen Frame-Generation-Features braucht man eine 4000er- oder 5000er-GPU.
Weiterlesen nach der Anzeige
Im Vergleich zu DLSS 4 soll das Upscaling in DLSS 4.5 mehr Stabilität bieten und gerade in Bewegung weniger Artefakte zeigen. Ein Beispielvideo zeigt etwa, wie in „Oblivion Remastered“ mit DLSS4 ein Schwert flott über den Bildschirm gezogen wird, was sichtbare Schlieren hinterlässt. Diese Bewegungsrückstände lassen sich in vielen Spielen beobachten und treten oft besonders stark in Kombination mit aktiviertem Motion Blur hervor. Der Vergleich mit DLSS 4.5 zeigt, dass dieses Problem in der neuen Version des Transformer-Modells behoben oder zumindest verbessert wurde.
Der Nachteil: Die Upscaling-Komponente von DLSS 4.5 braucht etwas mehr Leistung als DLSS 4. Im Gegenzug können Nutzer versuchen, aggressivere Upscaling-Optionen zu benutzen, also eine niedrigere Grundauflösung zu rendern. Dadurch könnten sich die Leistungseinbußen kompensieren lassen. Nvidia verspricht, dass DLSS im Performance-Modus nativer Bildqualität entsprechen soll, während sogar der bislang kaum brauchbare Ultra-Performance-Modus zumindest auf 4K-Monitoren zu einer echten Alternative werden könne, obwohl das Bild dabei nur in 720p gerendert wird. Ob das stimmt, müssen Tests zeigen.
Frame Generation kann besser mit Interface umgehen
Während der Upscaling-Part von DLSS von vielen Spielern in fast jedem aktuellen Spiel genutzt wird, ist Frame Generation noch Geschmackssache. Die Technik berechnet zwischen zwei „echten“ Frames einen oder mehrere „Fake Frames“. Das steigert die Flüssigkeit der Bewegung, erhöht aber die Eingabelatenz. In der Praxis sieht ein Spiel also flüssiger aus, fühlt sich aber nicht flüssiger an. Zudem können die generierten Bilder Artefakte zeigen, die bei niedrigeren Ausgangsbildraten schlimmer ausfallen.
In DLSS 4.5 hat Nvidia die Konsistenz von Nutzer-Interface-Elementen bei aktivierter Frame Generation verbessert. Ein über das Spielgeschehen gelegtes Fadenkreuz soll dadurch weniger schlieren als bislang. Neu ist zudem die Möglichkeit, die Bildrate durch „Fake Frames“ zu versechsfachen – bislang war vierfache Frame Generation das Maximum.
Weiterlesen nach der Anzeige
Dynamische Frame Generation
Besonders praktisch ist eine neue Funktion, die die Zahl der generierten Frames dynamisch an das Spielgeschehen anpasst. Je nach Ausgangsbildrate werden demnach zweifache, dreifache oder gar sechsfache Frames interpoliert, um die Bildwiederholfrequenz eines Monitors voll auszufüllen. Das kann nützlich sein, um verlässlich auf eine stabile Bildrate zu kommen. Auf der anderen Seite stellt das Feature in der Theorie sicher, dass man seltener unnötige Frames generiert und dadurch die tatsächliche Ausgangsbildrate in den Keller drückt.
Ein Beispiel: Wer auf einem 240-Hz-Monitor mit 6-facher Frame Generation spielt, kann maximal 40 „echte Frames“ erzielen (in der Praxis tatsächlich nur 37, weil Nvidia Reflex die Bildwiederholfrequenz bei aktivierter Frame Generation in diesem Szenario auf 224 festlegt) – auch wenn der PC grundsätzlich in der Lage wäre, mehr davon zu erreichen. In leicht zu rendernden Szenen könnte die dynamische Frame Generation nun etwa auf vierfache Frame Generation umstellen, um 60 (beziehungsweise 56) echte Frames rendern zu lassen, bevor KI-Frames dazwischengelegt werden.
Während die Frame-Generation-Komponente von DLSS 4.5 erst im Frühjahr erscheint, kann man die neuen Upscaling-Features von DLSS 4.5 schon jetzt ausprobieren, indem man die Beta-Version der Nvidia-App und den neuen Grafiktreiber herunterlädt. Um an der Beta teilzunehmen, geht man unter „Einstellungen“ auf den Reiter „About“ und klickt dort den Haken bei der Beta-Teilnahme. Anschließend muss man die App neu starten und den neuen Treiber installieren. Nach dem Update kann man die neuen Features testen, indem man in der App im Grafik-Reiter den DLSS-Override entweder global oder bei einzelnen Spielen auf „Latest“ stellt. Nun sollte beim nächsten Spielstart automatisch die aktuellste Version von DLSS aktiviert werden.
heise online ist Medienpartner der CES 2026
(dahe)
-
UX/UI & Webdesignvor 3 MonatenIllustrierte Reise nach New York City › PAGE online
-
Künstliche Intelligenzvor 3 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 3 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 3 MonatenSK Rapid Wien erneuert visuelle Identität
-
Künstliche Intelligenzvor 3 MonatenNeue PC-Spiele im November 2025: „Anno 117: Pax Romana“
-
Entwicklung & Codevor 2 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 3 MonatenDonnerstag: Deutsches Flugtaxi-Start-up am Ende, KI-Rechenzentren mit ARM-Chips
-
UX/UI & Webdesignvor 2 MonatenArndt Benedikt rebranded GreatVita › PAGE online
