Connect with us

Künstliche Intelligenz

Die schärfste VR-Brille für Sim-Fans: Pimax Crystal Super im Test


PC-VR-Brillen können nie genug Pixel haben, zumindest wenn es nach dem Hersteller Pimax aus Shanghai geht. Das aktuelle High-End-Modell Pimax Crystal Super (50 PPD) macht mit seiner Auflösung sogar 8K-Fernsehern Konkurrenz. Ganze 3840 × 3840 Pixel pro Auge sollen extrem scharfe Kulissen ermöglichen, ganz ohne störendes Pixelraster. Selbst die Apple Vision Pro und die sündhaft teure Varjo XR-4 erreichen diese Auflösung nicht ganz.

Für Gelegenheitsspieler klingt das übertrieben. Simulations-Fans und VR-Enthusiasten können die zusätzlichen Pixel jedoch gut gebrauchen, um feine Instrumente abzulesen und entfernte Landschaftsdetails zu erkennen. Die Ausrichtung an diese Zielgruppe spiegelt sich auch im breiten Sichtfeld und dem Preis wider. Im offiziellen Store ist das Headset für knapp 1600 Euro (zzgl. Steuern und Versand) erhältlich. Bei Händlern wie Bestware oder UnboundXR zahlt man derzeit rund 2000 beziehungsweise 2050 Euro (jeweils inklusive DMAS-Kopfhörern und Top-Strap). Man mag sich fragen, ob ein aktueller Spielrechner diese Auflösung überhaupt bedienen kann. Hier können wir Entwarnung geben, denn es gibt ein paar Techniken, die die Grafikkarte deutlich entlasten.

Auch diese haben wir ausprobiert, um in Spielen wie dem „Microsoft Flight Simulator 2024“ oder „Kayak VR: Mirage“ ein möglichst flüssiges Ergebnis zu erreichen. Das „Dynamic Foveated Rendering“ etwa greift auf das eingebaute Eye-Tracking zurück. Man braucht also nicht zwingend eine teure GeForce 5090. Doch selbst wenn die Grafik flüssig lief, kam es im Test zu einigen technischen Problemen. Wie schwerwiegend sie sich auf den Betrieb auswirken und ob der klobige Formfaktor den Tragekomfort stört, klären wir ebenfalls im ausführlichen Test.


Das war die Leseprobe unseres heise-Plus-Artikels „Die schärfste VR-Brille für Sim-Fans: Pimax Crystal Super im Test „.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Künstliche Intelligenz

Kurz erklärt: Das steckt hinter dem Modewort KI-Agenten


Während die Reasoning-Fähigkeiten großer Sprachmodelle (Large Language Models, LLMs) total 2024 sind, betonen die Modellanbieter jetzt die agentische Natur ihrer Systeme. Gemeint ist damit, dass die Modelle komplexe Aufgaben autonom lösen und dazu selbstständig weitere LLMs oder andere Werkzeuge hinzuziehen. Das kann vom Browser und der Taschenrechner-App über die Dokumentenablage bis zur Entwicklungsumgebung reichen.

Ziel der autonomen agentischen LLMs ist laut Werbeversprechen, die bisherige Arbeitswelt umzukrempeln, die Digitalisierung der Wirtschaft und Verwaltung abzuschließen und schlussendlich Menschen bei vielen Tätigkeiten zu ersetzen – was Kosten einspart. Nicht nur bei öden, repetitiven Aufgaben – auch komplexe Geschäftsprozesse, Softwareentwicklung und Forschung sind das Ziel der Agenten. Während die Wirtschaft – vom KMU bis zum Megakonzern – damit einen Wachstumsschub erfahren soll, würden die Systeme Angestellten dann Zeit für andere Aufgaben geben, die bislang ständig hinten runterfallen. Unterm Strich soll die Technik alle noch effizienter machen und die Lücke der Fachkräfte füllen, erklären die Eltern des Gedanken.

Abstrakt annähern kann man die Fähigkeiten der agentischen LLMs am besten über einen Vergleich mit den Stufen des autonomen Fahrens (siehe Kasten). Werbung und Release Notes versprechen voll automatisierte KI-Systeme (Stufe 4). Glaubt man dem Hype, wird Artificial General Intelligence (AGI) spätestens mit GPT-5 den Menschen obsolet machen (Stufe 5). Erfahrungsberichte klingen eher nach einer Automatisierung zwischen den Stufen 2 und 3. Nutzer müssen jederzeit eingreifen können, wenn sich die Sprachmodelle verlaufen, oder die Modelle prompten bei bestimmten Entscheidungen die Nutzer und warten dann, bis die Menschen gutgläubig ihre Kreditkartendaten und Passwörter eingegeben haben.

Stufe 0: Manuelles Fahren.

Stufe 1: Assistiert. Fahrer führen die Lenkbewegungen aus, das Fahrzeugsystem erledigt Aktivitäten wie Bremsen, Blinken oder Beschleunigen.

Stufe 2: Teilautomatisiert. Ein Mensch muss das System dauerhaft überwachen und im Zweifelsfall eingreifen.

Stufe 3: Hoch automatisiert. Ein Mensch muss am Platz sein, aber das System nicht dauerhaft überwachen.

Stufe 4: Voll automatisiert. Das System kann in speziellen Situationen alle Fahranforderungen selbstständig bewältigen.

Wie es um die tatsächlichen Fähigkeiten der Sprachmodelle bestellt ist, läuft auf eine Glaubensfrage hinaus. Fans der Technik heben ihren Produktionszuwachs hervor, zeigen erfolgreiche Prototypen oder präsentieren in sozialen Netzwerken erstaunliche Ergebnisse von künstlicher Intelligenz. Auf der anderen Seite sehen die Kritiker LLMs als stochastische Sprachwürfelmaschinen, die sich in manchen Bereichen besser schlagen als in anderen, unterm Strich aber meist enttäuschen – es sei denn, man würfelt so lange, bis das Ergebnis vorzeigbar genug ist, wobei mit jedem Würfelwurf Kosten entstehen.

Strukturiertere Erkenntnisse bieten die gängigen Benchmarks für große Sprachmodelle (etwa GPQA, AIME, SWE-bench oder MMLU). Hier erstrecken sich die Testfelder über das Programmieren, Recherchieren und Fachwissen in den Naturwissenschaften. Geschlossene Modelle erreichen bei jedem Release neue Höchstwerte, offenere Modelle kommen an die proprietären Konkurrenten heran – der Spielraum ist in beiden Fällen zwei bis drei Prozentpunkte. Während die Benchmarks den LLMs grundsätzlich gute bis sehr gute allgemeine Fähigkeiten bescheinigen, sind die genauen Zahlen mit Vorsicht zu genießen. Seit einer Weile besteht der Verdacht, dass Anbieter ihre Modelle speziell auf die Tests trainieren, also Benchmaxing betreiben – bei keinem Flaggschiffmodell sind die Trainingsdaten bekannt. Dann gibt es noch die LMArena, in der Menschen bei Blindtests den Stil und die Qualität von Modellen bei beliebigen Prompts bewerten. Ein Leaderboard drückt das Ergebnis mit einer ELO aus. Auch hier haben Anbieter zuletzt mit besonders gefälligen Varianten getrickst, dennoch lassen sich hier Trends quantifiziert ablesen.

Für die Qualität der Modelle in Produktion gibt es bisher nur anekdotische Evidenz, kein Unternehmen rückt mit Messungen zum Effizienzzuwachs raus, für das Programmieren scheint das aktuell umstritten zu sein. Zwar kein guter Indikator für den deutschen Mittelstand, aber für die Lage in der Branche sind die aktuellen Quartalszahlen von Meta und Microsoft. Meta verdient sein Geld fast ausschließlich mit Werbung, Microsoft wächst besonders stark im Bereich Azure Cloud, in dem man auch die KI-Workloads verrechnet, schlüsselt das jedoch nicht genauer auf. Es ist anzunehmen, dass besonders Microsoft hohe Gewinne durch LLMs und andere KI-Produkte seiner Konkurrenz und den Aktionären unter die Nase reiben würde.

Derweil gibt es Techniken, die die Ausgabequalität oder den Nutzen der großen Sprachmodelle für den Unternehmenseinsatz steigern. Mit Retrieval Augmented Generation (RAG) nähert man die Sprachmodelle mit den eigenen Dokumenten an die richtige Problemdomäne an, was Halluzinationen reduzieren kann. Mit Agentenframeworks und zuletzt dem MCP gibt es Mittel, mit denen sich Sprachmodelle strukturiert miteinander oder mit allen denkbaren Werkzeugen verbinden lassen. Hier gibt man den Modellen jedoch eine Auswahl vor, sie können sich nicht autonom beliebige Werkzeuge aussuchen. Diese Konstrukte muss man in Produktion testen – hier gibt es zwar positive Erfahrungsberichte, aber keine Benchmarks oder Zahlen. Ob sich das Skalieren der Anwendungen dann rechnet, ist ebenfalls erst in Produktion ersichtlich.

Wer jetzt ein Agentic-AI-Produkt für den Unternehmenseinsatz kauft, wird höchstwahrscheinlich teilautomatisierte Abläufe bekommen; im besten Fall passt die Unternehmensstruktur und die Angestellten müssen die automatisierten Prozesse nur noch überwachen. Das muss dabei nicht immer mit LLMs zu tun haben. Auf dem Stand der Digitalisierung in Verwaltung und KMUs ist auch mit klassischen Mitteln noch viel zu holen. Sogar die Analysten bei Gartner, die selbst gerne Hypes pushen und verkaufen, warnen davor, dass von 1.000 geprüften Produkten für KI-Agenten nur 130 mehr als heiße Luft vorweisen konnten.

Ihre Stärken haben die großen Sprachmodelle bei der Textarbeit, der Dokumentensuche und dem Zusammenfassen von Inhalten. Während die reinen Sprachfähigkeiten der LLMs außer Frage stehen, bewegen sich sehr gute Ergebnisse beim Programmieren je nach Benchmark und Modell zwischen 30 und 90 Prozent, bei Recherche und Naturwissenschaften zwischen 50 und 85 Prozent. Natürlich erreicht nicht jeder Mensch dieselbe Bewertung bei diesen Aufgaben. Gerade bei exotischen Spezialfällen knicken die LLMs dann häufig ein – genau bei den Problemen, für die man Facharbeiter oder Domänenexperten beschäftigt.

LLMs enthalten eine gewaltige Bandbreite an Wissen zu den verschiedensten Themen – schließlich sind die Topmodelle der großen Anbieter mit allem digital verfügbaren Wissen der Menschheit trainiert und lassen sich danach abfragen. Offen ist jedoch: Erreichen LLMs mit dem ungenauen Werkzeug Sprache über eine statistische Annäherung am Ende ein eindeutiges Ergebnis? Reicht ein System, das überzeugend spricht, aber nur in der Hälfte oder drei Viertel der Fälle richtig liegt, für autonome Lösungsfindung? Oder bleiben diese Systeme wie die selbstfahrenden Pkws auf Stufe 3 der Autonomie stecken?


(pst)



Source link

Weiterlesen

Künstliche Intelligenz

Digitalminister Wildberger will DSL nicht so schnell aufgeben


Digitalminister Karsten Wildberger (CDU) hat sich gegen eine flächendeckende Abschaltung der DSL-Technologie ausgesprochen. „Es ist sicher nicht der richtige Weg, einfach nur abzuschalten“, sagte er den Zeitungen der Funke-Mediengruppe.

Allerdings forderte Wildberger auch: „Wir müssen mal wieder etwas anschalten.“ Damit meinte er die Glasfasertechnologie (sowie 5G), deren Ausbau Ende Juli vom Bundesrat zum „überragenden öffentlichen Interesse“ gemacht worden ist. Unter anderem habe man dafür Genehmigungsverfahren vereinfacht, um „die nötige Modernisierung des Wirtschaftsstandortes Deutschland“ voranzubringen.

Derzeit wähle indes nur jeder vierte Kunde Glasfaser, wenn es ihm angeboten werde, sagte Wildberger. Die geringe Wechselbereitschaft führt Wildberger darauf zurück, dass in der Vergangenheit stark auf die DSL-Technologie und damit Kupferkabel gesetzt worden sei. Nach aktuellem Stand werde bei der Glasfaser eine Anschlussfähigkeit von 50 Prozent erreicht. „Bis zum Ende der Legislaturperiode wollen wir die 70 Prozent knacken“, so die Pläne der Bundesregierung. Die Legislaturperiode endet, sofern die Koalition sich so lange verträgt, im Jahr 2029.

Doch auch wenn Wildberger sich für die temporäre Erhaltung von DSL ausspricht: Die Frage nach einer geordneten Abschaltung der DSL-Kupfernetze steht dennoch im Raum.

Lesen Sie auch

Der Digitalminister hatte im Juli ein Sieben-Punkte-Papier vorgelegt, in dem es unter anderem um die „Umstellung der Endkunden von kupferbasierten VDSL-Anschlüssen auf zukunftssichere Glasfaseranschlüsse“ geht, das als „zentrale Aufgabe der kommenden Jahre“ betrachtet wird. Also das mittelfristige Aus des DSL-Netzes.

Darin heißt es, dass das Ministerium für Digitales und Staatsmodernisierung (BMDS) „gemäß dem Koalitionsvertrag ein verbraucher- und wettbewerbsfreundliches Migrationskonzept in Abstimmung mit Stakeholdern erarbeiten und dazu voraussichtlich im August 2025 ein Eckpunktepapier zur Konsultation veröffentlichen“ wird.

Nach den Plänen der EU-Kommission soll bis 2030 flächendeckend Glasfaser installiert sein. In einer Vorausberechnung für den VATM (Verband der Anbieter im Digital- und Telekommunikationsmarkt) könnte DSL bis 2030 dennoch weiterhin die dominante Leitungstechnik in Deutschland bleiben.


(afl)



Source link

Weiterlesen

Künstliche Intelligenz

Tim Cook: Steve Jobs‘ CEO-Amtszeit ist überholt


Apple-Chef Tim Cook hat die Amtszeit von Steve Jobs als CEO des iPhone-Herstellers nun offiziell überschritten. Das zeigt eine Berechnung von Macrumors. Mit Stichtag 1. August war Cook demnach 5091 Tage Chief Executive Officer bei Apple, während Steve Jobs dies nur 5090 Tage lang war.

Das hat auch damit zu tun, dass Jobs zwischen 1976, dem Gründungsjahr von Apple, und 1985, seinem ersten (unfreiwilligen) Weggang von dem Konzern, nie Chef war, stattdessen unter anderem Chairman of the Board (Vorsitzender des Aufsichtsrats). Erst ab 1997 war er zunächst als „iCEO“ (Interim-CEO) tätig, bevor er ab Januar 2000 offiziell zum CEO wurde – bis zu seinem Rücktritt im August 2011. Damals übernahm Cook für ihn, bevor Jobs dann am 5. Oktober 2011 verstarb.

Es gab zudem mehrere längere Zwischenphasen in den Jahren 2004, 2009 und 2011, in denen Cook, der damals noch offiziell Chief Operating Officer (COO) war, Jobs krankheitsbedingt vertrat, dieser Zeitraum ist in die 5091 Tage jedoch nicht einberechnet. Cook gelang es in seiner Zeit als Apple-Chef, den Konzern signifikant profitabler und umsatzstärker zu machen. Unter (hauptsächlich) seiner Ägide wurden beispielsweise mittlerweile drei Milliarden iPhones abgesetzt. Aktuell sieht viel danach aus, dass Cook noch mindestens fünf Jahre CEO bleibt, zumindest heißt es so in der Gerüchteküche.

Cook selbst ist kein junger Mann mehr: Im November wird er 65 Jahre alt. Auch der Rest des Apple-Managements ist Ende 50 bis Anfang 60. Teilweise hat hier ein Generationswechsel begonnen, allerdings wurde etwa COO Jeff Williams gegen einen nur marginal jüngeren Nachfolger ersetzt. Wer Cook eines Tages als CEO ablösen wird, ist noch unklar – Hardwareboss John Ternus gilt allgemein als heißer Kandidat.

Steve Jobs hatte Apple zusammen mit Steve Wozniak und Ron Wayne im Jahr 1976 gegründet. Chefs waren dann – hintereinander – Michael Scott, Michael Markkula und schließlich John Sculley (Ex-Pepsi-Chef), den Jobs selbst aussuchte. Mit Sculley kam es dann jedoch zum großen Konflikt (unter anderem wegen der hohen Kosten für den Macintosh), den Jobs verlor. 1997 wurde Jobs‘ Firma NeXT dann von Apple übernommen. Dessen Betriebssystem NeXTSTEP bildete die Grundlage von Mac OS X, das wiederum auch Grundlage von iOS ist. Cook selbst kam 1998 zu Apple. Anfangs war er Senior Vice President for Worldwide Operations und änderte Apples Lieferkette unter anderem hin nach China – und optimierte diese stark und sehr erfolgreich. Heute hat der Konzern allerdings aufgrund der Zölle der Trump-Administration größere Probleme.


(bsc)



Source link

Weiterlesen

Beliebt