Assetto Corsa Evo: Neue Inhalte und DLSS 4.5 Super Resolution mit Update 0.5
Bild: Kunos Simulazioni
Das neueste Update für Assetto Corsa Evo hat bereits Tage vor Release für einigen Gesprächsstoff gesorgt. Der Wegfall des Karrieremodus‘ hat Kunos Simulazioni einige Kritik eingebracht. Doch das Update 0.5 für Assetto Corsa Evo bringt auch ein paar positive Neuerungen wie Support für DLSS 4.5 sowie neue Strecken und Fahrzeuge.
Autokäufe landen in der Garage
Für den Patch müssen sich 2,1 GB durch die Internetleitungen quetschen. Direkt beim ersten Start des aktualisierten Spiels fällt dann auf, dass der Karrieremodus entfernt wurde. Die Auswahl zwischen Open-Mode und Karrieremodus entfällt nun. Autos, die im gestrichenen Karriere-Modus gekauft wurden, befinden sich nun in der Garage des Spielers.
Eine weitere Anpassung im Gameplay erfährt das neue Strafensystem für das Schneiden von Kurven. Der Spieler hat ab sofort die Möglichkeit innerhalb von 500 Metern einen möglichen Zeitgewinn zurückzugeben, ansonsten droht abhängig von der Schwere des Vergehens beginnend bei einer Warnung über empfindliche Strafen bis hin zu einer Disqualifikation.
Technische Verbesserungen
Besitzer einer GeForce-RTX-Grafikkarte können sich über den Support von DLSS 4.5 Super Resolution (im Test) freuen. Einige Fahrzeuge haben kleinere Verbesserungen und Korrekturen erfahren. Beispielsweise kann im Ferrari SF-25 jetzt ein Rundenzähler in den Rennen-Sessions auf dem Display des Lenkrads angezeigt werden. Die Position des Lenkrads wurde genauso angepasst wie die Animation des Fahrers. Die Entwickler haben auch das dynamische Wetter und die Streckensimulation überarbeitet, allerdings soll hier noch weiteres Finetuning in den kommenden Updates vorgenommen werden.
Endlich den Porsche 911 GT3 RS fahren
Der Patch bringt weitere neue Inhalte. Zu den sieben neuen Fahrzeugen gehört der Porsche 911 GT3 RS (992) in zwei Varianten und das BMW M2 Coupé (G87). Weitere Fahrzeuge kommen von Audi, Toyota, Volkswagen sowie Caterham und Dallara.
Neue Fahrzeuge im Update 0.5
Audi Sport Quattro (1983)
BMW M2 Coupé (G87) [2 Varianten]
Caterham Seven 485 CSR Final Edition [3 Varianten]
Dallara EXP
Porsche 911 GT3 RS (992) [2 Varianten]
Toyota AE86 Sprinter Trueno [4 Varianten]
Volkswagen Golf Mk 1
Assetto Corsa Evo – Update 0.5 (Bild: Kunos Simulazioni)
Bild 1 von 8
Assetto Corsa Evo – Update 0.5 (Bild: Kunos Simulazioni)
Wer ein wenig Abwechslung abseits der Fahrzeugsauswahl sucht, findet mit diesem Update gleich zwei neue Kurse in der Streckenauswahl: Circuit Paul Ricard und Watkins Glen International. Beide Kurse können in vier unterschiedlichen Layouts befahren werden.
Assetto Corsa Evo – Update 0.5 (Bild: Kunos Simulazioni)
Kleiner Teaser für die Zukunft
Am Ende des Release-Trailers hat Kunos noch einen kleinen Teaser für Assetto Corsa Evo untergebracht. Der Sebring International Raceway wird für das nächste Update auf Version 0.6 angekündigt.
Im Rahmen von HPs Hausmesse Imagine hatte ComputerBase in New York die Gelegenheit, ein Demo-Setup von HP Dimension mit Google Beam auszuprobieren. Dabei konnte das Produkt zur 3D-Videotelefonie in Lebensgröße mächtig Eindruck schinden: Das klappt beeindruckend gut! Die Hürden sind zum Marktstart im Herbst aber gewaltig.
Erster Eindruck: Da sitzt eine Person hinter Glas
Die Tür geht auf, ich betrete einen kleinen Raum. Auf einem halbrunden Schreibtisch steht eine Art Fernseher, davor ein Bürostuhl. Ich setze mich darauf. Und plötzlich sitzt mir eine Person in 3D gegenüber – das ist gar kein Fernseher, sondern nur eine Glasscheibe?!
Erst als ich genauer hinschaue, fällt ein feines Raster auf. Die dreidimensionale Darstellung wirkt nicht perfekt scharf, aber ist durchweg ausreichend, um die Mimik der gegenübersitzenden Person und sogar einzelne Poren auf der Haut klar erkennen zu können. Bewege ich den Kopf nach links oder rechts, verändern sich Perspektive und Raumklang. Das Gefühl bleibt: Da sitzt jemand hinter dem Glas. Ich sehe meinen Gesprächspartner nicht auf einem Bildschirm, sondern einen Meter vor mir, physisch im Raum – nur eben unerreichbar. Denn die Person sitzt nicht hier mit mir in New York, sondern tatsächlich in Austin, Texas.
GIF Google Beam in Aktion (Bild: Google)
Bild 1 von 4
HP Dimension with Google Beam im Hands-on
Dieser erste Eindruck, der sich zum Start meiner kurzen Demo-Session mit HP Dimension einstellt, trägt erstaunlich weit. Auch einfache Gesten wirken glaubwürdig. Als mein Gegenüber einen Apfel anhebt und mir entgegenstreckt, nur wenige Dutzend Zentimeter vor mein Gesicht, entsteht das Gefühl, ich könne danach greifen – aber der Griff führt haptisch ins Leere, wenngleich meine Hand optisch im Apfel verschwindet. Gleichzeitig zeigen sich Grenzen: feine Artefakte, leichtes Flimmern, und eine gewisse Künstlichkeit bei genauerem Hinsehen. Es ist kein perfektes Abbild der Realität, aber nah genug, dass das Gehirn den Unterschied für den Moment ausblendet. Und genau darin liegt die Wirkung des Systems.
Von der Kamera zum gerenderten Gegenüber
Technisch handelt es sich gar nicht um ein klassisches Video, erfahre ich im Anschluss, sondern um eine mehrstufige Rekonstruktion. Sieben Kameras und ein Beamforming-Array bestehend aus zwölf Mikrofonen, allesamt verteilt im Rahmen des 65-Zoll-Panels mit 8K-Auflösung, sowie zwei weitere Mikrofone auf dem Tisch erfassen die Person aus unterschiedlichen Winkeln. Die Daten werden in einem Google-Rechenzentrum in Echtzeit verarbeitet und als synthetisches Bild neu gerendert.
HP Dimension with Google Beam im Hands-on
Bild 1 von 5
HP Dimension with Google Beam im Hands-on
Ich sitze also gar keinem Videostream im klassischen Sinne gegenüber, sondern einem generierten – aber hyperrealistischen – 3D-Abbild, das kontinuierlich an Perspektive und Blickrichtung angepasst wird. Wie Google erklärt, kommt dabei ein speziell trainiertes KI-Modell für volumetrische Videoinhalte zum Einsatz. „Normale“ Foto- oder Videoaufnahmen des Produkts können dem nicht gerecht werden, argumentiert HP, weswegen eigene Aufnahmen der Redaktion in diesem Artikel fehlen. Das ist schade, aus meiner Perspektive aber durchaus nachvollziehbar.
Wie das Display Tiefe erzeugt
Denn die Darstellung erfolgt über ein sogenanntes Lichtfeld-Display respektive mittels Linsenrasterbild. Dabei werden nicht einfach zwei Bilder für linkes und rechtes Auge erzeugt, sondern eine Vielzahl leicht unterschiedlicher Perspektiven gleichzeitig dargestellt. Möglich wird das durch feine Linsen oder Prismen auf dem Panel, die Lichtstrahlen gezielt in verschiedene Richtungen lenkt. Je nach Position der Augen trifft dadurch jeweils ein anderes Teilbild auf die Netzhaut. Bewegt man den Kopf, verschiebt sich dieser Winkel kontinuierlich, analog eines Parallax-Effektes, wodurch neue Perspektiven sichtbar werden. Bekannt ist diese Funktionsweise beispielsweise von Wackelbildern, wie sie etwa auf Grußkarten zu finden sind – bei HP Dimension ist die Qualität aber deutlich höher.
Die effektive Auflösung des 8K-Panels verteilt sich allerdings dennoch auf diese verschiedenen Blickwinkel. Das erklärt, warum Details zwar gut erkennbar sind, aber nicht ganz das Auflösungsvermögen eines klassischen 2D-Displays mit 7.860 × 4.320 Pixeln erreicht wird. Gleichzeitig entstehen potenziell Artefakte wie ein leichtes Flimmern oder Moiré-Effekte, da das Bild aus diskreten View-Zonen besteht. Das System versucht, diese Übergänge durch Tracking von Kopf- und Blickbewegungen möglichst unauffällig zu halten.
Blickkontakt, Licht und Rendering-Tricks
Einen wichtigen Beitrag für das Gefühl eines gewöhnlichen Gesprächs ist außerdem die Anpassung des Blickkontakts: Das bei Videotelofonie übliche Problem, dass die Pupillen des Gesprächspartners nicht auf die eigenen Augen, sondern die Kamera am Rande des Displays gerichtet sind, wird beim Rendern des 3D-Abbilds umgangen. Es entsteht konsequent der Eindruck, mein Gesprächspartner schaue mir in die Augen, wenn er mich denn ansieht; ein natürliches Gefühl von Blickkontakt entsteht. Gleichzeitig werden Beleuchtung und Lichttemperatur angepasst, um Unterschiede zwischen Aufnahme- und Wiedergabeseite auszugleichen.
GIF Google Beam in Aktion (Bild: Google)
Im Kern ist das System damit weniger eine Bildübertragung von Kamera zu Display, sondern integriert eine durchgängige Rendering-Pipeline. Aufnahme, Rekonstruktion und Darstellung sind eng miteinander verzahnt und aufeinander abgestimmt, tatsächlich aufgenommene Pixel sieht am Ende aber keiner der beiden Anwender. Ist mir das in irgendeiner Art und Weise aufgefallen? Nein, tatsächlich gar nicht.
Nichtsdestoweniger berichtete ein anderer Journalist, der an der Demo-Session teilnahm, nach seinem Beam-Telefonat von leichten Kopfschmerzen und müden Augen, was er aber von allerhand 3D-Displays gewohnt sei. In unserer Runde war das ein Einzelfall und auch ich kann mich nicht über derartige Nebenwirkungen beschweren. Es ist aber offen, inwiefern auch andere Menschen bei der Verwendung von HP Dimension mit vergleichbaren Problemen zu kämpfen haben – und inwiefern die Hersteller diese mildern oder gar abstellen können.
Spatial Audio und Live-Übersetzung
Für ein authentisches Gesprächserlebnis ist aber offenkundig auch der Ton relevant. Die zahlreichen Mikrofone erfassen die Stimme und ermöglichen eine räumliche Wiedergabe. Dabei übernehmen die beiden Mikrofone auf dem Tisch die eigentliche Sprachaufnahme, wohingegen die zusätzlichen Mikrofone im Rahmen zur Positionsbestimmung mittels Triangulation dienen. Über vier Lautsprecher lässt sich die Stimme anschließend so im Raum platzieren, dass sie akustisch mit der dargestellten Person übereinstimmt.
HP und Google sehen außerdem vor, dass das fertige Produkt in Echtzeit zwischen verschiedenen Sprachen der Gesprächspartner übersetzen können soll. Dabei soll das System dynamisch auch Tonfall, Tonhöhe und Charakteristiken der Stimme berücksichtigen und die Audioausgabe entsprechend anpassen. Basis der Übersetzung sei – wenig verwunderlich – ein KI-Modell. Diese Funktion konnte ComputerBase aber im Rahmen von Präsentation und Demo weder beobachten noch selbst ausprobieren.
Kooperation zwischen Google und HP
Die zugrunde liegende Technologie stammt ursprünglich von Google und basiert auf Project Starline. Dort wird die 3D-Rekonstruktion, das Rendering sowie die gesamte Plattform entwickelt und betrieben. Auch die Cloud-Infrastruktur und die Streaming-Pipeline sind Teil dieses Systems, das unter dem Namen Google Beam vermarktet wird.
HP übernimmt mit Dimension dagegen die Rolle des Hardware- und Systemintegrators. Das Unternehmen baut das Display, integriert die Kameras, Mikrofone und Recheneinheit und sorgt dafür, dass das System als geschlossenes Produkt zuverlässig funktioniert und vermarktet werden kann. Dazu gehören auch Aspekte wie Kalibrierung, thermisches Design und die Integration in Meetingräume.
Voraussetzungen und Anwendungsbereich
Das gesamte System ist stark auf kontrollierte Bedingungen angewiesen. Sitzposition, Abstand zum Display und Beleuchtung sind vorgegeben und lassen nur wenig Spielraum. Der halbrunde Tisch vor dem Display beispielsweise ist exakt so dimensioniert, dass die Gesprächspartner den richtigen Abstand zu Kameras, Mikrofon-Array und Panel wahren. Und Lichtquellen sollten idealerweise nur hinter dem Display platziert sein, weswegen HP Dimension über ein starkes Hintergrundlicht verfügt und die sonstige Beleuchtung im Demo-Raum ausgeschaltet war. Ein Einsatz im direkten Sonnenlicht etwa ist nicht möglich.
Schnelles Internet und viel Energie nötig
Hinzu kommt die Abhängigkeit von passender Infrastruktur. Für den Betrieb werden stabile Internetverbindungen benötigt. HP empfiehlt eine Bandbreite im Bereich von mindestens 50 Mbit/s symmetrisch sowie eine Paketumlaufzeit von unter 40 ms. Das setzt nicht nur Vorgaben für die Anbindung der beiden HP-Dimension-Module ans Internet, sondern auch die Verfügbarkeit passender Rechenzentren voraus – bei einer derart latenzsensiblen Anwendung ist es äußerst ungünstig, wenn passende Rechenkapazität gerade nur auf der anderen Seite des Planeten verfügbar ist. Anfällig für Internetprobleme ist das System aber auch im Idealfall noch: Während meiner Hands-on-Session waren zeitweise Bild und Ton nicht synchron, was in dieser Form bei anderen Probanden jedoch nicht vorkam.
Erwähnenswert ist für die vorgestellte Implementierung auch der Energiebedarf: 600 Watt verbraucht ein HP-Dimension-Modul während eines laufenden Videoanrufs. Die Rechenleistung in der Cloud ist dabei selbstverständlich noch außen vor, doch zu diesem Thema bleibt Google bislang generell vage – Details zur Hard- und Software gibt es nicht. Die lokale Recheneinheit des Beam-Setups beschreibt HP hingegen salopp als „modifizierte Chromebox“.
Einsatz heute: Klar abgegrenzt
Aktuell ist das System auf Gespräche zwischen zwei Personen ausgelegt. Erweiterungen auf mehrere Teilnehmer oder komplexere Szenarien sind zwar vorgesehen, stellen aber aktuell noch erhebliche technische Herausforderungen dar, schildert HP auf Nachfrage. Einerseits geht es darum, mehr als nur zwei HP-Dimension-Module miteinander zu verbinden, wo sich der Hersteller für die nahe Zukunft zuversichtlich zeigt. Aber insbesondere die korrekte Darstellung aus verschiedenen Blickwinkeln für mehrere Betrachter vor einem Modul sei komplex und könnte zusätzliche Hardware oder neue Displayansätze erfordern. Außerdem gelte es noch zu erproben, inwiefern das Gefühl eines authentischen Gesprächs aufrecht erhalten werden könne, wenn die gegenübersitzende Person nicht in Lebensgröße dargestellt werden kann, falls kleinere Displays zum Einsatz kommen.
HP Dimension with Google Beam (Bild: HP)
Bild 1 von 3
HP Dimension with Google Beam (Bild: HP)
Entsprechend bleibt der Einsatzbereich vorerst eng gefasst, denn auch die finanziellen Hürden sind hoch. Die erste kommerzielle Umsetzung, HP Dimension mit Google Beam – also genau das Modul, das in einer Entwicklungsversion von mir ausprobiert wurde –, liegt früheren Angaben zufolge bei rund 25.000 US-Dollar pro Gerät. HP gab aber zu verstehen, dass das fertige Produkt zum Start im Herbst 2026 realistisch eher noch teurer werde. Ziel sei es aber, beschwichtigt HP auf Nachfrage, den Preis mit zukünftigen Generationen zu senken.
Laufende Kosten für die Google-Server
Hinzu kommen aber in jedem Fall noch laufende Lizenzkosten für die Plattform von Google. Pro Modul sollen 5.500 US-Dollar im Jahr anfallen, was letztlich die nötige Rechenleistung in der Cloud bezahlen soll. Und für eine Verbindung werden offenkundig zwei dieser Systeme benötigt, was die effektiven Kosten für das erste Jahr HP Dimension auf über 60.000 US-Dollar hebt. In der Konsequenz richtet sich die Lösung vorerst an Unternehmen. Erste Kunden nennen HP und Google bereits: Deloitte, Salesforce, Citadel, NEC, Hackensack Meridian Health, Duolingo und Recruit.
Und was versprechen sich diese Pionierkunden von HP Dimension? Die Hersteller unterfüttern die beworbenen Vorteile der Plattform mit eigens durchgeführten Studien, die konkret auf einen Einsatz im betrieblichen Umfeld eingehen. Demnach steige der erfolgreiche Einsatz nonverbaler Kommunikation, also etwa von Mimik, Gesten oder Augenkontakt, gegenüber herkömmlichen Videotelefonielösungen um 39 Prozent. Außerdem falle die Konzentration der Teilnehmer auf das Gespräch während eines Meetings per Google Beam um 14 Prozent höher aus und im Anschluss könnten sich beide an 28 Prozent mehr der im Meeting genannten Informationen erinnern.
Langfristiges Ziel: Mehr Nähe trotz Distanz
Unterm Strich überwiegt dennoch der positive erste Eindruck. Die Technologie funktioniert nicht nur, sie hebt sich qualitativ deutlich und in beeindruckender Weise von klassischer Videotelefonie ab. Der Unterschied ist nicht subtil, sondern unmittelbar spürbar. Gespräche wirken natürlicher, direkter und weniger vermittelt. Es entsteht tatsächlich der Eindruck, sich einen Raum zu teilen und gemeinsam an einem Tisch zu sitzen, statt auf einen Bildschirm zu schauen – die eigene Wahrnehmung wird effektiv ausgetrickst.
Gerade darin liegt das eigentliche Potenzial. Die Technik reduziert Distanz nicht nur funktional, sondern vermittelt erfolgreich ein Gefühl von Nähe und erlaubt nonverbale Kommunikation auf einer Ebene, die bisher nur im realen Kontakt vor Ort möglich war. Gespräche mit weit entfernten Personen – ob im beruflichen Kontext oder privat – werden nicht bloß in der Qualität gesteigert, sprich hinsichtlich Bilschirmauflösung oder Tonqualität, sondern wortwörtlich auf eine neue Dimension gehoben.
ComputerBase hat Informationen zu diesem Artikel von HP im Rahmen einer Veranstaltung des Herstellers in New York unter NDA erhalten. Die Kosten für Anreise, Abreise und Hotelübernachtung wurden von HP getragen. Eine Einflussnahme des Herstellers auf die oder eine Verpflichtung zur Berichterstattung bestand nicht. Die einzige Vorgabe war der frühestmögliche Veröffentlichungszeitpunkt.
Dieser Artikel war interessant, hilfreich oder beides? Die Redaktion freut sich über jede Unterstützung durch ComputerBase Pro und deaktivierte Werbeblocker. Mehr zum Thema Anzeigen auf ComputerBase.
OpenWrt 25.12.2: Zweiter März-Patch bessert bei freier Router-Firmware nach
Am 5. März wurde die neue Hauptversion des auf Linux basierenden, freien Router-Betriebssystems OpenWrt in Version 25.12.0 veröffentlicht. Innerhalb von nur einem Monat wurden nun bereits zwei Patches veröffentlicht, auch, aber nicht nur wegen nötiger Fehlerkorrekturen.
Patch 2 legt Fokus auf Fehlerkorrekturen
Nachdem Patch Nummer 1 am 18. März vor allem aufgrund der gefundenen Schwachstellen veröffentlicht wurde, stellt Patch Nummer 2 nun primär Lösungen für gefundene Fehler bereit:
Auch rund um das Thema WLAN gibt es weitere Fehlerbehebungen und Verbesserungen:
WLAN-Skripte: 160 MHz-Kanäle funktionieren jetzt korrekt; SU-Beamforming-Antennenanzahl wird richtig übergeben.
Hostapd: Speicherleck in der Radio Resource Management-Schnittstelle behoben.
mac80211/ath12k: Temperatur-Sensoren für QCA/IPQ-Geräte hinzugefügt.
mac80211/ath9k: GPIO-Masken aus Device Tree korrekt verarbeitet.
Schwere Latenzprobleme auf 2,4 GHz (bis zu 30 Sekunden Verzögerung) für viele MediaTek-Geräte behoben.
Weitere Stabilitäts- und Multi-Link-Operation-Korrekturen für MT76-Chipsätze (MT7615, MT7915,
MT7996, MT7992, MT792x), u. a. Beacon-Monitoring, Link-Handling und Scan-Race-Bugs.
Schnelle Fehlerbehebungen
Das zweite große Update in so kurzer Zeit zeigt, dass die OpenWrt-Community die Weiterentwicklung des freien Router-Betriebssystems sehr engagiert vorantreibt. Die sehr heterogene Hardware-Basis multipliziert natürlich die möglichen Fehlerquellen, dennoch erlaubt OpenWrt den Weiterbetrieb von Hardware, die von den jeweiligen Herstellern längst nicht mehr mit Updates versorgt werden und liefert zudem Funktionalitäten, die es in der Hersteller-Software nie gegeben hat, obwohl es möglich gewesen wäre, wie zum Beispiel Mesh.
Ausblick
Die Release Notes von 25.12.2 nennen bereits weitere bekannte Fehler, die wohl mit dem nächsten Update behoben werden. Dazu zählen mögliche WLAN-Probleme beim Einsatz eines eines Google Pixel 10 und der WPA3-WLAN-Verschlüsselung sowie ein Problem beim Wechsel von einem zu einem anderen Access Point (Fast Transition) bei der gleichzeitigen Nutzung von WPA3.
GMKtec Evo-T2: Erster Core-Ultra-300-Mini-PC startet heute ab 1.649 Euro
Bild: GMKtec
Der GMKtec EVO-T2, neben dem Asus NUC 16 Pro der erste angekündigte Mini-PC mit Intel Core Ultra 300 „Panther Lake“, startet heute Abend um 19 Uhr in den weltweiten Verkauf. Die ersten 50 Käufer erhalten 60 Euro Rabatt – günstig wird das System aber auch damit nicht.
GMKtecs Evo-T2 startet ab 1.589 Euro
Während Asus den neuen NUC 16 Pro in Folge der Patentstreitigkeiten mit Nokia weiterhin nicht selbst in Deutschland in den Handel bringen kann, Händler das System also höchstens im Ausland kaufen und dann importieren können, schickt sich GMKtec an, der erste Anbieter zu sein.
Der Startschuss für den Verkauf erfolgt heute Abend um 19 Uhr (8 AM PST) im Online-Store des Herstellers. Angeboten werden zum Start Systeme mit RAM und SSD, wobei der RAM bei den X-CPUs verbaut sein muss: Intel schreibt LPDDR5X vor, der verlötet ist. Asus wird den NUC 16 Pro auch in Varianten ohne X-CPU anbieten, sie setzen dann auf regulären DDR5-SO-DIMM.
Die Preise haben es aber bei GMKtec in sich: Mit Core Ultra X7 358H (Arc B390), 64 GB LPDDR5X-8533 und einer 1 TB großen SSD verlangt GMKtec 1.649 Euro. Nur wer zu den ersten 50 Käufern weltweit gehört, erhält 60 Euro Rabatt und zahlt „nur“ 1.589 Euro.
„Pre-Order Launch“ – „Limited Edition: Only 50 Units Available“ (Bild: GMKtec)
Nicht ganz eindeutig geht aus der Vorabankündigung hervor, ob es überhaupt nur 50 Einheiten zu kaufen geben wird, oder sich diese Angabe nur auf die Rabattaktion bezieht. Gegenüber ComputerBase wiederum bestätigt hat GMKtec, dass der Core Ultra X9 388H erst später folgt.
Der EVO-T2 im Überblick
GMKtec bietet den „EVO-T2 Desktop AI Supercomputer“ in zwei Varianten mit Intel Core Ultra X9 388H (Test) und Intel Core Ultra X7 358H (Test) auf den Markt bringen – also jeweils mit großer iGPU Intel Arc B390. Die CPUs sollen kurzfristig bis zu 60 Watt aufnehmen können, dauerhaft sind in drei Profilen die TDP-Klassen 54 Watt, 45 Watt und 35 Watt hinterlegt.
Der GMKtec EVO-T2 mit Intel Panther Lake im Überblick (Bild: GMKtec)
Darüber hinaus bietet GMKtec Dual-LAN mit einmal 10 Gbit/s und einmal 2,5 Gbit/s und auch das Kühlsystem fällt anders als bei anderen Mini-PCs aus: Nicht nur, dass es leuchtet, der zweite vergleichsweise große Lüfter ist auch von außen sichtbar. Windows 11 wird zudem mit einer OpenClaw-AI-Umgebung ausgeliefert.
Der GMKtec EVO-T2 kommt mit zwei Lüftern – für einen Mini-PC ist das ungewöhnlich (Bild: GMKtec)