Die Zauberwelt kehrt zurück, doch nicht alles bleibt beim Alten. Eine Figur rückt stärker ins Rampenlicht, neue Szenen öffnen bislang verschlossene Türen und plötzlich wirkt die bekannte Geschichte größer als je zuvor. Warum viele Fans diesen Stilbruch feiern.
Die neue Harry Potter Serie befindet sich im Endspurt der Dreharbeiten zur ersten Staffel. Seit Monaten kursieren Setbilder und kleine Einblicke. Doch nun sorgt eine Aussage aus dem Cast für besonders viel Gesprächsstoff. HBO plant spürbare Änderungen gegenüber der Buchvorlage und ausgerechnet die Fans reagieren erstaunlich positiv.
Draco Malfoy bekommt mehr Raum in der Harry-Potter-Serie
Im Mittelpunkt der Diskussion steht Draco Malfoy. Verkörpert wird er in der Serie von Lox Pratt. Laut Pratt wird Draco deutlich präsenter sein als im ersten Band und auch als in den Kinofilmen. Während Malfoy in den frühen Büchern oft als klassischer Gegenspieler mit klarer Schablone auftritt, soll die Serie ihn von Beginn an komplexer zeigen. Gedreht wurden unter anderem neue Szenen im Hause Malfoy. Diese Einblicke gab es bisher weder in dieser Form in den Büchern noch auf der Leinwand.
Der Nachfolger für Draco Malfoys Rolle steht ebenfalls fest Bildquelle: BBC/Warner
Mehr Perspektiven jenseits von Harry
Die Anpassungen betreffen nicht nur Draco. Auch andere Figuren sollen stärker beleuchtet werden. Lehrer werden in zusätzlichen Szenen gezeigt, teilweise sogar in ihren privaten Räumen in Hogwarts. Die Erzählung löst sich damit vom strengen Blickwinkel auf Harry und öffnet die Welt breiter. Diese Entscheidung wirkt durchdacht. Gerade in späteren Bänden spielt Dracos Erziehung eine wichtige Rolle. Wer seine Motivation verstehen will, braucht mehr als ein paar bissige Kommentare im Unterricht. Die Serie setzt genau dort an, um diese Lücke für Fans des Franchises zu stopfen.
Fans reagieren überraschend positiv
Normalerweise sorgt jede Abweichung von einer literarischen Vorlage für hitzige Debatten. Doch in diesem Fall fällt das Echo größtenteils wohlwollend aus. Viele begrüßen, dass HBO die Figuren weiterdenkt, statt sie nur neu zu verfilmen. Natürlich gibt es Stimmen, die eine möglichst werkgetreue Umsetzung bevorzugen. Doch der Gedanke, die magische Welt aus neuen Blickwinkeln zu erleben, scheint viele zu reizen.
Was das für die Serie bedeutet
Die neue Harry Potter Serie ist auf mehrere Jahre angelegt und soll auf HBO Max erscheinen. Wenn HBO diesen Kurs beibehält, erwartet Euch keine reine Nacherzählung, sondern eine erweiterte Version des bekannten Stoffes. Mehr Hintergrund, mehr Charaktertiefe und mehr Welt jenseits der Hauptfigur. Für viele Fans klingt das nicht nach Risiko, sondern nach einer Chance. Ob sich dieser Mut langfristig auszahlt, wird sich zeigen. Doch der erste Eindruck deutet darauf hin, dass die Magie auch abseits der Buchseiten funktioniert.
Jetzt weiterlesen
Nach Mega-Erfolg kehrt dieser Prime-Thriller mit neuem Killer zurück
Im Rahmen von HPs Hausmesse Imagine hatte ComputerBase in New York die Gelegenheit, ein Demo-Setup von HP Dimension mit Google Beam auszuprobieren. Dabei konnte das Produkt zur 3D-Videotelefonie in Lebensgröße mächtig Eindruck schinden: Das klappt beeindruckend gut! Die Hürden sind zum Marktstart im Herbst aber gewaltig.
Erster Eindruck: Da sitzt eine Person hinter Glas
Die Tür geht auf, ich betrete einen kleinen Raum. Auf einem halbrunden Schreibtisch steht eine Art Fernseher, davor ein Bürostuhl. Ich setze mich darauf. Und plötzlich sitzt mir eine Person in 3D gegenüber – das ist gar kein Fernseher, sondern nur eine Glasscheibe?!
Erst als ich genauer hinschaue, fällt ein feines Raster auf. Die dreidimensionale Darstellung wirkt nicht perfekt scharf, aber ist durchweg ausreichend, um die Mimik der gegenübersitzenden Person und sogar einzelne Poren auf der Haut klar erkennen zu können. Bewege ich den Kopf nach links oder rechts, verändern sich Perspektive und Raumklang. Das Gefühl bleibt: Da sitzt jemand hinter dem Glas. Ich sehe meinen Gesprächspartner nicht auf einem Bildschirm, sondern einen Meter vor mir, physisch im Raum – nur eben unerreichbar. Denn die Person sitzt nicht hier mit mir in New York, sondern tatsächlich in Austin, Texas.
GIF Google Beam in Aktion (Bild: Google)
Bild 1 von 4
HP Dimension with Google Beam im Hands-on
Dieser erste Eindruck, der sich zum Start meiner kurzen Demo-Session mit HP Dimension einstellt, trägt erstaunlich weit. Auch einfache Gesten wirken glaubwürdig. Als mein Gegenüber einen Apfel anhebt und mir entgegenstreckt, nur wenige Dutzend Zentimeter vor mein Gesicht, entsteht das Gefühl, ich könne danach greifen – aber der Griff führt haptisch ins Leere, wenngleich meine Hand optisch im Apfel verschwindet. Gleichzeitig zeigen sich Grenzen: feine Artefakte, leichtes Flimmern, und eine gewisse Künstlichkeit bei genauerem Hinsehen. Es ist kein perfektes Abbild der Realität, aber nah genug, dass das Gehirn den Unterschied für den Moment ausblendet. Und genau darin liegt die Wirkung des Systems.
Von der Kamera zum gerenderten Gegenüber
Technisch handelt es sich gar nicht um ein klassisches Video, erfahre ich im Anschluss, sondern um eine mehrstufige Rekonstruktion. Sieben Kameras und ein Beamforming-Array bestehend aus zwölf Mikrofonen, allesamt verteilt im Rahmen des 65-Zoll-Panels mit 8K-Auflösung, sowie zwei weitere Mikrofone auf dem Tisch erfassen die Person aus unterschiedlichen Winkeln. Die Daten werden in einem Google-Rechenzentrum in Echtzeit verarbeitet und als synthetisches Bild neu gerendert.
HP Dimension with Google Beam im Hands-on
Bild 1 von 5
HP Dimension with Google Beam im Hands-on
Ich sitze also gar keinem Videostream im klassischen Sinne gegenüber, sondern einem generierten – aber hyperrealistischen – 3D-Abbild, das kontinuierlich an Perspektive und Blickrichtung angepasst wird. Wie Google erklärt, kommt dabei ein speziell trainiertes KI-Modell für volumetrische Videoinhalte zum Einsatz. „Normale“ Foto- oder Videoaufnahmen des Produkts können dem nicht gerecht werden, argumentiert HP, weswegen eigene Aufnahmen der Redaktion in diesem Artikel fehlen. Das ist schade, aus meiner Perspektive aber durchaus nachvollziehbar.
Wie das Display Tiefe erzeugt
Denn die Darstellung erfolgt über ein sogenanntes Lichtfeld-Display respektive mittels Linsenrasterbild. Dabei werden nicht einfach zwei Bilder für linkes und rechtes Auge erzeugt, sondern eine Vielzahl leicht unterschiedlicher Perspektiven gleichzeitig dargestellt. Möglich wird das durch feine Linsen oder Prismen auf dem Panel, die Lichtstrahlen gezielt in verschiedene Richtungen lenkt. Je nach Position der Augen trifft dadurch jeweils ein anderes Teilbild auf die Netzhaut. Bewegt man den Kopf, verschiebt sich dieser Winkel kontinuierlich, analog eines Parallax-Effektes, wodurch neue Perspektiven sichtbar werden. Bekannt ist diese Funktionsweise beispielsweise von Wackelbildern, wie sie etwa auf Grußkarten zu finden sind – bei HP Dimension ist die Qualität aber deutlich höher.
Die effektive Auflösung des 8K-Panels verteilt sich allerdings dennoch auf diese verschiedenen Blickwinkel. Das erklärt, warum Details zwar gut erkennbar sind, aber nicht ganz das Auflösungsvermögen eines klassischen 2D-Displays mit 7.860 × 4.320 Pixeln erreicht wird. Gleichzeitig entstehen potenziell Artefakte wie ein leichtes Flimmern oder Moiré-Effekte, da das Bild aus diskreten View-Zonen besteht. Das System versucht, diese Übergänge durch Tracking von Kopf- und Blickbewegungen möglichst unauffällig zu halten.
Blickkontakt, Licht und Rendering-Tricks
Einen wichtigen Beitrag für das Gefühl eines gewöhnlichen Gesprächs ist außerdem die Anpassung des Blickkontakts: Das bei Videotelofonie übliche Problem, dass die Pupillen des Gesprächspartners nicht auf die eigenen Augen, sondern die Kamera am Rande des Displays gerichtet sind, wird beim Rendern des 3D-Abbilds umgangen. Es entsteht konsequent der Eindruck, mein Gesprächspartner schaue mir in die Augen, wenn er mich denn ansieht; ein natürliches Gefühl von Blickkontakt entsteht. Gleichzeitig werden Beleuchtung und Lichttemperatur angepasst, um Unterschiede zwischen Aufnahme- und Wiedergabeseite auszugleichen.
GIF Google Beam in Aktion (Bild: Google)
Im Kern ist das System damit weniger eine Bildübertragung von Kamera zu Display, sondern integriert eine durchgängige Rendering-Pipeline. Aufnahme, Rekonstruktion und Darstellung sind eng miteinander verzahnt und aufeinander abgestimmt, tatsächlich aufgenommene Pixel sieht am Ende aber keiner der beiden Anwender. Ist mir das in irgendeiner Art und Weise aufgefallen? Nein, tatsächlich gar nicht.
Nichtsdestoweniger berichtete ein anderer Journalist, der an der Demo-Session teilnahm, nach seinem Beam-Telefonat von leichten Kopfschmerzen und müden Augen, was er aber von allerhand 3D-Displays gewohnt sei. In unserer Runde war das ein Einzelfall und auch ich kann mich nicht über derartige Nebenwirkungen beschweren. Es ist aber offen, inwiefern auch andere Menschen bei der Verwendung von HP Dimension mit vergleichbaren Problemen zu kämpfen haben – und inwiefern die Hersteller diese mildern oder gar abstellen können.
Spatial Audio und Live-Übersetzung
Für ein authentisches Gesprächserlebnis ist aber offenkundig auch der Ton relevant. Die zahlreichen Mikrofone erfassen die Stimme und ermöglichen eine räumliche Wiedergabe. Dabei übernehmen die beiden Mikrofone auf dem Tisch die eigentliche Sprachaufnahme, wohingegen die zusätzlichen Mikrofone im Rahmen zur Positionsbestimmung mittels Triangulation dienen. Über vier Lautsprecher lässt sich die Stimme anschließend so im Raum platzieren, dass sie akustisch mit der dargestellten Person übereinstimmt.
HP und Google sehen außerdem vor, dass das fertige Produkt in Echtzeit zwischen verschiedenen Sprachen der Gesprächspartner übersetzen können soll. Dabei soll das System dynamisch auch Tonfall, Tonhöhe und Charakteristiken der Stimme berücksichtigen und die Audioausgabe entsprechend anpassen. Basis der Übersetzung sei – wenig verwunderlich – ein KI-Modell. Diese Funktion konnte ComputerBase aber im Rahmen von Präsentation und Demo weder beobachten noch selbst ausprobieren.
Kooperation zwischen Google und HP
Die zugrunde liegende Technologie stammt ursprünglich von Google und basiert auf Project Starline. Dort wird die 3D-Rekonstruktion, das Rendering sowie die gesamte Plattform entwickelt und betrieben. Auch die Cloud-Infrastruktur und die Streaming-Pipeline sind Teil dieses Systems, das unter dem Namen Google Beam vermarktet wird.
HP übernimmt mit Dimension dagegen die Rolle des Hardware- und Systemintegrators. Das Unternehmen baut das Display, integriert die Kameras, Mikrofone und Recheneinheit und sorgt dafür, dass das System als geschlossenes Produkt zuverlässig funktioniert und vermarktet werden kann. Dazu gehören auch Aspekte wie Kalibrierung, thermisches Design und die Integration in Meetingräume.
Voraussetzungen und Anwendungsbereich
Das gesamte System ist stark auf kontrollierte Bedingungen angewiesen. Sitzposition, Abstand zum Display und Beleuchtung sind vorgegeben und lassen nur wenig Spielraum. Der halbrunde Tisch vor dem Display beispielsweise ist exakt so dimensioniert, dass die Gesprächspartner den richtigen Abstand zu Kameras, Mikrofon-Array und Panel wahren. Und Lichtquellen sollten idealerweise nur hinter dem Display platziert sein, weswegen HP Dimension über ein starkes Hintergrundlicht verfügt und die sonstige Beleuchtung im Demo-Raum ausgeschaltet war. Ein Einsatz im direkten Sonnenlicht etwa ist nicht möglich.
Schnelles Internet und viel Energie nötig
Hinzu kommt die Abhängigkeit von passender Infrastruktur. Für den Betrieb werden stabile Internetverbindungen benötigt. HP empfiehlt eine Bandbreite im Bereich von mindestens 50 Mbit/s symmetrisch sowie eine Paketumlaufzeit von unter 40 ms. Das setzt nicht nur Vorgaben für die Anbindung der beiden HP-Dimension-Module ans Internet, sondern auch die Verfügbarkeit passender Rechenzentren voraus – bei einer derart latenzsensiblen Anwendung ist es äußerst ungünstig, wenn passende Rechenkapazität gerade nur auf der anderen Seite des Planeten verfügbar ist. Anfällig für Internetprobleme ist das System aber auch im Idealfall noch: Während meiner Hands-on-Session waren zeitweise Bild und Ton nicht synchron, was in dieser Form bei anderen Probanden jedoch nicht vorkam.
Erwähnenswert ist für die vorgestellte Implementierung auch der Energiebedarf: 600 Watt verbraucht ein HP-Dimension-Modul während eines laufenden Videoanrufs. Die Rechenleistung in der Cloud ist dabei selbstverständlich noch außen vor, doch zu diesem Thema bleibt Google bislang generell vage – Details zur Hard- und Software gibt es nicht. Die lokale Recheneinheit des Beam-Setups beschreibt HP hingegen salopp als „modifizierte Chromebox“.
Einsatz heute: Klar abgegrenzt
Aktuell ist das System auf Gespräche zwischen zwei Personen ausgelegt. Erweiterungen auf mehrere Teilnehmer oder komplexere Szenarien sind zwar vorgesehen, stellen aber aktuell noch erhebliche technische Herausforderungen dar, schildert HP auf Nachfrage. Einerseits geht es darum, mehr als nur zwei HP-Dimension-Module miteinander zu verbinden, wo sich der Hersteller für die nahe Zukunft zuversichtlich zeigt. Aber insbesondere die korrekte Darstellung aus verschiedenen Blickwinkeln für mehrere Betrachter vor einem Modul sei komplex und könnte zusätzliche Hardware oder neue Displayansätze erfordern. Außerdem gelte es noch zu erproben, inwiefern das Gefühl eines authentischen Gesprächs aufrecht erhalten werden könne, wenn die gegenübersitzende Person nicht in Lebensgröße dargestellt werden kann, falls kleinere Displays zum Einsatz kommen.
HP Dimension with Google Beam (Bild: HP)
Bild 1 von 3
HP Dimension with Google Beam (Bild: HP)
Entsprechend bleibt der Einsatzbereich vorerst eng gefasst, denn auch die finanziellen Hürden sind hoch. Die erste kommerzielle Umsetzung, HP Dimension mit Google Beam – also genau das Modul, das in einer Entwicklungsversion von mir ausprobiert wurde –, liegt früheren Angaben zufolge bei rund 25.000 US-Dollar pro Gerät. HP gab aber zu verstehen, dass das fertige Produkt zum Start im Herbst 2026 realistisch eher noch teurer werde. Ziel sei es aber, beschwichtigt HP auf Nachfrage, den Preis mit zukünftigen Generationen zu senken.
Laufende Kosten für die Google-Server
Hinzu kommen aber in jedem Fall noch laufende Lizenzkosten für die Plattform von Google. Pro Modul sollen 5.500 US-Dollar im Jahr anfallen, was letztlich die nötige Rechenleistung in der Cloud bezahlen soll. Und für eine Verbindung werden offenkundig zwei dieser Systeme benötigt, was die effektiven Kosten für das erste Jahr HP Dimension auf über 60.000 US-Dollar hebt. In der Konsequenz richtet sich die Lösung vorerst an Unternehmen. Erste Kunden nennen HP und Google bereits: Deloitte, Salesforce, Citadel, NEC, Hackensack Meridian Health, Duolingo und Recruit.
Und was versprechen sich diese Pionierkunden von HP Dimension? Die Hersteller unterfüttern die beworbenen Vorteile der Plattform mit eigens durchgeführten Studien, die konkret auf einen Einsatz im betrieblichen Umfeld eingehen. Demnach steige der erfolgreiche Einsatz nonverbaler Kommunikation, also etwa von Mimik, Gesten oder Augenkontakt, gegenüber herkömmlichen Videotelefonielösungen um 39 Prozent. Außerdem falle die Konzentration der Teilnehmer auf das Gespräch während eines Meetings per Google Beam um 14 Prozent höher aus und im Anschluss könnten sich beide an 28 Prozent mehr der im Meeting genannten Informationen erinnern.
Langfristiges Ziel: Mehr Nähe trotz Distanz
Unterm Strich überwiegt dennoch der positive erste Eindruck. Die Technologie funktioniert nicht nur, sie hebt sich qualitativ deutlich und in beeindruckender Weise von klassischer Videotelefonie ab. Der Unterschied ist nicht subtil, sondern unmittelbar spürbar. Gespräche wirken natürlicher, direkter und weniger vermittelt. Es entsteht tatsächlich der Eindruck, sich einen Raum zu teilen und gemeinsam an einem Tisch zu sitzen, statt auf einen Bildschirm zu schauen – die eigene Wahrnehmung wird effektiv ausgetrickst.
Gerade darin liegt das eigentliche Potenzial. Die Technik reduziert Distanz nicht nur funktional, sondern vermittelt erfolgreich ein Gefühl von Nähe und erlaubt nonverbale Kommunikation auf einer Ebene, die bisher nur im realen Kontakt vor Ort möglich war. Gespräche mit weit entfernten Personen – ob im beruflichen Kontext oder privat – werden nicht bloß in der Qualität gesteigert, sprich hinsichtlich Bilschirmauflösung oder Tonqualität, sondern wortwörtlich auf eine neue Dimension gehoben.
ComputerBase hat Informationen zu diesem Artikel von HP im Rahmen einer Veranstaltung des Herstellers in New York unter NDA erhalten. Die Kosten für Anreise, Abreise und Hotelübernachtung wurden von HP getragen. Eine Einflussnahme des Herstellers auf die oder eine Verpflichtung zur Berichterstattung bestand nicht. Die einzige Vorgabe war der frühestmögliche Veröffentlichungszeitpunkt.
Dieser Artikel war interessant, hilfreich oder beides? Die Redaktion freut sich über jede Unterstützung durch ComputerBase Pro und deaktivierte Werbeblocker. Mehr zum Thema Anzeigen auf ComputerBase.
OpenWrt 25.12.2: Zweiter März-Patch bessert bei freier Router-Firmware nach
Am 5. März wurde die neue Hauptversion des auf Linux basierenden, freien Router-Betriebssystems OpenWrt in Version 25.12.0 veröffentlicht. Innerhalb von nur einem Monat wurden nun bereits zwei Patches veröffentlicht, auch, aber nicht nur wegen nötiger Fehlerkorrekturen.
Patch 2 legt Fokus auf Fehlerkorrekturen
Nachdem Patch Nummer 1 am 18. März vor allem aufgrund der gefundenen Schwachstellen veröffentlicht wurde, stellt Patch Nummer 2 nun primär Lösungen für gefundene Fehler bereit:
Auch rund um das Thema WLAN gibt es weitere Fehlerbehebungen und Verbesserungen:
WLAN-Skripte: 160 MHz-Kanäle funktionieren jetzt korrekt; SU-Beamforming-Antennenanzahl wird richtig übergeben.
Hostapd: Speicherleck in der Radio Resource Management-Schnittstelle behoben.
mac80211/ath12k: Temperatur-Sensoren für QCA/IPQ-Geräte hinzugefügt.
mac80211/ath9k: GPIO-Masken aus Device Tree korrekt verarbeitet.
Schwere Latenzprobleme auf 2,4 GHz (bis zu 30 Sekunden Verzögerung) für viele MediaTek-Geräte behoben.
Weitere Stabilitäts- und Multi-Link-Operation-Korrekturen für MT76-Chipsätze (MT7615, MT7915,
MT7996, MT7992, MT792x), u. a. Beacon-Monitoring, Link-Handling und Scan-Race-Bugs.
Schnelle Fehlerbehebungen
Das zweite große Update in so kurzer Zeit zeigt, dass die OpenWrt-Community die Weiterentwicklung des freien Router-Betriebssystems sehr engagiert vorantreibt. Die sehr heterogene Hardware-Basis multipliziert natürlich die möglichen Fehlerquellen, dennoch erlaubt OpenWrt den Weiterbetrieb von Hardware, die von den jeweiligen Herstellern längst nicht mehr mit Updates versorgt werden und liefert zudem Funktionalitäten, die es in der Hersteller-Software nie gegeben hat, obwohl es möglich gewesen wäre, wie zum Beispiel Mesh.
Ausblick
Die Release Notes von 25.12.2 nennen bereits weitere bekannte Fehler, die wohl mit dem nächsten Update behoben werden. Dazu zählen mögliche WLAN-Probleme beim Einsatz eines eines Google Pixel 10 und der WPA3-WLAN-Verschlüsselung sowie ein Problem beim Wechsel von einem zu einem anderen Access Point (Fast Transition) bei der gleichzeitigen Nutzung von WPA3.
GMKtec Evo-T2: Erster Core-Ultra-300-Mini-PC startet heute ab 1.649 Euro
Bild: GMKtec
Der GMKtec EVO-T2, neben dem Asus NUC 16 Pro der erste angekündigte Mini-PC mit Intel Core Ultra 300 „Panther Lake“, startet heute Abend um 19 Uhr in den weltweiten Verkauf. Die ersten 50 Käufer erhalten 60 Euro Rabatt – günstig wird das System aber auch damit nicht.
GMKtecs Evo-T2 startet ab 1.589 Euro
Während Asus den neuen NUC 16 Pro in Folge der Patentstreitigkeiten mit Nokia weiterhin nicht selbst in Deutschland in den Handel bringen kann, Händler das System also höchstens im Ausland kaufen und dann importieren können, schickt sich GMKtec an, der erste Anbieter zu sein.
Der Startschuss für den Verkauf erfolgt heute Abend um 19 Uhr (8 AM PST) im Online-Store des Herstellers. Angeboten werden zum Start Systeme mit RAM und SSD, wobei der RAM bei den X-CPUs verbaut sein muss: Intel schreibt LPDDR5X vor, der verlötet ist. Asus wird den NUC 16 Pro auch in Varianten ohne X-CPU anbieten, sie setzen dann auf regulären DDR5-SO-DIMM.
Die Preise haben es aber bei GMKtec in sich: Mit Core Ultra X7 358H (Arc B390), 64 GB LPDDR5X-8533 und einer 1 TB großen SSD verlangt GMKtec 1.649 Euro. Nur wer zu den ersten 50 Käufern weltweit gehört, erhält 60 Euro Rabatt und zahlt „nur“ 1.589 Euro.
„Pre-Order Launch“ – „Limited Edition: Only 50 Units Available“ (Bild: GMKtec)
Nicht ganz eindeutig geht aus der Vorabankündigung hervor, ob es überhaupt nur 50 Einheiten zu kaufen geben wird, oder sich diese Angabe nur auf die Rabattaktion bezieht. Gegenüber ComputerBase wiederum bestätigt hat GMKtec, dass der Core Ultra X9 388H erst später folgt.
Der EVO-T2 im Überblick
GMKtec bietet den „EVO-T2 Desktop AI Supercomputer“ in zwei Varianten mit Intel Core Ultra X9 388H (Test) und Intel Core Ultra X7 358H (Test) auf den Markt bringen – also jeweils mit großer iGPU Intel Arc B390. Die CPUs sollen kurzfristig bis zu 60 Watt aufnehmen können, dauerhaft sind in drei Profilen die TDP-Klassen 54 Watt, 45 Watt und 35 Watt hinterlegt.
Der GMKtec EVO-T2 mit Intel Panther Lake im Überblick (Bild: GMKtec)
Darüber hinaus bietet GMKtec Dual-LAN mit einmal 10 Gbit/s und einmal 2,5 Gbit/s und auch das Kühlsystem fällt anders als bei anderen Mini-PCs aus: Nicht nur, dass es leuchtet, der zweite vergleichsweise große Lüfter ist auch von außen sichtbar. Windows 11 wird zudem mit einer OpenClaw-AI-Umgebung ausgeliefert.
Der GMKtec EVO-T2 kommt mit zwei Lüftern – für einen Mini-PC ist das ungewöhnlich (Bild: GMKtec)