Connect with us

Apps & Mobile Entwicklung

Intel Arc B390 vs. Nvidia GeForce RTX 5060 Laptop GPU im Test


Was den zahlreichen Tests zur Leistung der Panther-Lake-iGPU, Intel Arc B390, bisher noch fehlte, war der Vergleich mit einer kleinen mobilen Nvidia GeForce RTX 5000 Laptop GPU. Hier ist er: Intel Arc B390 vs. Nvidia GeForce RTX 5060 Laptop GPU im Test.

Arc B390 vs. RTX 5060 Laptop GPU

Die Nvidia GeForce RTX 5060 Laptop GPU ist nicht die kleine mobile aktuelle Blackwell-GeForce von Nvidia, denn mit etwas Zeitversatz hatte Nvidia im Frühjahr 2025 auch noch eine GeForce RTX 5050 Laptop GPU in den Markt entlassen. Ein solches Muster liegt der Redaktion aktuell allerdings nicht vor.

Die GeForce RTX 5060 Laptop GPU bietet 30 Prozent mehr Shader, beim Speicher (8 GB GDDR7) und Speicherinterface (128 Bit) liegen beide gleich auf. Das gilt beinahe auch für die von Nvidia freigegebene TDP-Bandbreite, die bei der RTX 5050 Laptop GPU allerdings noch einmal 10 Watt niedriger ausfallen darf.

GeForce RTX 5000 Laptop GPU vs. RTX 4000 Laptop GPU im Vergleich

Testergebnisse

Die getestete Nvidia GeForce RTX 5060 Laptop GPU ist neben einem Core Ultra 9 386H im neuen Lenovo Yoga Pro 7i Gen 11 (Lenovo Store) verbaut.

Die Nvidia GeForce RTX 5060 Laptop GPU im Lenovo Yoga Pro 7i Gen 11
Die Nvidia GeForce RTX 5060 Laptop GPU im Lenovo Yoga Pro 7i Gen 11

Taktraten und TDP

Im höchsten Leistungsprofil stehen ihr laut Sensor-Daten durchschnittlich 79 Watt in den Benchmarks zu. Damit liegt sie ziemlich genau in der Mitte der von Nvidia definierten TDP-Bandbreite für die RTX 5060 Laptop GPU, die von 45 bis 125 Watt reicht (inklusive bis zu 25 Watt über Dynamic Boost 2.0, die vom Power-Budget der CPU kommen, wenn sie die Leistung nicht benötigt). Der durchschnittliche Takt liegt interessanterweise auf dem Niveau der aktuellen iGPUs von Intel.

Gaming-Benchmarks

Getestet wurde die GeForce RTX 5060 Laptop GPU im zuletzt schon für iGPUs genutzten Parcours. Nutzer dürften in der Praxis zwar etwas anspruchsvollere Settings fahren, als sie im Test zum Einsatz kamen, für einen Vergleich der beiden Plattformen bieten sie sich aber auch auf der GeForce noch an.

Im Durchschnitt kann sich die GeForce RTX 5060 Laptop GPU bei circa 80 Watt TDP um gut 61 Prozent von der schnellsten bisher getesteten Intel Arc B390 GPU (hohe TDP, kombiniert mit LPDDR5X-9600) absetzen. Die GeForce RTX 5050 für Desktop-PCs liegt noch einmal sieben Prozent voraus vor der RTX 5060 Laptop GPU. Im Vergleich zur kleinen Panther-Lake-iGPU „Intel Graphics“ ist der Leistungszuwachs durch den Einsatz der GeForce mit Faktor 3,7 enorm – die im Lenovo Yoga Pro 7i Gen 11 gewählte Kombination ergibt damit durchaus Sinn.

Leistungsrating Full HD

    • GeForce RTX 5050 8 GB
      Ryzen 7 9800X3D, 32 GB

    • GeForce RTX 5060 Laptop GPU 8 GB
      Yoga Pro 7i, „80 W GPU“, 8533

    • Ryzen AI Max+ 395 II
      Beelink GTR9 Pro, 120 W, 8000

    • Ryzen AI Max+ 395 I
      Beelink GTR9 Pro, 65 W, 8000

    • Core Ultra X9 388H I, Arc B390
      Zenbook Duo, „65 W“, 9600

    • Core Ultra X7 358H II, Arc B390
      Galaxy Book 6 Pro, „65 W“, 9600

    • Core Ultra X7 358H I, Arc B390
      Prestige 14 AI+, „65 W“, 8533

    • Core Ultra X9 388H II, Arc B390
      Zenbook Duo, „25 W“, 9600

    • Ryzen AI 9 HX 370 I
      SER9, „65 W“, 7500

    • Core Ultra 9 285H
      GTi15 Ultra, „65 W“, 5600

    • Ryzen AI 9 HX 370 II
      Zenbook S16, „24 W“, 7500

    • Core Ultra 9 386H I, Intel Graphics
      Yoga Pro 7i, Intel Graphics, 8533

    • Core Ultra 9 185H
      X14 Pro, „65 W“, 7500

Einheit: Prozent, Geometrisches Mittel

Nachfolgend sind die für den Test genutzten Einstellungen sowie die Einzelergebnisse aufgeführt:

Die Benchmark-Settings

Fazit

Nein, eine Nvidia GeForce RTX 5060 Laptop GPU mit nur circa 80 Watt TGP statt maximal erlaubten 115 + 25 Watt (Standard TDP + Dynamic Boost 2.0) ist für Intels Arc B390 in schnellster Ausführung nicht erreichbar. Etwas über 60 Prozent mehr FPS liefert die zweitkleinste mobile Blackwell-dGPU im Vergleich und fährt zugleich auch das umfassendere Featureset auf (CUDA, DLSS 4.5 etc.). Dafür genehmigt sich das Gesamtsystem aber auch deutlich mehr Leistung (47 Watt für Core Ultra 300 mit Arc B390 versus 79 Watt allein für die GeForce).

Auch eine noch weiter in der TDP gedrosselte RTX 5060 Laptop GPU wird einen deutlichen Vorsprung behalten, bei einer GeForce RTX 5050 Laptop GPU dürfte das nicht mehr der Fall sein. ComputerBase kann aktuell jedoch noch keine eigenen Benchmarks vorweisen, die das belegen.

Dieser Artikel war interessant, hilfreich oder beides? Die Redaktion freut sich über jede Unterstützung durch ComputerBase Pro und deaktivierte Werbeblocker. Mehr zum Thema Anzeigen auf ComputerBase.



Source link

Apps & Mobile Entwicklung

Die Ratatouille-KI: Claude Code im Langzeittest – wo es vibed und wo es hakt


Agenten sind der aktuelle KI-Hype. Autonom komplexe Aufgaben erledigen ist das Versprechen. Was mit einem Agenten-System wie Claude Code oder Cowork derzeit möglich ist und welche Sicherheitsrisiken bestehen, analysiert ComputerBase. Ein Bericht über Erfahrungen aus einem über Wochen laufenden Langzeittest.

Der Anfang: Coding ohne Programmierer

Wie schnell sich Andrej Karpathys Einschätzung wandelte, ist bemerkenswert. Noch im Oktober 2025 erklärte der KI-Forscher und Ex-OpenAI-Mitarbeiter im Gespräch mit dem Podcaster Dwarkesh Patel, KI-Agenten seien nicht ausgereift genug. Sie funktionieren schlicht zu schlecht, um Menschen zu ersetzen. Über den Jahreswechsel hinweg beschrieb Karpathy auf X, wie abgehängt er sich mittlerweile als Programmierer fühlt.

Neue Modelle für die Agenten-Tools wie Anthropics Claude Code veränderten rasant den Workflow. Wie gravierend der Wandel ist, verdeutlicht Karpathy anhand des Anteils, den Agenten für ihn beim Coding übernehmen: Im November waren es noch 20 Prozent, im Dezember bereits 80 Prozent. Binnen Wochen erlebte er den gravierendsten Einschnitt in seiner Coding-Karriere.

This is easily the biggest change to my basic coding workflow in ~2 decades of programming and it happened over the course of a few weeks.

Andrej Karpathy

Allein steht er mit seinen Beobachtungen nicht. In der New York Times beschreibt der Entwickler und Startup-Gründer Manu Ebert, wie drei Agenten mittlerweile seinen klassischen Coder-Job übernehmen: Einer der KI-Assistenten programmiert, ein weiterer testet die Ergebnisse, ein dritter überwacht den Prozess. Statt von Programmieren ist in Silicon-Valley-Kreisen mittlerweile von „Agentic Engineering“ – also agentischer Software-Entwicklung – die Rede.

Der Wandel, der sich aktuell anbahnt, geht jedoch über das Coding hinaus. Sebastian Findeisen, Professor für Wirtschaftspolitik an der Universität Konstanz, erklärt im Rahmen eines Briefings des Science Media Center, dass die Agenten auch bald klassische Büroaufgaben übernehmen wie etwa „Rechnungen korrekt verbuchen, Haushaltsführung in Unternehmen oder einfache und schnelle Aufbereitung von Daten“. „Die Leute verstehen noch nicht, was auf sie zukommt“, ist die Einschätzung des Wetzlarer KI-Unternehmers Sven Herchenhein im Gespräch mit ComputerBase.

Es ist leicht, begeistert zu sein

Wenn man die Agenten selbst testet, springt der Funke schnell über. Es ist ein Gefühl wie im Film Ratatouille. Wenn sich Ideen für eine App in Prompt-Vorgaben übertragen lassen, die Python-Umgebung rotiert, man API-Key-Abrufe bestätigt und den Code auf GitHub hochlädt, fühlt es sich an, als säße einem die Ratte Remy auf den Schultern. Nur verhilft sie in diesem Fall nicht einem Küchenjungen zur Haute Cuisine, sondern völlig Unbedarften zu Coding-Erfolgen. Magische Momente.

Das Problem ist nur: Wenn Nutzer plötzlich Technik entwickeln können, ohne ein Gespür für Konsequenzen und Risiken zu haben, ist das auch etwa so charmant wie eine Ratte in einer Restaurantküche. Die technische Hygiene leidet enorm, Komplexität als Schutzmechanismus verschwindet.

ComputerBase testet Claude Code seit mehreren Wochen. Nach der ersten Begeisterung geht es vor allem um die Frage: Was bleibt auf Dauer? Öfter gab es schon den ChatGPT-Moment, bei dem der erste Eindruck eines neuen KI-Dienstes erstaunlich war, man aber in der Folge feststellte, dass es im Alltag doch noch hakt. Weil Fehler auftauchten. Oder weil Lösungen für Routine-Aufgaben so umständlich waren, dass man für das Prompten länger brauchte als für den eigentlichen Job.

Nun also der Erfahrungsbericht aus dem Alltagstest. ComputerBase analysiert, was man selbst mit den Agenten bewerkstelligen kann, wie die KI-Agenten bereits jetzt die Arbeitswelt verändern und welche Sicherheitsrisiken bestehen.

Wie funktioniert Claude Code

Um Claude Code nutzen zu können, benötigt man mindestens ein Pro-Abonnement, für das 20 US-Dollar im Monat fällig sind. Der primäre Zugang für Claude Code ist das Kommandozeilen-Interface (Command Line Interface, CLI). Die CLI-Version hat den Vorteil, dass Dateien und Ordner direkt auf dem Rechner bearbeitet werden können. Vorteile gibt es auch bei Automatisierungsroutinen und der Git-Integration. Sprich: Wer mit dem Agenten programmieren will, profitiert davon, wenn Claude Code in einem Terminal wie Windows PowerShell läuft. Mit reduziertem Funktionsumfang lässt sich der Agentenmodus aber auch über die Web- und Desktop-App von Claude nutzen.

Claude Code läuft in Windows PowerShell
Claude Code läuft in Windows PowerShell

Die Installation der CLI-Version von Claude Code ist simpel, die entsprechenden Befehle befinden sich auf der Webseite von Anthropic. Gibt es Probleme, reicht es in der Regel, diese beim Claude-Assistenten einzugeben. In der Desktop-App gibt es mit Cowork noch einen separaten Agenten-Modus, der sich explizit an Nutzer richtet, die nicht im Terminal arbeiten wollen. Dieser ist dann auch speziell für allgemeine Aufgaben wie Datenverarbeitung geeignet. Noch befindet sich Cowork im Betastatus und hat kleinere Macken. So kann dieser derzeit etwa nur auf Ordner zugreifen, die im Benutzerverzeichnis von Windows liegen.

Bemerkenswert bei dem KI-Agenten ist vor allem die Fähigkeit, dass dieser eigenständig Apps wie den Browser bedienen kann. Möglich ist das über Plugins wie beim Chrome-Browser oder die sogenannten Skills. Bei den Skills handelte es sich um vorgefertigte Pakete mit Skripten und Anweisungen, die den Agenten für bestimmte Aufgaben wie Excel-Arbeiten spezialisieren. Es ist also ein Set an maßgeschneiderten Werkzeugen, um Programme zu bedienen.

Alternativen zu Anthropics Agenten

Cowork gibt einen Ausblick auf die Zukunft. Während die CLI-Version von Claude Code noch vergleichsweise umständlich zu bedienen ist, werden sich die Agenten-Tätigkeiten künftig direkt in die Apps verlagern. OpenAI hat mit Codex ohnehin schon einen direkten Claude-Code-Konkurrenten. Künftig soll dieser mit ChatGPT zu einer Superapp werden. Mit Copilot Cowork hat Microsoft Anthropics Agenten bereits für die Windows-Welt adaptiert. Und Microsoft will Windows 11 ohnehin zum agentischen Betriebssystem umbauen.

Was die Pläne im Endeffekt bedeuten: Agenten werden in diesem Jahr im Alltag der meisten Nutzer auftauchen – sei es über die ChatGPT-App oder über Windows. Mit OpenClaw gibt es zudem den viel gehypten Open-Source-Agenten, den viele Hersteller nutzen wollen. AMD präsentiert den Ryzen AI Max+ als Plattform, um Agenten samt Modellen komplett lokal laufen zu lassen, während Nvidia NemoClaw als Umgebung für KI-PCs wie den DGX Spark (Test).

Bei diesem Test geht es aber zunächst nur um Claude Code. Anthropics Lösung bietet für den Einstieg die ausgereifteste Umgebung.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Im Test vor 15 Jahren: Die unerwartete Radeon HD 6790 gegen die GTX 550 Ti


Im Test vor 15 Jahren: Die unerwartete Radeon HD 6790 gegen die GTX 550 Ti

Überraschend schickte AMD vor 15 Jahren die Radeon HD 6790 (Test) ins Rennen, um der GeForce GTX 550 Ti den Wind aus den Segeln zu nehmen. Im Test gelang das problemlos, wobei das größte Problem der Radeon HD 6790 und der GeForce GTX 550 Ti eine andere, ältere GeForce war.

Bewährtes Holzhammerrezept

AMD verwendete die Barts-GPU aus der Radeon HD 6850 als Herzstück der Radeon HD 6790, setzte aber kräftig den Rotstift an. So wurde der 1,7 Milliarden Transistoren starke Chip von 192 Shader-Einheiten auf 160 beschnitten, büßte die Hälfte der ROPs ein und verlor jeweils acht TMUs und TAUs. Im Gegenzug hob der Hersteller die Taktraten der GPU von 775 auf 840 MHz und die des Speichers von 2.000 auf 2.100 MHz an. Verglichen mit der Radeon HD 5770 war die Rohleistung somit auf dem Papier etwas geringer, wobei die Speicherbandbreite mit 134 GByte/s gegenüber 76,8 GByte/s auf der Radeon HD 6790 deutlich höher ausfiel. Der verbesserte Tesselator der Barts-GPU sollte zudem in DirectX-11-Titeln helfen.

Die Radeon HD 6790 im Test stammte von AMD und sollte in diesem Referenzdesign nie auf den Markt kommen. AMD übernahm dafür schlicht die Platine inklusive aller Bauteile der Radeon HD 6870. Damit landete die Grafikkarte bei einer Länge von 25 cm. Der Dual-Slot-Kühler setzte auf einen Kupferkern auf der GPU, der über drei Heatpipes mit den Aluminiumlamellen verbunden war. Diese wurden wiederum von einem 70-mm-Radiallüfter mit Luft versorgt. Die zwei 6-Pin-PCIe-Stecker sorgten zusammen mit dem PCIe-Steckplatz ohne Probleme für die maximal spezifizierte Leistungsaufnahme von 150 Watt.

Als zweites Modell trat die Sapphire Radeon HD 6790 an, die beim PCB und dem Kühler auf Eigenentwicklungen setzte. Mit 23 cm war die Platine der Sapphire-Karte etwas kürzer als beim Referenzdesign, aufgrund des überstehenden Kühlers war die Gesamtlänge jedoch nahezu identisch. Der Dual-Slot-Kühler besaß einen Kupferkern, der ebenfalls mit drei Heatpipes mit den Aluminiumlamellen verbunden war. Der Lüfter war mit 85 mm Durchmesser etwas größer als beim Referenzdesign. Bei den Taktraten und der Stromversorgung legte der Hersteller keine Hand an.

Die GeForce GTX 550 Ti hatte keine Chance

Die Radeon HD 6790 ließ die GeForce GTX 550 Ti ohne Probleme hinter sich. In den Tests lag der Leistungsvorsprung zwischen 6 und 19 Prozent, wobei das Zuschalten von Kantenglättung den Vorsprung generell etwas eindämpfte. Auf die Radeon HD 5770 waren es im Mittel zwischen 7 und 14 Prozent. Das selbst gesteckte Ziel, die GeForce GTX 550 Ti abzuhängen, erfüllte AMD somit. Das eigentliche Problem war für beide Grafikkarten aber die GeForce GTX 460 (768 MByte) der letzten Generation. Diese war um 3 bis 10 Prozent schneller als die Radeon und 16 bis 22 Prozent vor der GeForce GTX 550 Ti. Dabei lag der Preis der GeForce GTX 460 (768 MByte) mit 108 Euro sogar ein Stück unter den 119 Euro der Radeon HD 6790 und den 116 Euro der GeForce GTX 550 Ti.

Abseits der Rohleistung schlug sich die Sapphire Radeon HD 6790 solide. Die GPU-Temperatur war völlig im grünen Bereich und die Lautstärke war vergleichsweise gering. Bei der Leistungsaufnahme steckte die Radeon 6790 zurück und wurde sowohl von der GeForce GTX 550 Ti als auch der Radeon HD 5770 geschlagen. Selbst die schnellere Radeon HD 6850 benötigte weniger Energie unter Last. Für Übertakter bot die Grafikkarte gutes Potenzial: Im Test konnten bis zu 13 Prozent mehr Leistung durch angehobene Taktraten erreicht werden.

Fazit

Die GeForce GTX 550 Ti hatte gegen die Radeon HD 6790 keine Chance. Die Leistung der Grafikkarte war gut, die Temperaturen ausgezeichnet und die Lautstärke nicht zu störend. Insgesamt konnte die Radeon HD 6790 überzeugen. Preislich hatte sie mit 119 Euro gegenüber der älteren und schnelleren GeForce GTX 460 – ebenso wie die GeForce GTX 550 Ti – jedoch das Nachsehen. Das eigentliche Problem war nicht der aktuelle Gegenspieler, sondern das ältere Modell eine Klasse höher.

In der Kategorie „Im Test vor 15 Jahren“ wirft die Redaktion seit Juli 2017 jeden Samstag einen Blick in das Test-Archiv. Die letzten 20 Artikel, die in dieser Reihe erschienen sind, führen wir nachfolgend auf:

Noch mehr Inhalte dieser Art und viele weitere Berichte und Anekdoten finden sich in der Retro-Ecke im Forum von ComputerBase.



Source link

Weiterlesen

Apps & Mobile Entwicklung

OptiScaler 0.9: Faster, harder, scaler – jetzt auch mit FSR 4 für Vulkan


OptiScaler 0.9: Faster, harder, scaler – jetzt auch mit FSR 4 für Vulkan

OptiScaler ermöglicht den Wechsel der in Spielen integrierten Upscaler- und Frame-Generation-Methode. Das Open-Source-Tool funktioniert dabei nicht nur auf dem Windows-Desktop, sondern auch unter Linux und auf dem Steam Deck. Version 0.9 überarbeitet die Frame Generation und bringt FSR 4 für Vulkan.

Frame Generation wurde überarbeitet

Mit OptiScaler 0.9 ziehen Intels Frame Generation und AMDs mit Redstone eingeführte FSR4 Frame Generation („AI Frame Generation“) in das Tool ein. Passenderweise führen die Entwickler auch einen Shortcut für den Wechsel der Frame Generation ein, welcher standardmäßig auf Ende liegt.

Auch die mit dem Tool ausgelieferten Pakete wurden auf eine neue Version gebracht. FakeNVAPI liegt nun in Version 1.4 vor und Nukems dlssg-to-fsr3 als Version 0.130. Insgesamt führt das Update zu einer deutlich verbesserten HUD-Darstellung dank der neuen Technologien.

Auch MFG auf Arc

Durch die Nutzung des XeSS 3.0 SDKs wird nun auch Multi Frame Generation für Xe-Chips unterstützt und läuft bis dato auch nur auf Arc-Grafikkarten; auf AMD Radeon lässt es sich nicht aktivieren. Die Entwickler merken zudem an dass Intels Frame Generation nicht im Vollbild funktioniert und empfehlen die Nutzung eines Fenstermodus.

Feinschliff für FSR 4

Mit der neuen OptiScaler-Version ist nun der Wechsel zwischen FSR 3 Frame Generation und FSR 4 Frame Generation bei aktiver Frame Generation möglich. Die Modellauswahl für FSR 4.0.3 und FSR 4.1 wurde korrigiert und weitere Debug-Optionen eingeführt. So gibt es jetzt ein FSR-4-Wasserzeichen.

FSR 4 in Vulkan-Spielen

Eine Besonderheit der neuen Version 0.9 ist die Einführung von FSR 4 für Vulkan, welches von AMD selbst noch nicht angeboten wird. OptiScaler greift hierfür auf die „DX12 interop“-Funktion zurück. Die Entwickler merken jedoch an, dass dieser Umweg Leistung kostet.

Weitere Neuerungen und Verbesserungen

Für den 0.9-Release haben die Entwickler auch die mit dem Tool ausgelieferten Skripte überarbeitet. Der Uninstaller entfernt nun neben alten OptiScaler-Versionen auch ungenutzte Dateien wie die nvapi64.dll.

Auch gibt es neue Schnittstellen, an denen sich OptiScaler in Spiele einklinken kann. Dazu gehören FSR 2 unter DX11 wie in Trails in the Sky 1st Chapter oder FSR 2 unter Vulkan, wie es in World War Z zum Einsatz kommt.

Auch ein bekannter Fehler, der die Verwendung von Intels Upscaler und Frame Generation mit neueren AMD-Treibern verhindert hat, wurde umgangen, bis AMD selbst den Fehler im Treiber beseitigt.

Insbesondere Linux-Nutzer dürfen sich über neue Variablen für das Setup-Skript freuen, um OptiScaler in eigenen automatisierten Prozessen besser einzubinden.

Zahlreiche weitere Neuerungen mit OptiScaler 0.9 finden sich in der Übersicht zum Release auf GitHub.

Downloads

  • Optiscaler

    5,0 Sterne

    Aus FSR 3.1 mach FSR 4? Mit Hilfe von Optiscaler ist dies und noch mehr möglich.



Source link

Weiterlesen

Beliebt