Connect with us

Apps & Mobile Entwicklung

Core Ultra X7 358H: Leistung im MSI Prestige 14 Flip AI+ im Test


Core Ultra X7 358H: Leistung im MSI Prestige 14 Flip AI+ im Test

Ist der Intel Core Ultra X7 358H fast so schnell wie der Core Ultra X9 388H? Auf dem Datenblatt sieht es so aus. ComputerBase hat mit dem MSI Prestige 14 Flip AI+ den Praxistest gemacht. Günstiger als in diesem Notebook gibt es die große iGPU Arc B390 derzeit nicht. Findet sich hier also ein echter Preis-Leistungs-Tipp?

Den schnellsten Intel Core Ultra 300H „Panther Lake“ hatte ComputerBase mit dem Intel Core Ultra 9 388H (Test) bereits auf dem Prüfstand. Das Fazit fiel insgesamt, aber insbesondere mit Blick auf die GPU-Leistung sehr positiv aus: AMDs direkte Konkurrenten haben keine Chance.

Der Core Ultra X7 358H ist auf dem Papier kaum langsamer, bei der iGPU liegt er sogar auf Augenhöhe. Lässt sich durch den Griff zu einem derart ausgestatteten Notebook also viel Geld sparen ohne viel Leistung einzubüßen?

ComputerBase hat den Core Ultra X7 358H im MSI Prestige 14 Flip AI+ auf die Probe gestellt. Das Notebook bietet MSI mit dem X7 derzeit für 1.549 Euro im eigenen Store an. Günstiger bekommt man einen Core Ultra 300H der X-Klasse, also mit großer iGPU derzeit nicht. Bedeutet das, die Preis-Leistung ist top?

Core Ultra X7 358H vs. X9 388H

Was sich hinter Intel Core Ultra 300 „Panther Lake“ verbirgt, hat ComputerBase in der Vergangenheit bereits wiederholt ausführlich dargelegt. An dieser Stelle soll es daher nur noch einmal den Blick auf die bisher angekündigten Modellvarianten geben.

Mehr Details zu Intel Panther Lake
  • Intel Core Ultra 300: Panther Lake startet mit 14 Modellen und sehr hoher Leistung
  • Intel Panther Lake im Detail: Das ist „Core Ultra 300“ mit Intel 18A, neuen Kernen und Xe3

Die nachfolgende Tabelle führt alle bisher von Intel offiziell angekündigten Core Ultra 300 mit ihren technischen Daten im Detail auf. Getestet hatte ComputerBase bisher das Topmodell Core Ultra X9 388H, nun folgt der Core Ultra X7 358H (fett). Der einzige Unterschied im Datenblatt zum X9: 300 MHz weniger Turbo-Takt für die CPU. Der iGPU-Takt liegt mit 2.500 MHz weiterhin auf X9-Niveau. Auch der maximale Speicher-Support und die TDP-Bandbreite, für die die CPUs spezifiziert wurden, sind identisch.

Das MSI Prestige 14 Flip AI+

Das MSI Prestige 14 Flip AI+ wurde zur CES 2026 enthüllt, ComputerBase konnte sich vor Ort in Las Vegas bereits einen ersten Eindruck verschaffen.

Das MSI Prestige 14 Flip AI+ mit Intel Core Ultra X7 358H im Test
Das MSI Prestige 14 Flip AI+ mit Intel Core Ultra X7 358H im Test

Für 1.549 Euro im MSI-Store ist es derzeit das günstigste Modelle mit der großen Arc-B390-Grafikeinheit (siehe Preisvergleich) und zudem innerhalb einer Woche lieferbar. Derzeit gibt es das Notebook nur direkt bei MSI, doch freie Händler sollen in Kürze ebenfalls erste Ware erhalten.

So ist der X7 358H konfiguriert

Im MSI Prestige 14 Flip AI+ hat sich MSI für (vermutlich etwas günstigeren) LPDDR5X-8533 entschieden, wenngleich auch der X7 maximal mit 9.600 MT/s umgehen darf. Ob die 11 Prozent Unterschied in der Bandbreite Auswirkungen auf die Spieleleistung hat, wird sich noch zeigen müssen.

Mit bis zu 65 Watt TDP über drei (+ AI) per MSI Software Suite bereitgestellte Profile liegt die Leistungsaufnahme der CPU auf dem Niveau des X9 im Asus Zenbook Duo.

Die Leistungsprofile im MSI Center S
Die Leistungsprofile im MSI Center S

Weitere technische Daten

Mit 1,37 Kilogramm Gewicht ist das MSI Prestige 14 Flip AI+ ein leichter Begleiter im 14-Zoll-Format. Das Display ist ein OLED, löst allerdings „nur“ mit FHD+ (1.200p) auf und bietet lediglich 60 Hz. Als Convertible (oder 2-in-1) lässt es sich um 360° nach hinten klappen.

Eindrücke des MSI Prestige 14 Flip AI+ mit Intel Core Ultra X7 358H

Einen großen Einschnitt gegenüber dem aktuellen Stand der Notebook-Display-Technik gibt es bei der Helligkeit: 100 Prozent Helligkeit in der Mitte des Displays entsprechend nur 278 cd/m², also weniger als 300 cd/m². Für den Einsatz im Freien ist das MSI Prestige 14 Flip AI+ daher eher weniger geeignet. Das Display unterstützt Touch und Stifteingaben. Der entsprechende MSI Nano Pen kann im Gehäuseboden verstaut werden.

Die weitere Ausstattung lautet: 32 GByte RAM, 1 TByte SSD, zwei Mal Thunderbolt 4 (USB-C), WiFi 7 und ein 81 Wattstunden großer Akku. Auch HDMI und USB-A liegen nativ am Chassis vor.



Source link

Apps & Mobile Entwicklung

Angebliche Packaging-Probleme: Nvidia Rubin Ultra reizt CoWoS-L von TSMC aus


Angebliche Packaging-Probleme: Nvidia Rubin Ultra reizt CoWoS-L von TSMC aus

Seit Wochenbeginn wird spekuliert, ob Nvidias Rubin Ultra wirklich wie geplant Ende 2027 kommen wird. Laut aktuellen Gerüchten, die sich auf Analysten berufen, scheint es Probleme beim Packaging bei TSMC zu geben. Demnach ist das Produkt wohl zu groß und zu komplex und überreizt so das CoWoS-Design.

Nvidia bringt TSMCs CoWoS ans Limit

Seit 2021 bereits in Produktion, hat sich CoWoS (Chips on Wafer on Substrate) zum Kassenschlager entwickelt. Kein moderner größerer Chip ist ohne diese Technologie verfügbar. Von CoWoS-S verlagerte sich der Prozess zuletzt zu CoWoS-L, das noch größere Chips erlauben wird. Bei CoWoS-S war bei der 3,3-fachen Größe der theoretischen Einzelchips auf einem Interposer das Limit erreicht, bei CoWoS-L wird dies unter anderem durch den viel größeren Interposer von 120 × 150 mm aber auch zusätzliche integrierte Features wie Spannungsregler (FIVR, Fully Integrated Voltage Regulator) nun schon einmal auf bis zu 9,5-fache Reticle-Größe gestreckt.

Als Reticle-Size-Limit in der Branche gilt die Maximalgröße eines einzelnen Chips, der mit gängigen Belichtungsmaschinen Kantenlängen von bis zu 26 × 33 mm bzw. 858 mm² haben kann. Im Jahr 2027 können so zusammengepackte Riesenchips erscheinen, die mindestens vier Chips flankiert von I/O und 12 HBM4E-Stacks beherbergen.

CoWoS für noch mehr Möglichkeiten
CoWoS für noch mehr Möglichkeiten

„Warpage“ bei Rubin Ultra

Die Rubin-Ausbaustufe Rubin Ultra setzt laut bisherigen Gerüchten genau auf so ein Design, während der Nachfolger Feynman erstmals Die-Stacking nutzen wird. Rubin Ultra mit seinen insgesamt 4 Dies nebst HBM4e wird zuvor das reguläre Packaging dabei wohl nahezu voll ausreizen, weshalb nun angeblich Probleme zum Vorschein kamen. So sei in ersten Testläufen vermehrt das sogenannte „Warpage“ aufgetreten, also Verformungen des am Ende zusammengesetzten Chip, der so mitunter nicht mehr wie gewollt oder gar nicht funktioniert.

Warpage ist ein bekanntes Problem,das stets wieder auftaucht
Warpage ist ein bekanntes Problem,das stets wieder auftaucht (Bild: Resonac)

Das Problem ist vor allem bei größeren Multi-Chip-Packages nicht neu, nun jedoch zurück. Der Ausweg scheint, dass Rubin Ultra auch auf einen 2-Die-Design basiert, das dann nur für die Maximalkonfiguration mit einem zweiten Chip kombiniert wird.

Die andere Alternative sind neue Packaging-Methoden. Glas-Substrat ist viel weniger anfällig für Warpage – allerdings noch Jahre von einem großen Serieneinsatz entfernt. Aber auch der Einsatz von CoPoS, Chips on Panel on Substrate, könnte dem Sichverziehen teilweise entgegenwirken. Hier kamen zuletzt sehr viele Gerüchte über diese Packaging-Methode auf, und auch, dass TSMC sie wohl schnell umsetzen will.

Da diese Neuheiten aber wohl alle kaum rechtzeitig fertig werden, um mit Nvidias Roadmap einherzugehen, wird es wohl auf einen angepassten Chip für Rubin Ultra hinauslaufen. Wie genau dieser jedoch aussieht, bleibt ein Gerücht.





Source link

Weiterlesen

Apps & Mobile Entwicklung

HP Dimension mit Google Beam im Hands-on


Im Rahmen von HPs Hausmesse Imagine hatte ComputerBase in New York die Gelegenheit, ein Demo-Setup von HP Dimension mit Google Beam auszuprobieren. Dabei konnte das Produkt zur 3D-Videotelefonie in Lebensgröße mächtig Eindruck schinden: Das klappt beeindruckend gut! Die Hürden sind zum Marktstart im Herbst aber gewaltig.

Erster Eindruck: Da sitzt eine Person hinter Glas

Die Tür geht auf, ich betrete einen kleinen Raum. Auf einem halbrunden Schreibtisch steht eine Art Fernseher, davor ein Bürostuhl. Ich setze mich darauf. Und plötzlich sitzt mir eine Person in 3D gegenüber – das ist gar kein Fernseher, sondern nur eine Glasscheibe?!

Erst als ich genauer hinschaue, fällt ein feines Raster auf. Die dreidimensionale Darstellung wirkt nicht perfekt scharf, aber ist durchweg ausreichend, um die Mimik der gegenübersitzenden Person und sogar einzelne Poren auf der Haut klar erkennen zu können. Bewege ich den Kopf nach links oder rechts, verändern sich Perspektive und Raumklang. Das Gefühl bleibt: Da sitzt jemand hinter dem Glas. Ich sehe meinen Gesprächspartner nicht auf einem Bildschirm, sondern einen Meter vor mir, physisch im Raum – nur eben unerreichbar. Denn die Person sitzt nicht hier mit mir in New York, sondern tatsächlich in Austin, Texas.

HP Dimension with Google Beam im Hands-on

Dieser erste Eindruck, der sich zum Start meiner kurzen Demo-Session mit HP Dimension einstellt, trägt erstaunlich weit. Auch einfache Gesten wirken glaubwürdig. Als mein Gegenüber einen Apfel anhebt und mir entgegenstreckt, nur wenige Dutzend Zentimeter vor mein Gesicht, entsteht das Gefühl, ich könne danach greifen – aber der Griff führt haptisch ins Leere, wenngleich meine Hand optisch im Apfel verschwindet. Gleichzeitig zeigen sich Grenzen: feine Artefakte, leichtes Flimmern, und eine gewisse Künstlichkeit bei genauerem Hinsehen. Es ist kein perfektes Abbild der Realität, aber nah genug, dass das Gehirn den Unterschied für den Moment ausblendet. Und genau darin liegt die Wirkung des Systems.

Von der Kamera zum gerenderten Gegenüber

Technisch handelt es sich gar nicht um ein klassisches Video, erfahre ich im Anschluss, sondern um eine mehrstufige Rekonstruktion. Sieben Kameras und ein Beamforming-Array bestehend aus zwölf Mikrofonen, allesamt verteilt im Rahmen des 65-Zoll-Panels mit 8K-Auflösung, sowie zwei weitere Mikrofone auf dem Tisch erfassen die Person aus unterschiedlichen Winkeln. Die Daten werden in einem Google-Rechenzentrum in Echtzeit verarbeitet und als synthetisches Bild neu gerendert.

HP Dimension with Google Beam im Hands-on

Ich sitze also gar keinem Videostream im klassischen Sinne gegenüber, sondern einem generierten – aber hyperrealistischen – 3D-Abbild, das kontinuierlich an Perspektive und Blickrichtung angepasst wird. Wie Google erklärt, kommt dabei ein speziell trainiertes KI-Modell für volumetrische Videoinhalte zum Einsatz. „Normale“ Foto- oder Videoaufnahmen des Produkts können dem nicht gerecht werden, argumentiert HP, weswegen eigene Aufnahmen der Redaktion in diesem Artikel fehlen. Das ist schade, aus meiner Perspektive aber durchaus nachvollziehbar.

Wie das Display Tiefe erzeugt

Denn die Darstellung erfolgt über ein sogenanntes Lichtfeld-Display respektive mittels Linsenrasterbild. Dabei werden nicht einfach zwei Bilder für linkes und rechtes Auge erzeugt, sondern eine Vielzahl leicht unterschiedlicher Perspektiven gleichzeitig dargestellt. Möglich wird das durch feine Linsen oder Prismen auf dem Panel, die Lichtstrahlen gezielt in verschiedene Richtungen lenkt. Je nach Position der Augen trifft dadurch jeweils ein anderes Teilbild auf die Netzhaut. Bewegt man den Kopf, verschiebt sich dieser Winkel kontinuierlich, analog eines Parallax-Effektes, wodurch neue Perspektiven sichtbar werden. Bekannt ist diese Funktionsweise beispielsweise von Wackelbildern, wie sie etwa auf Grußkarten zu finden sind – bei HP Dimension ist die Qualität aber deutlich höher.

Die effektive Auflösung des 8K-Panels verteilt sich allerdings dennoch auf diese verschiedenen Blickwinkel. Das erklärt, warum Details zwar gut erkennbar sind, aber nicht ganz das Auflösungsvermögen eines klassischen 2D-Displays mit 7.860 × 4.320 Pixeln erreicht wird. Gleichzeitig entstehen potenziell Artefakte wie ein leichtes Flimmern oder Moiré-Effekte, da das Bild aus diskreten View-Zonen besteht. Das System versucht, diese Übergänge durch Tracking von Kopf- und Blickbewegungen möglichst unauffällig zu halten.

Blickkontakt, Licht und Rendering-Tricks

Einen wichtigen Beitrag für das Gefühl eines gewöhnlichen Gesprächs ist außerdem die Anpassung des Blickkontakts: Das bei Videotelofonie übliche Problem, dass die Pupillen des Gesprächs­partners nicht auf die eigenen Augen, sondern die Kamera am Rande des Displays gerichtet sind, wird beim Rendern des 3D-Abbilds umgangen. Es entsteht konsequent der Eindruck, mein Gesprächspartner schaue mir in die Augen, wenn er mich denn ansieht; ein natürliches Gefühl von Blickkontakt entsteht. Gleichzeitig werden Beleuchtung und Lichttemperatur angepasst, um Unterschiede zwischen Aufnahme- und Wiedergabeseite auszugleichen.

GIF Google Beam in Aktion (Bild: Google)

Im Kern ist das System damit weniger eine Bildübertragung von Kamera zu Display, sondern integriert eine durchgängige Rendering-Pipeline. Aufnahme, Rekonstruktion und Darstellung sind eng miteinander verzahnt und aufeinander abgestimmt, tatsächlich aufgenommene Pixel sieht am Ende aber keiner der beiden Anwender. Ist mir das in irgendeiner Art und Weise aufgefallen? Nein, tatsächlich gar nicht.

Nichtsdestoweniger berichtete ein anderer Journalist, der an der Demo-Session teilnahm, nach seinem Beam-Telefonat von leichten Kopfschmerzen und müden Augen, was er aber von allerhand 3D-Displays gewohnt sei. In unserer Runde war das ein Einzelfall und auch ich kann mich nicht über derartige Nebenwirkungen beschweren. Es ist aber offen, inwiefern auch andere Menschen bei der Verwendung von HP Dimension mit vergleichbaren Problemen zu kämpfen haben – und inwiefern die Hersteller diese mildern oder gar abstellen können.

Spatial Audio und Live-Übersetzung

Für ein authentisches Gesprächserlebnis ist aber offenkundig auch der Ton relevant. Die zahlreichen Mikrofone erfassen die Stimme und ermöglichen eine räumliche Wiedergabe. Dabei übernehmen die beiden Mikrofone auf dem Tisch die eigentliche Sprachaufnahme, wohingegen die zusätzlichen Mikrofone im Rahmen zur Positions­bestimmung mittels Triangulation dienen. Über vier Lautsprecher lässt sich die Stimme anschließend so im Raum platzieren, dass sie akustisch mit der dargestellten Person übereinstimmt.

HP und Google sehen außerdem vor, dass das fertige Produkt in Echtzeit zwischen verschiedenen Sprachen der Gesprächspartner übersetzen können soll. Dabei soll das System dynamisch auch Tonfall, Tonhöhe und Charakteristiken der Stimme berücksichtigen und die Audioausgabe entsprechend anpassen. Basis der Übersetzung sei – wenig verwunderlich – ein KI-Modell. Diese Funktion konnte ComputerBase aber im Rahmen von Präsentation und Demo weder beobachten noch selbst ausprobieren.

Kooperation zwischen Google und HP

Die zugrunde liegende Technologie stammt ursprünglich von Google und basiert auf Project Starline. Dort wird die 3D-Rekonstruktion, das Rendering sowie die gesamte Plattform entwickelt und betrieben. Auch die Cloud-Infrastruktur und die Streaming-Pipeline sind Teil dieses Systems, das unter dem Namen Google Beam vermarktet wird.

HP übernimmt mit Dimension dagegen die Rolle des Hardware- und Systemintegrators. Das Unternehmen baut das Display, integriert die Kameras, Mikrofone und Recheneinheit und sorgt dafür, dass das System als geschlossenes Produkt zuverlässig funktioniert und vermarktet werden kann. Dazu gehören auch Aspekte wie Kalibrierung, thermisches Design und die Integration in Meetingräume.

Voraussetzungen und Anwendungsbereich

Das gesamte System ist stark auf kontrollierte Bedingungen angewiesen. Sitzposition, Abstand zum Display und Beleuchtung sind vorgegeben und lassen nur wenig Spielraum. Der halbrunde Tisch vor dem Display beispielsweise ist exakt so dimensioniert, dass die Gesprächspartner den richtigen Abstand zu Kameras, Mikrofon-Array und Panel wahren. Und Lichtquellen sollten idealerweise nur hinter dem Display platziert sein, weswegen HP Dimension über ein starkes Hintergrundlicht verfügt und die sonstige Beleuchtung im Demo-Raum ausgeschaltet war. Ein Einsatz im direkten Sonnenlicht etwa ist nicht möglich.

Schnelles Internet und viel Energie nötig

Hinzu kommt die Abhängigkeit von passender Infrastruktur. Für den Betrieb werden stabile Internet­verbindungen benötigt. HP empfiehlt eine Bandbreite im Bereich von mindestens 50 Mbit/s symmetrisch sowie eine Paketumlaufzeit von unter 40 ms. Das setzt nicht nur Vorgaben für die Anbindung der beiden HP-Dimension-Module ans Internet, sondern auch die Verfügbarkeit passender Rechenzentren voraus – bei einer derart latenzsensiblen Anwendung ist es äußerst ungünstig, wenn passende Rechenkapazität gerade nur auf der anderen Seite des Planeten verfügbar ist. Anfällig für Internetprobleme ist das System aber auch im Idealfall noch: Während meiner Hands-on-Session waren zeitweise Bild und Ton nicht synchron, was in dieser Form bei anderen Probanden jedoch nicht vorkam.

Erwähnenswert ist für die vorgestellte Implementierung auch der Energiebedarf: 600 Watt verbraucht ein HP-Dimension-Modul während eines laufenden Videoanrufs. Die Rechenleistung in der Cloud ist dabei selbstverständlich noch außen vor, doch zu diesem Thema bleibt Google bislang generell vage – Details zur Hard- und Software gibt es nicht. Die lokale Recheneinheit des Beam-Setups beschreibt HP hingegen salopp als „modifizierte Chromebox“.

Einsatz heute: Klar abgegrenzt

Aktuell ist das System auf Gespräche zwischen zwei Personen ausgelegt. Erweiterungen auf mehrere Teilnehmer oder komplexere Szenarien sind zwar vorgesehen, stellen aber aktuell noch erhebliche technische Herausforderungen dar, schildert HP auf Nachfrage. Einerseits geht es darum, mehr als nur zwei HP-Dimension-Module miteinander zu verbinden, wo sich der Hersteller für die nahe Zukunft zuversichtlich zeigt. Aber insbesondere die korrekte Darstellung aus verschiedenen Blickwinkeln für mehrere Betrachter vor einem Modul sei komplex und könnte zusätzliche Hardware oder neue Displayansätze erfordern. Außerdem gelte es noch zu erproben, inwiefern das Gefühl eines authentischen Gesprächs aufrecht erhalten werden könne, wenn die gegenübersitzende Person nicht in Lebensgröße dargestellt werden kann, falls kleinere Displays zum Einsatz kommen.

HP Dimension with Google Beam (Bild: HP)

Entsprechend bleibt der Einsatzbereich vorerst eng gefasst, denn auch die finanziellen Hürden sind hoch. Die erste kommerzielle Umsetzung, HP Dimension mit Google Beam – also genau das Modul, das in einer Entwicklung­sversion von mir ausprobiert wurde –, liegt früheren Angaben zufolge bei rund 25.000 US-Dollar pro Gerät. HP gab aber zu verstehen, dass das fertige Produkt zum Start im Herbst 2026 realistisch eher noch teurer werde. Ziel sei es aber, beschwichtigt HP auf Nachfrage, den Preis mit zukünftigen Generationen zu senken.

Laufende Kosten für die Google-Server

Hinzu kommen aber in jedem Fall noch laufende Lizenzkosten für die Plattform von Google. Pro Modul sollen 5.500 US-Dollar im Jahr anfallen, was letztlich die nötige Rechenleistung in der Cloud bezahlen soll. Und für eine Verbindung werden offenkundig zwei dieser Systeme benötigt, was die effektiven Kosten für das erste Jahr HP Dimension auf über 60.000 US-Dollar hebt. In der Konsequenz richtet sich die Lösung vorerst an Unternehmen. Erste Kunden nennen HP und Google bereits: Deloitte, Salesforce, Citadel, NEC, Hackensack Meridian Health, Duolingo und Recruit.

Und was versprechen sich diese Pionierkunden von HP Dimension? Die Hersteller unterfüttern die beworbenen Vorteile der Plattform mit eigens durchgeführten Studien, die konkret auf einen Einsatz im betrieblichen Umfeld eingehen. Demnach steige der erfolgreiche Einsatz nonverbaler Kommunikation, also etwa von Mimik, Gesten oder Augenkontakt, gegenüber herkömmlichen Video­telefonie­lösungen um 39 Prozent. Außerdem falle die Konzentration der Teilnehmer auf das Gespräch während eines Meetings per Google Beam um 14 Prozent höher aus und im Anschluss könnten sich beide an 28 Prozent mehr der im Meeting genannten Informationen erinnern.

Langfristiges Ziel: Mehr Nähe trotz Distanz

Unterm Strich überwiegt dennoch der positive erste Eindruck. Die Technologie funktioniert nicht nur, sie hebt sich qualitativ deutlich und in beeindruckender Weise von klassischer Videotelefonie ab. Der Unterschied ist nicht subtil, sondern unmittelbar spürbar. Gespräche wirken natürlicher, direkter und weniger vermittelt. Es entsteht tatsächlich der Eindruck, sich einen Raum zu teilen und gemeinsam an einem Tisch zu sitzen, statt auf einen Bildschirm zu schauen – die eigene Wahrnehmung wird effektiv ausgetrickst.

Gerade darin liegt das eigentliche Potenzial. Die Technik reduziert Distanz nicht nur funktional, sondern vermittelt erfolgreich ein Gefühl von Nähe und erlaubt nonverbale Kommunikation auf einer Ebene, die bisher nur im realen Kontakt vor Ort möglich war. Gespräche mit weit entfernten Personen – ob im beruflichen Kontext oder privat – werden nicht bloß in der Qualität gesteigert, sprich hinsichtlich Bilschirmauflösung oder Tonqualität, sondern wortwörtlich auf eine neue Dimension gehoben.

ComputerBase hat Informationen zu diesem Artikel von HP im Rahmen einer Veranstaltung des Herstellers in New York unter NDA erhalten. Die Kosten für Anreise, Abreise und Hotel­übernachtung wurden von HP getragen. Eine Einflussnahme des Herstellers auf die oder eine Verpflichtung zur Berichterstattung bestand nicht. Die einzige Vorgabe war der frühest­mögliche Veröffentlichungs­zeitpunkt.

Dieser Artikel war interessant, hilfreich oder beides? Die Redaktion freut sich über jede Unterstützung durch ComputerBase Pro und deaktivierte Werbeblocker. Mehr zum Thema Anzeigen auf ComputerBase.



Source link

Weiterlesen

Apps & Mobile Entwicklung

OpenWrt 25.12.2: Zweiter März-Patch bessert bei freier Router-Firmware nach


Am 5. März wurde die neue Hauptversion des auf Linux basierenden, freien Router-Betriebssystems OpenWrt in Version 25.12.0 veröffentlicht. Innerhalb von nur einem Monat wurden nun bereits zwei Patches veröffentlicht, auch, aber nicht nur wegen nötiger Fehlerkorrekturen.

Patch 2 legt Fokus auf Fehlerkorrekturen

Nachdem Patch Nummer 1 am 18. März vor allem aufgrund der gefundenen Schwachstellen veröffentlicht wurde, stellt Patch Nummer 2 nun primär Lösungen für gefundene Fehler bereit:

  • APM821xx: U-Boot-Definitionen korrigiert (Netgear, WD, Meraki); PCIe-Boot auf Meraki MX60 behoben.
  • ATH79: Initramfs-Boot für Huawei AP5030DN/AP6010DN korrigiert; VLAN-Tagging auf Dual-CPU-Geräten behoben.
  • RAMIPS: Kernel-Dekomprimierungsfehler bei ELECOM WRC-X1800GS behoben; Initramfs-Kerneladresse für TP-Link EAP615-Wall korrigiert.
  • ATH79: Entfernt unnötige WiFi-Pakete vom Mikrotik RB750r2.
  • IPQ40xx: ART-Partition für Linksys Velop korrigiert; MAC-Adressen für Linksys eMMC-Geräte behoben.
  • RAMIPS: MAC-Adresse für Xiaomi Mi AC2100 korrigiert.
  • Lantiq xrx200 (BT HomeHub 5A): Failsafe-Modus repariert, LAN-Ports 1&2 funktionieren wieder.
  • MediaTek BPI-R4: SFP+-Module nach Update wieder nutzbar.
  • Realtek: D-Link Lüftersteuerungsskript korrigiert.

Auch rund um das Thema WLAN gibt es weitere Fehlerbehebungen und Verbesserungen:

  • WLAN-Skripte: 160 MHz-Kanäle funktionieren jetzt korrekt; SU-Beamforming-Antennenanzahl wird richtig übergeben.
  • Hostapd: Speicherleck in der Radio Resource Management-Schnittstelle behoben.
  • mac80211/ath12k: Temperatur-Sensoren für QCA/IPQ-Geräte hinzugefügt.
  • mac80211/ath9k: GPIO-Masken aus Device Tree korrekt verarbeitet.
  • Schwere Latenzprobleme auf 2,4 GHz (bis zu 30 Sekunden Verzögerung) für viele MediaTek-Geräte behoben.
  • Weitere Stabilitäts- und Multi-Link-Operation-Korrekturen für MT76-Chipsätze (MT7615, MT7915,
    MT7996, MT7992, MT792x), u. a. Beacon-Monitoring, Link-Handling und Scan-Race-Bugs.

Schnelle Fehlerbehebungen

Das zweite große Update in so kurzer Zeit zeigt, dass die OpenWrt-Community die Weiterentwicklung des freien Router-Betriebssystems sehr engagiert vorantreibt. Die sehr heterogene Hardware-Basis multipliziert natürlich die möglichen Fehlerquellen, dennoch erlaubt OpenWrt den Weiterbetrieb von Hardware, die von den jeweiligen Herstellern längst nicht mehr mit Updates versorgt werden und liefert zudem Funktionalitäten, die es in der Hersteller-Software nie gegeben hat, obwohl es möglich gewesen wäre, wie zum Beispiel Mesh.

Ausblick

Die Release Notes von 25.12.2 nennen bereits weitere bekannte Fehler, die wohl mit dem nächsten Update behoben werden. Dazu zählen mögliche WLAN-Probleme beim Einsatz eines eines Google Pixel 10 und der WPA3-WLAN-Verschlüsselung sowie ein Problem beim Wechsel von einem zu einem anderen Access Point (Fast Transition) bei der gleichzeitigen Nutzung von WPA3.



Source link

Weiterlesen

Beliebt