Connect with us

Künstliche Intelligenz

Asus baut Noctuas und Phanteks‘ High-End-Lüfter nach


Asus stellt zum ersten Mal seit Jahren wieder einen Lüfter ohne bunte LEDs vor. Der Hersteller bewirbt den Proart PF120 explizit für „minimalistische“ Desktop-PCs ohne ARGB. Es ist Asus‘ erster Lüfter, dessen Rotor aus Flüssigkristallpolymer (Liquid Crystal Polymer, LCP) besteht.

Weiterlesen nach der Anzeige

Dieser Kunststoff ist besonders steif. Weil er sich fast nicht verzieht, ermöglicht er besonders geringe Spalten zwischen den Lüfterblättern und dem Rahmen. Asus spricht von 0,5 mm. Das maximiert den Luftstrom und den statischen Druck.

Noctua war der erste Hersteller mit LCP und dieser Bauweise. Der Proart PF120 ähnelt Noctuas NF-A12x25 stark. Asus geht allerdings einen anderen Weg als der Konkurrent: Der Lüfter ist auf einen hohen Durchsatz mit bis zu 3000 Umdrehungen pro Minute (U/min) ausgelegt. Noctua legt den NF-A12x25 und dessen Nachfolger NF-A12x25 G2 (ab 34,90 €) dagegen auf einen leisen Betrieb aus. Sie laufen mit maximal 1800 U/min.


Asus Proart PF120

(Bild:

Asus

)

Der Proart PF120 ist mit 28 statt 25 mm etwas dicker als die meisten Lüfter. Damit ordnet er sich zwischen den Noctua-Modellen und dme ebenfalls ähnlichen Phanteks‘ T30-120 ein. Letzterer verwendet ebenfalls LCP mit geringem Spalt, ist aber 30 mm dick. Der T30-120 dürfte der namenlose Konkurrent sein, mit dem sich Asus in seiner Mitteilung vergleicht. Laut eigenen Angaben soll der Proart PF120 leiser sein.

LCP-Lüfter im Vergleich
Lüftermodell Asus Proart PF120 Phanteks T30 Noctua A12x25 G2
Dicke 28 mm 30 mm 25 mm
max. Drehzahl [U/min] 3000 3000 1800
max. Luftfluss [CFM] 104,8 100,9 63,2
max. statischer Druck [mmH2O] 7,3 7,37 3,14
max. Lautstärke [dB(A)] 39 39,7 22,5
Preis unbekannt 30 € 35 €

Asus und Phanteks haben eine Gemeinsamkeit: Daisy-Chain-Anschlüsse an den Lüfterrahmen, mit denen sich mehrere Exemplare untereinander verbinden lassen. Die 4-Pin-Stecker übertragen sowohl Strom als auch PWM-Lüftersignale, ohne alle einzeln mit einem Mainboard oder einer Lüftersteuerung verbinden zu müssen. Bei Asus sind die Verbindungen noch kürzer als bei Phanteks.

Weiterlesen nach der Anzeige

Der Proart PF120 erscheint in Schwarz und Weiß. In Deutschland sind die beiden Varianten noch nicht verfügbar; einen Preis nennt Asus bisher nicht. Mindestens 30 Euro erscheinen in Anbetracht der Konkurrenz realistisch.


(mma)



Source link

Künstliche Intelligenz

VirtualBox erhält experimentellen KVM-Support | heise online


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Oracle hat in den aktuellen Entwickler-Builds von VirtualBox experimentellen Support für KVM (Kernel-based Virtual Machine) integriert. Wie aus dem VirtualBox-Issue-Tracker auf GitHub hervorgeht, ermöglicht die neue Funktion den Einsatz des nativen Linux-Hypervisors als Backend. Die Integration erfolgt über den Native Execution Manager (NEM), der bereits Hyper-V (Windows) und den Apple Hypervisor (macOS) unterstützt.

Weiterlesen nach der Anzeige

Die Implementierung ist derzeit nur in manuell erstellten Development-Builds verfügbar. Nutzer müssen dazu Patches auf den VirtualBox-Quellcode anwenden und das System mit den Configure-Flags --with-kvm --disable-kmods kompilieren. Das KVM-Backend eliminiert dabei die Abhängigkeit von den eigenen VirtualBox-Kernel-Modulen, die unter Linux-Kernels ab Version 6.12 zunehmend Probleme verursachen können.

Besonders nützlich erweist sich der KVM-Support, wenn die proprietären VirtualBox-Module Schwierigkeiten bereiten. Dies betrifft etwa Systeme mit aktivierter Kernel-Signaturprüfung oder Umgebungen, in denen Konflikte zwischen den VirtualBox- und KVM-Modulen auftreten. Ein von Oracle im Oktober 2025 veröffentlichter Kernel-Patch ermöglicht zudem die Koexistenz beider Systeme, indem die Funktionen kvm_enable_virtualization() und kvm_disable_virtualization() re-exportiert werden.

Parallel zu Oracles Entwicklung existiert bereits das unabhängige Open-Source-Projekt virtualbox-kvm von Cyberus Technology. Es bietet seit 2024 ein KVM-Backend für VirtualBox, das Features wie Nested Virtualization unterstützt. Der letzte Release erschien Anfang Februar 2026 (Support von VirtualBox 7.1.6a).

Aus Sicherheitsperspektive reduziert das KVM-Backend die Angriffsfläche, da es als Type-1-ähnlicher Hypervisor direkt in den Kernel integriert ist. Dies verringert potenzielle Schwachstellen gegenüber Type-2-Hypervisoren mit eigenen Kernel-Modulen. Bekannte Schwachstellen in VirtualBox betreffen häufig GPU- und 3D-Komponenten, ähnliche Probleme existieren auch bei QEMU/KVM in der virtio-gpu-Implementation.

Weiterlesen nach der Anzeige

Ob und wann Oracle den KVM-Support in eine stabile VirtualBox-Version integriert, ist derzeit offen – schließlich befindet sich die Funktion explizit in einem frühen experimentellen Stadium. Für Nutzer, die vollständig auf KVM setzen möchten, bleibt QEMU/KVM die ausgereifte Alternative mit nativer KVM-Integration und hoher Performance.

Oracle folgt mit dem Schritt dem Konkurrenten VMware: Broadcom begann bereits Ende 2024, den Einsatz von KVM in seiner Virtualisierungssoftware vorzubereiten. Seitdem gab es jedoch keinerlei Updates oder einen offiziellen Zeitplan für diesen Umbau.


(fo)



Source link

Weiterlesen

Künstliche Intelligenz

Apple AirTag 2: Nicht nur zum Gut-finden | Mac & i-Podcast


Eine halbe Dekade hat sich Apple Zeit gelassen, um die AirTags in zweiter Generation frisch aufzulegen. Am Konzept ändert sich nichts, die Neuerungen sind zugleich zentral wie überschaubar: Verbesserte Funkchips sorgen in bestimmten Szenarien für mehr Reichweite, der Lautsprecher piepst kräftiger. Die Bluetooth-Tracker sind längst im Alltag angekommen, Apples „Wo ist?“-Netzwerk wird immer größer und andere Hersteller mischen ebenfalls mit – teils zu Dumping-Preisen.

Weiterlesen nach der Anzeige

In Episode 114 bewerten Malte Kirchner und Leo Becker, was die AirTags 2 konkret im Alltag bringen. Die Liste der Neuerungen hat auch Schattenseiten: Die Inkompatibilität zu älteren Betriebssystemversionen sorgt für Frust und einhelliges Kopfschütteln. Uns beschäftigen außerdem die bleibenden Nebenwirkungen der Technik: Stalking und missbräuchliche Nutzung bleiben ein Problem, auch wenn die anfänglichen Verbotsdebatten längst abgekühlt sind. Zudem geht es um Ultrabreitband als entscheidende Funktechnik für den Nahbereich, die auch digitale Schlüssel massentauglich machen könnte.

Der Apple-Podcast von Mac & i erscheint mit dem Moderatoren-Duo Malte Kirchner und Leo Becker im Zweiwochenrhythmus und lässt sich per RSS-Feed (Audio) mit jeder Podcast-App der Wahl abonnieren – von Apple Podcasts über Overcast bis Pocket Casts.

Zum Anhören findet man ihn auch in Apples Podcast-Verzeichnis (Audio) und bei Spotify. Wir freuen uns über Feedback, Kritik und Fragen an podcast@mac-and-i.de.


(lbe)



Source link

Weiterlesen

Künstliche Intelligenz

heise meets … „Wenn ich als CIO meinen Job behalten will, muss ich handeln“


Die größte deutschsprachige Studie zu generativer KI (Gen AI) in IT-Organisationen liefert ernüchternde Zahlen: 73 Prozent der befragten Unternehmen erzielen noch keinen messbaren Nutzen aus ihren Investitionen in generative künstliche Intelligenz (Gen AI).

Weiterlesen nach der Anzeige

Jennifer Diersch und Felix Salomon von der Unternehmensberatung kobaltblau haben gemeinsam mit Partnern wie Lünendonk und VOICE 230 CIOs und IT-Entscheider aus Deutschland, Österreich und der Schweiz befragt.


heise meets... Der Entscheider-Podcast

heise meets... Der Entscheider-Podcast

heise meets…. Der Entscheider-Talk – von Entscheidern für Entscheider – immer aktuell und nah am Geschehen.
Sie können uns auf allen Podcast Kanälen hören.
Wählen Sie Ihren Kanal aus.

Im „heise meets“-Podcast erläutern sie, warum viele Unternehmen noch am Anfang ihrer Reise mit generativer Künstlicher Intelligenz (Gen AI) stehen – und was sie jetzt machen müssen. Die Studie unterscheidet vier Evolutionsstufen:

  1. Gen-AI-Assisted beschreibt den klassischen Einsatz als Assistent neben der Arbeit, etwa ChatGPT für E-Mails.
  2. Gen-AI-Orchestrated integriert die Technologie direkt in bestehende Systeme.
  3. Gen-AI-Integrated setzt KI für ganze Prozessketten ein.
  4. Die höchste Stufe bildet die AI-native IT-Organisation, in der Teile der IT-Aufgaben vollständig autonom ablaufen.

Viele Teilnehmer hätten gesagt, dass sie Copilot unternehmensweit und GitHub Copilot für Entwickler einsetzen. Außerdem habe man von ChatGPT Enterprise-Lizenzen für alle gekauft. Das seien zwar erste Schritte, sie brächten jedoch keine Produktivitätsgewinne.

Die Studie identifiziert fehlende Data Governance und Datenqualität, mangelnde Skills bei Mitarbeitenden sowie regulatorische Bedenken als zentrale Bremsklötze. Besonders alarmierend sei, dass zwei Drittel der Befragten bei der größten Hürde – der Datenqualität – noch keine Maßnahmen ergriffen hätten.

Weiterlesen nach der Anzeige

Das passe nicht zusammen, sagt Diersch. Die Interviewpartner berichten, dass technisch zwar vieles möglich sei, aber die Mitarbeiter nicht ausreichend darin geschult würden, wenn die KI zwar eloquent, aber eben falsch antwortet.

Ein weiteres Problem sei die Kostenexplosion durch externe Anbieter. Salomon warnt vor der „Scheckkarten-IT-Organisation“, bei der Unternehmen teure KI-Lösungen von Dienstleistern einkaufen, ohne den erhofften Mehrwert zu erzielen.

Als Gegenbeispiel nennt er einen großen Hersteller, der zunächst DeepL für automatisierte Übersetzungen nutzte. Als die Lizenzkosten explodierten, baute das Unternehmen eine eigene Lösung und reduzierte die Kosten um das Tausendfache.

Für die erfolgreiche Skalierung von Gen AI empfehlen die Berater fünf Kernelemente, wie KI bewusst organisieren und gestalten, Grundlagen für Datenschutz und Data Governance schaffen, realistische Ambitionslevel je Capability setzen, die Rolle der IT-Organisation als Plattformbetreiber vorbereiten sowie konsequentes Upskilling und Change Management betreiben.

Die Botschaft der Studie sei eindeutig: Wer als CIO seinen Job behalten will, müsse sich mit Gen AI beschäftigen. Und zwar in den nächsten 12 bis 18 Monaten, weil die Entwicklungen so schnell vorangingen, dass man sonst den Anschluss verlöre.

Andernfalls drohe, dass das eigene Business von Wettbewerbern überholt werde. „Der CIO sollte einen festen Platz in der Geschäftsleitung haben“, sagt Salomon. Die vollständige Studie steht auf der Website von kobaltblau zum Download bereit.

Ein vollständiges Transkript der aktuellen Podcast-Episode von heise meets gibt es unter den Shownotes bei Podigee zu lesen.


(mki)



Source link

Weiterlesen

Beliebt