Künstliche Intelligenz
Proxmox zentral steuern mit dem neuen Datacenter Manager
Die erste Version des neuen Proxmox Datacenter Manager ist freigegeben. Sie stammt ebenfalls von der Wiener Proxmox Server Solutions GmbH, bekannt durch ihr Proxmox Virtual Environment (VE), die aktuell in Version 9.1 vorliegt. Der Datacenter Manager bietet eine zentrale, einheitliche Web-Konsole, über die man alle eigenen Instanzen der Proxmox VE und des Proxmox Backup Servers sowie Cluster und Nodes organisationsübergreifend verwalten, überwachen und skalieren kann. Er soll im Endeffekt eine konsolidierte Sicht auf die gesamte Proxmox-Infrastruktur bereitstellen, Routineaufgaben auf ganze Gruppen von Clustern vereinfachen und zusätzliche Funktionen bieten. Passend dazu wurde vor kurzem auch der Proxmox Backup Server 4.1 freigegeben.
Weiterlesen nach der Anzeige
Zentrales Datacenter-Management für alle Proxmox-Instanzen
Das zentrale Dashboard fasst die Status- und Leistungsdaten mehrerer angebundener Proxmox-Remotes zusammen, sodass der globale Zustand aller Proxmox-Instanzen – also VE Nodes/Cluster und Proxmox Backup Server – inklusive wichtiger Telemetriedaten (Key Performance Indicators, KPIs) wie CPU-, RAM- und Storage-I/O-Nutzung sofort ersichtlich ist. Durch einen lokalen Cache bleibt der zuletzt bekannte Zustand auch offline verfügbar, wodurch sich Engpässe und potenzielle Probleme besser erkennen lassen.
Über anpassbare, rollenbasierte „Custom Views“ lassen sich gezielt gefilterte Dashboards erstellen, die ausschließlich ausgewählte Systeme, Ressourcentypen oder operative Tags anzeigen. Dank der integrierten Zugriffskontrolle (RBAC) erhält jedes Team die jeweils benötigte Transparenz, ohne direkten Zugriff auf zugrundeliegende Maschinen oder Hosts haben zu müssen. So lässt sich in Multi-Tenant-Umgebungen sowohl ausreichend Sicherheit als auch gute Übersichtlichkeit gewährleisten.
Multicluster-Management für „geclusterte Cluster“
Das Multicluster-Management ermöglicht die nahtlose Anbindung und Verwaltung unabhängiger Proxmox-Cluster und einzelner Nodes über eine zentrale Oberfläche. Ein Highlight ist die Cross-Cluster-Live-Migration, mit der Administratoren VMs ohne Ausfallzeiten zwischen Clustern verschieben können. Das ist einerseits für die flexible Lastverteilung, als auch für unterbrechungsfreie Wartungsarbeiten gedacht.
Die Plattform bietet zentralisierte SDN-Funktionen mit EVPN-Support, sodass sich EVPN-Zonen und VNets über mehrere Remotes hinweg in einer einzigen Oberfläche konfigurieren lassen. Hierdurch lässt sich die Komplexität der Netzwerk-Overlays von den Hosts entkoppeln und die Administration in großen Umgebungen deutlich vereinfachen.
Das zentralisierte Update-Management bietet einen sofortigen Überblick über alle verfügbaren Updates der gesamten Proxmox-Infrastruktur. Hierzu gehört ebenfalls ein direktes Verteilen von Proxmox-VE- und Proxmox-Backup-Server-Patches sowie ein einheitlicher, sicherer Shell-Zugriff auf alle angebundenen Remote-Systeme über eine einzige Konsole.
Weiterlesen nach der Anzeige
Debian GNU/Linux „Trixie“ 13.2 als standardisiertes Fundament
Genau wie bei der Proxmox VE setzen die Entwickler auch für den neuen Datacenter Manager 1.0 und den Backup Server 4.1 auf Debian GNU/Linux „Trixie“ 13.2 inklusive aktualisierter Pakete und Bugfixes als Basis. Zum Einsatz kommt dabei nicht der konservative Linux-Kernel von Debian, sondern ein angepasster Linux-Kernel 6.17.2. OpenZFS 2.3.4 ist für den Zugriff auf Massenspeicher zuständig. Alle Systeme lassen sich bequem über das WebGUI oder per apt(8) im Terminal aktuell halten.
Ein Problem, das auch im Proxmox-Forum angesprochen wurde: Der Proxmox Datacenter Manager bietet als allmächtiger Einstiegspunkt zur gesamten Proxmox-Infrastruktur ein lukratives Angriffsziel. Immerhin sind im Falle einer Kompromittierung nicht nur Nodes und Cluster betroffen, sondern perfiderweise auch gleich die Backups. Administratoren sollten jeglichen unnötigen eingehenden Verkehr zum Datacenter Manager blockieren, Backups auch clientseitig verschlüsseln und für Zugriffe über unsichere Netzwerke ein sicheres VPN einsetzen. Das dürfte nicht allzu schwierig sein, da der Datacenter Manager grundsätzlich die Proxmox-VE- und Backup-Server-Instanzen kontaktiert – und nicht umgekehrt. Bei der Proxmox Solutions GmbH ist man sich des Problems bewusst und will mittelfristig weitere Sicherheitsmaßnahmen verfügbar machen.
Verfügbarkeit und Preise
Der Proxmox Datacenter Manager 1.0 steht wie auch das Proxmox VE und der Proxmox Backup Server unter der GNU Affero General Public License v3 (GNU AGPLv3). Alle Produkte sind kostenlos einsetzbar und stehen frei zum Download bereit. Wie bei den anderen Produkten gibt es einen geringen Einstiegspreis für den Zugriff auf das Enterprise-Repository sowie gestaffelte Preise je nach Support-Level. Zugriff auf das Enterprise-Repository für den neuen Proxmox Datacenter Manager 1.0 kostet 540 Euro (netto) pro Jahr, zusätzlicher Support ist für 1080 bis 4320 Euro pro Jahr erhältlich.
Noch ein wichtiger Hinweis aus der FAQ zum Proxmox Datacenter Manager: Der Proxmox Datacenter Manager kann das Enterprise-Repository nur nutzen, wenn mindestens 80 Prozent der konfigurierten Remote-Systeme über ein gültiges Basic- oder höheres Abonnement verfügen.
Update: Proxmox Backup Server 4.1
Außerdem wurde der Proxmox Backup Server auf Version 4.1 aktualisiert. Er ist eine quelloffene, dedizierte Sicherungs- und Wiederherstellungsplattform, die für das gesamte Proxmox-Universum inkrementelle und verschlüsselte Backups erstellt.
Das neue Release erweitert die bestehende Traffic-Kontrolle um die Möglichkeit, Bandbreitenlimits jetzt auch benutzerbasiert festzulegen. Dadurch lassen sich Backup- und Restore-Workloads feiner priorisieren, etwa indem geschäftskritische Dienste mehr Bandbreite erhalten oder Produktions- und Testumgebungen klar getrennt werden.
Die neue Version erlaubt es, die Anzahl der Threads für das Lesen der Backup-Daten von der Festplatte und für die Prüfsummenberechnung in Verifizierungs-Jobs frei zu konfigurieren. Durch diese an die Hardware und den Workload anpassbare Parallelität lassen sich Verifizierungszeiten deutlich verkürzen und der Gesamtdurchsatz steigern.
Außerdem ergänzt der Proxmox Backup Server 4.1 die in Version 4.0 eingeführte S3-Unterstützung um die Option, die Bandbreite für Sicherungs- und Wiederherstellungsvorgänge zu S3-Endpunkten zu begrenzen. Dadurch lassen sich Netzwerkengpässe vermeiden, insbesondere in gemeinsam genutzten oder bandbreitenbeschränkten Umgebungen.
(fo)
Künstliche Intelligenz
Der neue Sarkophag in Tschernobyl ist nicht mehr sicher
Die Schutzhülle über dem Unglücksreaktor von Tschernobyl hat ihre wesentliche Sicherheitsfunktionalität verloren. Zu diesem Schluss kam jetzt eine Delegation der Internationalen Atomenergie-Organisation (IAEA), welche den Ort des Reaktorunglücks von 1986 im ukrainischen Tschernobyl inspizierte.
Weiterlesen nach der Anzeige
Fertiggestellt worden war die Hülle, welche auch New Safe Confinement (NSC) genannt wird, erst 2016, um die Radioaktivität des havarierten Reaktors einzudämmen. Entstanden sind die Schäden bei einem russischen Drohnenangriff im Februar 2025, bei dem eine Drohne das Bauwerk traf und durch die äußere Schutzwand des NSC drang.
Teile des Fluggeräts schlugen auch durch die innere Wand, neun Meter unterhalb. Der Vorfall verursachte einen Großbrand, welcher ebenfalls die Außenhülle der massiven Stahlkonstruktion beschädigte, wie die IAEA berichtet. Bei den Löscharbeiten im Februar mussten zusätzliche Löcher in die Außenwand geschnitten werden, weil der Brand auch zwischen den beiden Schutzwänden wütete.
Fatale Schäden
Die Delegation bestätigte jetzt, dass die NSC ihre primären Sicherheitsfunktionen, einschließlich der Eindämmungsfähigkeit von Radioaktivität, verloren hat. Nach dem Einschlag der Drohne im Februar hatte die IAEA zwar keine Veränderung der Strahlungswerte gemeldet, durch provisorische Reparaturen konnte das auch danach verhindert werden.
Doch die Tragweite des Schadens wird erst klar, wenn man sich das Bauwerk genauer ansieht. Nachdem der Vorgänger, ein Sarkophag aus Beton und Stahl, errichtet kurz nach der Katastrophe, marode geworden war, wurde das NSC gebaut und auf Schienen über die alte Hülle gezogen. Unter dem riesigen Mantel in Bogenform hätte die Pariser Kathedrale Notre Dame Platz.

Die Baustelle am Reaktor
Rückbau-Pläne nicht mehr machbar
Weiterlesen nach der Anzeige
Zwischen der Innen- und der Außenwand des NSC herrschte vor dem Angriff ein Überdruck. Dieser sollte verhindern, dass radioaktive Partikel bis an die Außenwand gelangen und diese kontaminieren konnten. Möglich machte den Überdruck ein Kunststoffmembran, welches ebenfalls bei dem Brand zerstört wurde. Eine Reparatur wäre nur unter größtem Aufwand möglich, das NSC müsste dafür wahrscheinlich verschoben werden.
Zudem soll das NSC die Außenwelt auch schützen, wenn der alte Sarkophag ganz oder teilweise einstürzen sollte. Auch das ist jetzt nicht mehr gewährleistet. Eigentlich sollte unter dem NSC auch der Rückbau des alten Sarkophags erfolgen – unter jetzigen Bedingungen nicht mehr denkbar.
Szenario Drohnenangriff nicht bedacht
Zudem sollte das NSC die Außenwelt bei Naturkatastrophen und anderen Notfällen schützen. Das Szenario eines Drohnenangriffs war bei der Entwicklung jedoch nicht berücksichtigt worden. Die tragenden Strukturen und Überwachungssysteme weisen aber zumindest keine dauerhaften Schäden auf, wie die IAEA jetzt feststellte. Ob das Bauwerk in seinem jetzigen Zustand für die geplante Dauer von 100 Jahren seinen Zweck erfüllen kann, darf aber angezweifelt werden.
„Es wurden begrenzte vorübergehende Reparaturen am Dach durchgeführt, aber eine zeitnahe und umfassende Sanierung bleibt unerlässlich, um eine weitere Verschlechterung zu verhindern und die langfristige nukleare Sicherheit zu gewährleisten“, betont Generaldirektor Rafael Grossi. Die Verantwortlichen in der Ukraine hoffen auf Unterstützung aus einem Fonds der Europäischen Bank für Wiederaufbau und Entwicklung (EBWE). In diesen hatten 45 Geberländer rund 1,6 Milliarden Euro für den Bau des NSC eingezahlt.
Lesen Sie auch
(nen)
Künstliche Intelligenz
Pat Gelsinger will mit neuen Lasern Moore’s Law retten
Seit Pat Gelsinger vor einem Jahr bei Intel unfreiwillig in den Ruhestand geschickt wurde, arbeitet er bei dem Investmentunternehmen Playground Global. Eines der Anlageobjekte: Das US-Startup xLight. Der Name deutet schon an, worum es dabei geht: Externes Licht für Chipfabriken. Die grundlegende Idee ist, die Lichtquelle für Belichtungsmaschinen in der Halbleiterherstellung nicht mehr in jedes der Geräte einzubauen, wie das der Lithografie-Marktführer ASML macht.
Weiterlesen nach der Anzeige
Wie Gelsinger jetzt auf einer Veranstaltung von TechCrunch sagte, sollen die riesigen xLight-Maschinen außerhalb der Reinraum-Gebäude von üblichen Chipfabriken stehen. Die Lichtquellen sollen rund 100 mal 50 Meter groß sein, in etwa so viel wie ein kleineres Fußballfeld. Wie bereits berichtet, sollen Freie-Elektronen-Laser (FEL) Licht mit extrem kurzen Wellenlängen erzeugen. Deren Strahlen sind stärker gebündelt und streuen weniger – das könnte wohl für eine Übertragung über größere Strecken taugen. Um Wellenlängen im heute schon gebräuchlichen EUV-Spektrum (extreme ultra violet) handelt es sich immer noch.
Laserlicht mit 2 Nanometern
Nur um viel kleinere als bei bisherigen EUV-Quellen: ASML kommt laut dem Bericht auf 13,5 Nanometer, xLight will 2 Nanometer erreichen. Die vor allem marketinggetriebenen Nanometer-Angaben zu den Strukturbreiten der modernsten Chiphersteller wie TSMC liegen deutlich unter den Wellenlängen der Belichtungsmaschinen, weil unter anderem Brechung und Maskenstruktur dabei eine Rolle spielen.
„Wir glauben, dass diese Technologie Mooreֹ’s Law wieder aufwecken wird“, sagte Pat Gelsinger laut TechCrunch. Die in der Chipbranche jahrzehntelang gültige, eigentlich rein statistische, Beobachtung des Intel-Mitbegründers Gordon Moore besagt, dass sich rund alle zwei Jahre die Zahl der integrierten Elemente auf einem Halbleiter verdoppeln lässt. In den letzten zehn Jahren kam das Moore’sche Gesetz aber immer mehr ins Stocken, unter anderem, weil Basistechnologien wie EUV-Belichtung sich nur langsam etablierten.
Denn die Idee von FEL-Lichtquellen für Lithografie ist nicht ganz neu, nun hält sie xLight-Chef Nicholas Kelez dem Bericht nach aber für reif für die Serienproduktion. Die Branche hat sich ihm zufolge auf EUV-Quellen in den Belichtern geeinigt, weil bis zur Einführung der Technik bereits Dutzende Milliarden in die Entwicklung geflossen seien. „Wir behandeln Licht genauso wie Strom oder Heizungs-, Lüftungs- und Klimaanlagen. Wir produzieren (Licht) außerhalb der Fabrik im Maßstab eines Kraftwerks und verteilen es dann zu den Anlagen innerhalb des Werks“ sagte Kelez.
Der Zeitplan dafür ist ambitioniert. Die ersten mit xLight belichteten Wafer sollen bereits 2028 hergestellt werden, fit für die Serienfertigung soll das System 2029 sein. Für die Entwicklung bis zur Marktreife hat xLight in der vergangenen Woche eine Zusage des US-Handelsministeriums über Förderung in Höhe von 150 Millionen US-Dollar im Rahmen des „Chips and Science Act“ erhalten.
Weiterlesen nach der Anzeige
Lesen Sie auch
(nie)
Künstliche Intelligenz
Meta Quest 4: Internes Memo verspricht „großes Upgrade“
Am Wochenende gelangten zwei interne Memos an die Öffentlichkeit, die Metas Hardware-Fahrplan betreffen. Seit letztem Jahr kursieren Gerüchte, dass Meta an einer neuen Art von Mixed-Reality-Brille arbeitet, die Prozessor und Batterie in einen kabelgebundenen Taschencomputer auslagert und so einen besonders kompakten und leichten Formfaktor ermöglicht. Das Techmagazin The Information berichtete 2024 über einen Prototyp, der etwa 100 Gramm wiegen soll. Laut einem Bericht des Wall Street Journal vom vergangenen Sommer war ein entsprechendes Produkt für 2026 geplant, mit einem Zielpreis von unter 1000 US-Dollar.
Weiterlesen nach der Anzeige
Dieser Zeitplan hat sich inzwischen geändert: Laut einem internen Memo, das Business Insider vorliegt, wurde das Gerät auf die erste Hälfte des Jahres 2027 verschoben. In einem zweiten Memo wird auch der Grund genannt: Die zusätzliche Zeit soll dem Team mehr Luft verschaffen, um Details auszuarbeiten.
„Wir stehen vor einem straffen Zeitplan und weitreichenden Änderungen an der Nutzererfahrung, und wir werden keine Kompromisse eingehen, wenn es darum geht, ein geschliffenes und zuverlässiges Benutzererlebnis abzuliefern“, schreiben die Metaverse-Führungskräfte Gabriel Aul and Ryan Cairns in dem zweiten Memo. Die Nutzeroberfläche gilt als eine der größten Schwächen des VR-Betriebssystems Horizon OS und könnte mit ein Grund sein, warum Meta Apples Interface-Design-Chef abgeworben hat.
In dem Bericht beruft sich Business Insider auf zwei Meta-Angestellte, die den aktuellen Prototyp mit Codenamen „Phoenix“ gesehen haben und bestätigen, dass das Gerät einen brillenähnlichen Formfaktor hat und über einen Taschencomputer betrieben wird. Laut früheren Berichten legt Meta den Schwerpunkt auf Medienkonsum und andere Nutzungsszenarien, die auf sitzende Verwendung ausgelegt sind.
Reality Labs auf Sparkurs: Meta Quest 4 könnte teurer werden
Auch in Bezug auf eine potenzielle Quest 4 gibt es Neuigkeiten. Nachdem Meta die Entwicklung im Sommer auf Eis gelegt und zwei Quest-4-Prototypen gestrichen hatte, um sich auf die neue, ultraleichte MR-Brille zu konzentrieren, wurde die Arbeit an einem Nachfolger der Quest 3 wiederaufgenommen.
Die Meta-Führungskräfte schreiben in ihrem Memo, dass Meta mit der Entwicklung eines Quest-Geräts der nächsten Generation begonnen habe, das sich auf Gaming konzentrieren und gegenüber den aktuellen Produkten ein „großes Upgrade“ darstellen werde. Aus dem Memo geht nicht hervor, für welches Jahr das Gerät geplant ist. Nach allem, was bisher bekannt ist, dürfte Quest 4 erst nach der ultraleichten MR-Brille auf den Markt kommen, nach aktuellen Plänen also frühestens 2027.
Weiterlesen nach der Anzeige
Die Entwicklung der beiden neuen Geräte fällt in eine Phase, in der Metas VR-Abteilung zu einschneidenden Kostensenkungen angehalten ist. In einem der beiden Memo heißt es, dass die Führungskräfte der Reality Labs, Metas Sparte für VR- und AR-Produkte, von Mark Zuckerberg aufgefordert wurden, „das Geschäft nachhaltig aufzustellen“. In die Reality Labs flossen Schätzungen zufolge mehr als 100 Milliarden US-Dollar, ohne dass sich diese Investition bislang für Meta ausgezahlt hätte.
heise online XR-Briefing abonnieren
Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
Eines der Ziele, die Meta laut Memo mit der Quest 4 verfolgt, ist, die „Wirtschaftlichkeit pro Gerät deutlich zu verbessern“. Eine mögliche Maßnahme dafür wäre, die Margen zu erhöhen und die Hardware weniger aggressiv zu subventionieren als bisher. Für Konsumenten könnte das bedeuten, dass die nächste Quest-Generation spürbar teurer ausfällt.
Auch wenn nächstes Jahr wohl wieder keine neue VR-Brille von Meta erscheinen wird, ist laut einem der Memos ein neues Wearable in limitierter Auflage geplant, das auf den Codenamen „Malibu 2“ hört. Höchstwahrscheinlich handelt es sich dabei um ein weiteres Produkt aus Metas stetig wachsendem KI-Brillen-Portfolio.
(tobe)
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Datenschutz & Sicherheitvor 3 MonatenJetzt patchen! Erneut Attacken auf SonicWall-Firewalls beobachtet
-
Künstliche Intelligenzvor 2 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 3 MonatenFake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Entwicklung & Codevor 3 WochenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Social Mediavor 3 MonatenSchluss mit FOMO im Social Media Marketing – Welche Trends und Features sind für Social Media Manager*innen wirklich relevant?
