Künstliche Intelligenz
Proxmox zentral steuern mit dem neuen Datacenter Manager
Die erste Version des neuen Proxmox Datacenter Manager ist freigegeben. Sie stammt ebenfalls von der Wiener Proxmox Server Solutions GmbH, bekannt durch ihr Proxmox Virtual Environment (VE), die aktuell in Version 9.1 vorliegt. Der Datacenter Manager bietet eine zentrale, einheitliche Web-Konsole, über die man alle eigenen Instanzen der Proxmox VE und des Proxmox Backup Servers sowie Cluster und Nodes organisationsübergreifend verwalten, überwachen und skalieren kann. Er soll im Endeffekt eine konsolidierte Sicht auf die gesamte Proxmox-Infrastruktur bereitstellen, Routineaufgaben auf ganze Gruppen von Clustern vereinfachen und zusätzliche Funktionen bieten. Passend dazu wurde vor kurzem auch der Proxmox Backup Server 4.1 freigegeben.
Weiterlesen nach der Anzeige
Zentrales Datacenter-Management für alle Proxmox-Instanzen
Das zentrale Dashboard fasst die Status- und Leistungsdaten mehrerer angebundener Proxmox-Remotes zusammen, sodass der globale Zustand aller Proxmox-Instanzen – also VE Nodes/Cluster und Proxmox Backup Server – inklusive wichtiger Telemetriedaten (Key Performance Indicators, KPIs) wie CPU-, RAM- und Storage-I/O-Nutzung sofort ersichtlich ist. Durch einen lokalen Cache bleibt der zuletzt bekannte Zustand auch offline verfügbar, wodurch sich Engpässe und potenzielle Probleme besser erkennen lassen.
Über anpassbare, rollenbasierte „Custom Views“ lassen sich gezielt gefilterte Dashboards erstellen, die ausschließlich ausgewählte Systeme, Ressourcentypen oder operative Tags anzeigen. Dank der integrierten Zugriffskontrolle (RBAC) erhält jedes Team die jeweils benötigte Transparenz, ohne direkten Zugriff auf zugrundeliegende Maschinen oder Hosts haben zu müssen. So lässt sich in Multi-Tenant-Umgebungen sowohl ausreichend Sicherheit als auch gute Übersichtlichkeit gewährleisten.
Multicluster-Management für „geclusterte Cluster“
Das Multicluster-Management ermöglicht die nahtlose Anbindung und Verwaltung unabhängiger Proxmox-Cluster und einzelner Nodes über eine zentrale Oberfläche. Ein Highlight ist die Cross-Cluster-Live-Migration, mit der Administratoren VMs ohne Ausfallzeiten zwischen Clustern verschieben können. Das ist einerseits für die flexible Lastverteilung, als auch für unterbrechungsfreie Wartungsarbeiten gedacht.
Die Plattform bietet zentralisierte SDN-Funktionen mit EVPN-Support, sodass sich EVPN-Zonen und VNets über mehrere Remotes hinweg in einer einzigen Oberfläche konfigurieren lassen. Hierdurch lässt sich die Komplexität der Netzwerk-Overlays von den Hosts entkoppeln und die Administration in großen Umgebungen deutlich vereinfachen.
Das zentralisierte Update-Management bietet einen sofortigen Überblick über alle verfügbaren Updates der gesamten Proxmox-Infrastruktur. Hierzu gehört ebenfalls ein direktes Verteilen von Proxmox-VE- und Proxmox-Backup-Server-Patches sowie ein einheitlicher, sicherer Shell-Zugriff auf alle angebundenen Remote-Systeme über eine einzige Konsole.
Weiterlesen nach der Anzeige
Debian GNU/Linux „Trixie“ 13.2 als standardisiertes Fundament
Genau wie bei der Proxmox VE setzen die Entwickler auch für den neuen Datacenter Manager 1.0 und den Backup Server 4.1 auf Debian GNU/Linux „Trixie“ 13.2 inklusive aktualisierter Pakete und Bugfixes als Basis. Zum Einsatz kommt dabei nicht der konservative Linux-Kernel von Debian, sondern ein angepasster Linux-Kernel 6.17.2. OpenZFS 2.3.4 ist für den Zugriff auf Massenspeicher zuständig. Alle Systeme lassen sich bequem über das WebGUI oder per apt(8) im Terminal aktuell halten.
Ein Problem, das auch im Proxmox-Forum angesprochen wurde: Der Proxmox Datacenter Manager bietet als allmächtiger Einstiegspunkt zur gesamten Proxmox-Infrastruktur ein lukratives Angriffsziel. Immerhin sind im Falle einer Kompromittierung nicht nur Nodes und Cluster betroffen, sondern perfiderweise auch gleich die Backups. Administratoren sollten jeglichen unnötigen eingehenden Verkehr zum Datacenter Manager blockieren, Backups auch clientseitig verschlüsseln und für Zugriffe über unsichere Netzwerke ein sicheres VPN einsetzen. Das dürfte nicht allzu schwierig sein, da der Datacenter Manager grundsätzlich die Proxmox-VE- und Backup-Server-Instanzen kontaktiert – und nicht umgekehrt. Bei der Proxmox Solutions GmbH ist man sich des Problems bewusst und will mittelfristig weitere Sicherheitsmaßnahmen verfügbar machen.
Verfügbarkeit und Preise
Der Proxmox Datacenter Manager 1.0 steht wie auch das Proxmox VE und der Proxmox Backup Server unter der GNU Affero General Public License v3 (GNU AGPLv3). Alle Produkte sind kostenlos einsetzbar und stehen frei zum Download bereit. Wie bei den anderen Produkten gibt es einen geringen Einstiegspreis für den Zugriff auf das Enterprise-Repository sowie gestaffelte Preise je nach Support-Level. Zugriff auf das Enterprise-Repository für den neuen Proxmox Datacenter Manager 1.0 kostet 540 Euro (netto) pro Jahr, zusätzlicher Support ist für 1080 bis 4320 Euro pro Jahr erhältlich.
Noch ein wichtiger Hinweis aus der FAQ zum Proxmox Datacenter Manager: Der Proxmox Datacenter Manager kann das Enterprise-Repository nur nutzen, wenn mindestens 80 Prozent der konfigurierten Remote-Systeme über ein gültiges Basic- oder höheres Abonnement verfügen.
Update: Proxmox Backup Server 4.1
Außerdem wurde der Proxmox Backup Server auf Version 4.1 aktualisiert. Er ist eine quelloffene, dedizierte Sicherungs- und Wiederherstellungsplattform, die für das gesamte Proxmox-Universum inkrementelle und verschlüsselte Backups erstellt.
Das neue Release erweitert die bestehende Traffic-Kontrolle um die Möglichkeit, Bandbreitenlimits jetzt auch benutzerbasiert festzulegen. Dadurch lassen sich Backup- und Restore-Workloads feiner priorisieren, etwa indem geschäftskritische Dienste mehr Bandbreite erhalten oder Produktions- und Testumgebungen klar getrennt werden.
Die neue Version erlaubt es, die Anzahl der Threads für das Lesen der Backup-Daten von der Festplatte und für die Prüfsummenberechnung in Verifizierungs-Jobs frei zu konfigurieren. Durch diese an die Hardware und den Workload anpassbare Parallelität lassen sich Verifizierungszeiten deutlich verkürzen und der Gesamtdurchsatz steigern.
Außerdem ergänzt der Proxmox Backup Server 4.1 die in Version 4.0 eingeführte S3-Unterstützung um die Option, die Bandbreite für Sicherungs- und Wiederherstellungsvorgänge zu S3-Endpunkten zu begrenzen. Dadurch lassen sich Netzwerkengpässe vermeiden, insbesondere in gemeinsam genutzten oder bandbreitenbeschränkten Umgebungen.
(fo)
Künstliche Intelligenz
Radioaktives Radon: Warum es ein unterschätztes Risiko ist
Auf der Maker Faire 2024 sprach mich Make-Chefredakteur Daniel Bachfeld über einen Ergänzungsartikel zum Taupunktlüfter an. Dieser sollte beschreiben, wie man dem Edelgas Radon auf die Spur kommt und wie ein Taupunktlüfter es aus dem Haus entfernen kann. Aus dieser einfachen Frage ist eines meiner umfangreichsten Projekte entstanden, für das ich auch Informationen bei Fachfirmen, Universitäten und dem Bundesamt für Strahlenschutz einholen musste. Und, ohne zu übertreiben: Es geht bei diesem Thema um Leben und Tod!
Meine Erkenntnisse sind in einem weiteren Artikel aufsplittet.
- Was ist Radon?
- Welche Gefahr geht davon aus?
- Wie können wir es mit Maker-Mitteln detektieren?
Checkliste
Zeitaufwand:
4 Stunden (Ballonexperiment)
Kosten:
etwa 60 Euro (Geigerzähler für Ballonexperiment)
Material
Werkzeug
- Geigerzähler etwa Bosean FS-5000 (50 Euro)
Radon
Bei Radon handelt es sich um ein radioaktives Edelgas, das in der Erdkruste natürlicherweise vorkommt. Es entsteht durch den Zerfall von Uran und Thorium, die in sehr vielen Gesteinen und Böden vorkommen. Radon selbst ist farb-, geruchs- und geschmackslos, was bedeutet, dass es weder mit bloßem Auge noch mit anderen Sinnen wahrgenommen werden kann. Zudem ist es schwerer als Luft, was später noch eine wichtige Rolle spielen wird.
Das war die Leseprobe unseres heise-Plus-Artikels „Radioaktives Radon: Warum es ein unterschätztes Risiko ist“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
TDWI München 2026: Vorträge für die Konferenz zu Data, Analytics und KI gesucht
Vom 23. bis 25. Juni 2026 findet die TDWI München statt. Die Konferenz hat sich als Wissensdrehscheibe und Netzwerkplattform für die Daten-Community etabliert.
Weiterlesen nach der Anzeige
Bis Ende Januar 2026 sucht der Veranstalter heise conferences nach Vorträgen für die TDWI München zu Themen von Datenarchitektur und Strategie über Data Science und KI bis zur Datenkultur.
Ein Programmbeirat aus Fachexpertinnen und -experten kuratiert das Programm und sucht aus den Einreichungen etwa 120 Vorträge für die TDWI München aus.
Programm mit 12 Tracks
Der Call for Contributions ist bis zum 26. Januar 2026 geöffnet. Die Konferenz bietet zwölf thematische Tracks. Als neue Schwerpunkte kommt 2026 Industrial Data & AI hinzu. Daneben gibt es unter anderem folgende Tracks:
- Data Architecture
- Data Management
- Data Culture
- Data Science & AI
- Data Strategy & Data Governance
- Self-Service BI & Analytics
- Branchentrack Finanzindustrie
Projekterfahrungen und -berichte sind ebenso gewünscht wie Trends und Ausblicke zu den Themen der TDWI München. Wer mit einem Vortrag auf der Konferenz dabei sein möchte, aber noch keine Speaker-Erfahrung hat, hat die Chance, auf einen Mentor aus der Community zurückzugreifen.
Anwenderstorys sind besonders gern gesehen. Die Programmgestalter freuen sich zudem über Vorträge zu innovativen Formaten. So gab es in den letzten Jahren beispielsweise eine Chess Clock Debate und ein Dashboard-Karaoke.
Weiterlesen nach der Anzeige
(rme)
Künstliche Intelligenz
Missing Link: Hubble Deep Field – ein Foto und seine Geschichte
Das Bild war eine Sensation: Fast sechs Tage lang hatte das Hubble Space Telescope aus der Milchstraße in einen Bereich des Sternenhimmels außerhalb der Milchstraße gespäht. Von der Erde aus betrachtet, galt dieser Himmelsbereich als leer.
Weiterlesen nach der Anzeige
Die US-Raumfahrtbehörde NASA musste liefern. Das damals neue Weltraumteleskop drohte zu einem Millionen US-Dollar teuren Flop zu werden: Der Bau hatte sich verzögert, der Start nach der Explosion des Space Shuttle Challenger 1986 ebenfalls. Als es 1990 endlich im All war, kam die große Enttäuschung: Die Optik hatte einen gravierenden Fehler, die Bilder, die das Teleskop lieferte, waren unbrauchbar.

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.
Um das Hubble-Teleskop trotzdem nutzen zu können, ließ die NASA eine Korrekturlinse anfertigen, die ein Space Shuttle Ende 1993 zu dem Teleskop brachte, das zu dem Zeitpunkt schon mehr als drei Jahre in Orbit herumdümpelte. In mehreren Außeneinsätzen setzten die Thomas Akers, Jeffrey Hoffman, Story Musgrave und Kathryn C. Thornton Hubble eine neue Brille auf.
Endlich funktionierte das Teleskop – und jetzt musste es liefern. Und es lieferte: Das Bild des vermeintlich leeren Himmelsbereichs zeigte Millionen von Sternen in tausenden Galaxien, von denen einige noch aus der Frühzeit des Universums stammen. Das „Hubble Deep Field“ ist heute eines der ikonischsten Fotos der Weltraumforschung, das unseren Blick auf das Universum verändert hat und zu dem mehrere hundert Fachartikel veröffentlicht wurden.

Das Hubble Deep Field aus dem Jahr 1995
(Bild: NASA)
Genauso interessant wie das Foto selbst und die wissenschaftlichen Erkenntnisse daraus ist allerdings seine Entstehungsgeschichte. Hier war weniger die Wissenschaft als vielmehr mangelndes Qualitätsmanagement in einem US-Raumfahrtunternehmen sowie die US-Finanzpolitik in Person eines späteren Friedensnobelpreisträgers involviert. Und diese Geschichte ist mindestens so spannend wie die wissenschaftlichen Entdeckungen, die später aus dem Foto folgten.
Idee der 1970er Jahre
Weiterlesen nach der Anzeige
Rückblick: Es ist das Jahr 1975. Nachdem die Idee eines weltraumgestützten Teleskops seit fast drei Jahrzehnten diskutiert wird und auch bereits Satelliten mit kleineren Teleskopen in der Umlaufbahn operieren, legt die NASA dem US-Haushaltsausschuss eine Budgetanfrage von 400 Millionen US-Dollar vor, heute wären das über 2 Milliarden US-Dollar. Damit wollte die US-Raumfahrtbehörde den Bau eines „Large Space Telescopes“ mit einem Spiegel von 3 Metern Durchmesser finanzieren. Das Projekt wurde jedoch als „zu teuer“ abgelehnt.
Die NASA überarbeitete die Pläne und verkleinerte den Durchmesser des Hauptspiegels (und damit die Größe des Teleskops) auf 2,4 Meter. So konnte das benötigte Budget halbiert werden. Das Geld wurde 1977 bewilligt, sodass die NASA in den folgenden Monaten die einzelnen Komponenten beauftragen konnte.
1978 wurde dann der Auftrag für den Hauptspiegel des Teleskops an das US-Unternehmen PerkinElmer vergeben. Beim Bau kam ein neues, lasergestütztes Schleifverfahren zum Einsatz. PerkinElmer setzte dabei auch ein für das neue Verfahren angepasstes Messgerät, einen sogenannten „Null-Korrektor“, ein. Bedingt durch Zeit- und Kostendruck wurde der neue Korrektor vor dem Einsatz nicht getestet und validiert. So bemerkte niemand, dass durch eine fehlerhafte Konstruktion eine Linse des Messsystems um 1,3 mm versetzt saß. Da es bei PerkinElmer zu einer Reihe von Versäumnissen in der Qualitätssicherung kam, blieb der Fehler zunächst unbemerkt. Neben der fehlenden Validierung wurden später noch eine ganze Reihe weiterer Versäumnisse entdeckt.
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Datenschutz & Sicherheitvor 3 MonatenJetzt patchen! Erneut Attacken auf SonicWall-Firewalls beobachtet
-
Künstliche Intelligenzvor 2 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 3 MonatenFake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Entwicklung & Codevor 3 WochenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Social Mediavor 3 MonatenSchluss mit FOMO im Social Media Marketing – Welche Trends und Features sind für Social Media Manager*innen wirklich relevant?
