Künstliche Intelligenz
„Höhepunkt des Wahnsinns“: Analyse zerpflückt Pläne für Rechenzentren im All
Der Ansturm auf die Entwicklung von Rechenzentren in der Erdumlaufbahn hat einen „Höhepunkt des Wahnsinns“ erreicht und bringt die Gefahr mit sich, dass die teilhabenden Akteure den dringend nötigen Ausbau der Infrastruktur auf der Erde vernachlässigen. Das ist das Fazit einer Analyse von Gartner zu Plänen für „orbitale Rechenzentren“, mit denen sich zuletzt nicht nur Elon Musk hervorgetan hat. Solche Strukturen „sind wirtschaftlich nicht rentabel, können mit terrestrischen Rechenzentren nicht mithalten und bleiben hinter flüssigkeitsgekühlten sowie mit Atomenergie betriebenen Anlagen, die ans Netz angeschlossen sind, zurück“, heißt es darin in eindeutigen Worten. Wer daran arbeite, vergeude nicht nur Geld, sondern Zeit.
Weiterlesen nach der Anzeige
Mehrere hohe Hindernisse
Die Vorstellung, dass man Daten von der Erde ins All sendet, damit sie dort verarbeitet und wieder zur Erde zurückgesendet werden, sei „nicht realisierbar“, weil die Übertragungsraten einen Flaschenhals darstellten, heißt es in der Analyse, die heise online vorliegt. Als weiteres Hindernis werden die hohen Kosten für den Start von Nutzlast ins All aufgeführt. Schließlich fühlt sich Autor Bill Ray bemüßigt, daran zu erinnern, dass im All Vakuum herrsche. Dort gebe es keine Luft, über die Wärme abgeleitet werden kann. Stattdessen sei man auf ineffiziente und langsame Alternativen angewiesen, etwa mithilfe von Ammoniak. Für die Wartung einer derart komplexen Infrastruktur müssten statt Astronauten künftig Ingenieure ins All geschickt werden: „Eine Fähigkeit, die gegenwärtig nicht existiert.“
Während orbitale Rechenzentren aus diesen Gründen unrealistisch seien, bestehe die Gefahr, dass bei der Arbeit daran bessere Alternativen und essenzielle Investitionen vernachlässigt werden, heißt es weiter. Dabei verweist der Autor etwa auf Rechenzentren, die im Wasser versenkt werden. Solche hat beispielsweise Microsoft entwickelt. Auch an abgelegenen Orten wie der Arktis, Island oder in den Wüsten Saudi-Arabiens könnten Rechenzentren ohne allzu hinderliche Genehmigungsprozesse errichtet werden. Sollte jetzt aber die „Blase“ um Rechenzentren im All zu lange anhalten, bestünde die reale Gefahr, dass die terrestrische Infrastruktur nicht umfassend genug ausgebaut wird.
Dass sich aus den Plänen für orbitale Rechenzentren ein neues Wettrennen ins All entwickeln könnte, deutet sich seit einer Weile an. Projekte gibt es unter anderem bei Google und Amazon, am lautesten ist aber einmal mehr Elon Musk. Der behauptet, dass der Erdorbit schon in wenigen Jahren der günstigste Ort für KI-Rechenzentren sein werde. Das sieht man bei Gartner anders. Trotzdem will der Analyst nicht ausschließen, dass er Unrecht hat. Wer Sorge habe, etwas zu verpassen, solle die Kosten für den Transport von Nutzlast ins All im Auge behalten. Aber nur ein signifikanter Preisverfall könnte darauf hindeuten, dass er nicht ganz richtig lag. Die restlichen Probleme blieben würden dann aber. Möglich sei auch, dass die Politik derartige Projekte vorantreibe, „unabhängig von der Rentabilität“.
Innovationen möglich
Selbst wenn orbitale Rechenzentren für die Verarbeitung von terrestrischen Daten nicht effizient genutzt werden könnten, solle man im Blick behalten, ob die Arbeiten daran Innovationen zutage förderten, schreibt der Gartner-Analyst noch. Dabei bezieht er sich auf Technik für die Kommunikation zwischen Satelliten. Auch die Arbeit an Kühlsystemen könnte Erfindungen mit sich bringen. Schließlich erwartet er noch, dass im Zuge der Arbeit innovative Verfahren entwickelt werden, um Rechenaufgaben auf mehrere Satelliten verteilen zu können. Im All selbst dürften auf absehbare Zeit trotzdem nur Rechenaufgaben an Daten erledigt werden, die auch dort gesammelt werden – etwa von Erdbeobachtungssatelliten.
Weiterlesen nach der Anzeige
(mho)
Künstliche Intelligenz
Warnung vor Attacken auf 17 Jahre alte Excel-Lücke
Die US-amerikanische Cybersicherheitsbehörde CISA warnt erneut vor derzeit beobachteten Angriffen auf Schwachstellen. Nun haben Angreifer eine offenbar seit 17 Jahren bekannte Sicherheitslücke in Excel sowie eine junge Schwachstelle in Microsofts SharePoint im Visier.
Weiterlesen nach der Anzeige
In der Warnung nennt die CISA lediglich die angegriffenen Schwachstellen. Dass jetzt eine Sicherheitslücke in Microsoft Excel 2000 SP3, 2002 SP3, 2003 SP3 und 2007 SP1 sowie Excel-Viewern, im Kompatibilitätspack für Word-, Excel- und PowerPoint-2007-Dateiformate und in Office 2004 und 2008 für Mac angegriffen wird, überrascht. Microsoft hat sie 2009 mit Updates geschlossen. Sie erlaubt Angreifern, mit manipulierten Excel-Dokumenten Schadcode einzuschleusen – was bereits im Februar 2009 durch den Trojaner Trojan.Mdropper.AC geschah (CVE-2009-0238, CVSS2 9.3, Risiko „hoch“).
Die zweite im Internet angegriffene Sicherheitslücke betrifft Microsofts SharePoint-Server. Unzureichende Eingabeprüfungen ermöglichen unbefugten Angreifern, Spoofing-Angriffe über das Netzwerk auszuführen. Diese Schwachstelle bessert ein Softwareflicken zum April-Patchday von Microsoft aus der Nacht zum Mittwoch aus (CVE-2026-32201, CVSS 6.5, Risiko „mittel“).
Alte Sicherheitslücken als neues Angriffsziel
Wie es möglich ist, derart alte Sicherheitslücken überhaupt anzugreifen, scheint unverständlich. Schließlich bedeutet das, dass da 17 Jahre alte Systeme laufen, die keine Sicherheitsupdates erhalten. Das scheint jedoch häufiger der Fall zu sein. Am Dienstag dieser Woche warnte die CISA bereits vor Angriffen auf Microsofts Visual Basic für Applications (VBA). Die wurde 2012 bekannt und bereits damals von Angreifern ausgenutzt und steht jetzt ebenfalls erneut auf der Liste von Cyberkriminellen.
IT-Verantwortliche sollten daher dringend sicherstellen, dass die eingesetzte Software auf aktuellem Stand ist.
(dmk)
Künstliche Intelligenz
US-Routerverbot: Ausnahmegenehmigung für Netgear – ohne Pläne für US-Produktion
Die US-Kommunikationsaufsicht FCC hat Netgear eine Ausnahmegenehmigung vom Routerverbot erteilt, obwohl der US-Hersteller in Asien fertigen lässt und auch keine Pläne vorgelegt hat, daran etwas zu ändern. Laut der Federal Communications Commission hat das Pentagon für eine Reihe der Produkte von Netgear eine bedingte Zulassung erteilt, weshalb die Freigabe erteilt worden sei. Die gilt demnach bis zum 1. Oktober 2027. Sollten keine weiteren Ausnahmen vom eigentlich vollständigen Verkaufsverbot erteilt werden, hätte Netgear damit de facto ein Monopol auf den Verkauf von Routern und Modems in den Vereinigten Staaten.
Weiterlesen nach der Anzeige
Doch kein „Sicherheitsrisiko“?
Für die Kehrtwende der FCC musste Netgear augenscheinlich keine der ursprünglich geforderten Zugeständnisse machen, die Hintergründe sind aktuell noch unklar. Ende März hatte die FCC völlig unerwartet erklärt, ab sofort keine neuen Router für den Verbrauchermarkt zuzulassen, sofern die nicht in den USA hergestellt sind. Solche Router gibt es aber nicht, weshalb es sich de facto um ein umfassendes Routerverbot gehandelt hat. Bereits genehmigte Routermodelle durften zwar weiterhin verkauft und vorhandene Exemplare weiter genutzt werden. Sie sollen aber nur noch bis zum 1. März 2027 Sicherheitsupdates bekommen. Als Begründung hatte die FCC behauptet, ausländische Verbraucherrouter stellten ein „inakzeptables Risiko für die nationale Sicherheit“ dar.
Zwar hatte die FCC eine Hintertür offengelassen, mögliche Ausnahmegenehmigungen wurden aber an so hohe Auflagen geknüpft, dass sich das nur wenige Hersteller antun dürften. So sollte für jedes Modell ein eigener Antrag erforderlich sein, in dem eine umfangreiche Dokumentierung verlangt wurde. Weder von Netgear noch von der FCC gibt es nun einen Hinweis darauf, dass der US-Hersteller diese Vorgabe erfüllt hat. Gefordert wurde zudem ein „detaillierter, zeitlich verpflichtender Plan zur Etablierung oder Erweiterung der Produktion in den USA“. Öffentlich gibt es einen solchen von Netgear aber nicht, und auch in der obligatorischen Mitteilung an die US-Börsenaufsicht ist davon keine Rede.
(mho)
Künstliche Intelligenz
Blackmagic Design erweitert immersive 3D-Kamera um Live-Streaming
Rund ein Jahr nach der Markteinführung der Blackmagic URSA Cine Immersive kündigt das Unternehmen eine neue Version der Stereokamera an. Die URSA Cine Immersive 100G ist kein komplett neues Modell, sondern eine Weiterentwicklung mit Fokus auf die Live-Übertragung hochauflösender 180-Grad-3D-Videos.
Weiterlesen nach der Anzeige
Die in der Ankündigung hervorgehobenen Sensoreigenschaften sind im Kern bereits Teil der ursprünglichen URSA Cine Immersive, die Aufnahmen mit 8160 × 7200 Pixeln pro Auge bei bis zu 90 Bildern pro Sekunde und 16 Blendenstufen Dynamikumfang ermöglicht.
Neu an der URSA Cine Immersive 100G ist die optimierte Live-Infrastruktur: 100G-Ethernet statt 10G-Ethernet sowie der separat erhältliche Blackmagic URSA Live Encoder, ein Prozessormodul, das immersives Live-Video in Apple ProRes komprimiert und als SMPTE-2110-22 IP ausgibt. Dadurch lassen sich die stereoskopischen Bildströme mit hohen Bildraten über eine einzige 100G-Ethernet-Verbindung übertragen, schreibt Blackmagic Design.
Der Hersteller bezeichnet URSA Cine Immersive 100G als erste Kinokamera, die für Live-Produktionen auf Basis von Apple Immersive Video ausgelegt ist, einem immersiven 180-Grad-Videoformat, das eigens für Apple Vision Pro entwickelt wurde. Wie schon das Standardmodell dürfte sich das neue Modell trotz Apple-Fokus auch für die Ausgabe an andere Endgeräte eignen.
Apple und Blackmagic bündeln Kräfte für immersive Videos
Apple und Blackmagic arbeiten im Bereich immersiver Video eng zusammen: Blackmagic liefert die Kamerahardware und Bearbeitungssoftware, Apple stellt mit der Vision Pro die Plattform und Inhalte bereit. Zu den Apple-Produktionen gehören etwa der U-Boot-Kurzfilm „Submerged“ sowie immersive Dokumentationen wie „Wild Life“ und „Elevated“.
Was das neue Modell im Bereich Live-Streaming leistet, demonstrierte Apple Anfang des Jahres mit Live-Übertragungen von Spielen der LA Lakers auf der Apple Vision Pro. Zuschauer konnten die Partien in ausgewählten Regionen als immersives 180-Grad-Erlebnis mit mehreren Perspektiven verfolgen, das sie virtuell direkt ans Spielfeld versetzt.
Weiterlesen nach der Anzeige
Ab Herbst könnten andere Produzenten das Angebot an immersiven Livestreams erweitern: Das 100G-Modell soll im dritten Quartal 2026 erscheinen. Der Preis liegt laut Ankündigung bei 26.495 US-Dollar zuzüglich lokaler Steuern und Abgaben. Das Standardmodell ist im Preis gefallen und kostet nun 24.995 US-Dollar, also 5.000 US-Dollar weniger als zur Markteinführung. Im Webshop werden allerdings abweichende Dollar-Preise für beide Modelle genannt. Der separat erhältliche Blackmagic URSA Live Encoder erscheint im Laufe des Jahres, einen genauen Termin nennt Blackmagic Design nicht. Im Webshop steht ein Preis von 1645 US-Dollar.
Das Unternehmen stellte gleichzeitig auch eine neue Version seiner Videosoftware DaVinci Resolve 21 vor.
(tobe)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 1 MonatCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 1 MonatCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenInterview: Massiver Anstieg der AU‑Fälle nicht durch die Telefon‑AU erklärbar
-
Künstliche Intelligenzvor 2 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Entwickler, wacht auf – oder verliert euren Job
