Künstliche Intelligenz
WTO warnt vor Ende des KI-Booms wegen Energiemangel
Die Weltwirtschaft steht an einem Wendepunkt, an dem die Verheißungen der Künstlichen Intelligenz auf die harte Realität der globalen Energiepolitik treffen. In ihrem „Global Trade Outlook 2026“ zeichnet die Welthandelsorganisation (WTO) ein Bild, das von extremer Volatilität geprägt ist. 2025 verlief trotz hoher Handelshemmnisse und der protektionistischen Zoll-Politik Donald Trumps zwar überraschend robust. Doch nun sind die dunklen Wolken am Horizont kaum mehr zu übersehen. Hauptgrund für die Sorge der Genfer Experten ist eine paradoxe Wechselwirkung: Die Technologie, die den Welthandel zuletzt stützte, ist seine größte Achillesferse geworden.
Weiterlesen nach der Anzeige
KI hat sich innerhalb kurzer Zeit von einem Nischenthema zum Rückgrat des globalen Investitionswachstums entwickelt. Laut den Daten der WTO entfielen im vergangenen Jahr rund 70 Prozent des gesamten Investitionswachstums in Nordamerika auf KI-bezogene Güter. Zum Vergleich: In den Jahren vor dem Immobiliencrash von 2008 machte der Bausektor lediglich 30 Prozent aus.
Diese hohe Konzentration birgt Risiken. WTO-Chefökonom Robert Staiger hob bei der Präsentation des Handelsausblicks hervor, dass die Schlüsseltechnik in Bezug auf ihre tatsächliche langfristige Fähigkeit zum Liefern von Erfolgen noch immer unbewiesen sei. Da die Investitionen zudem auf eine kleine Gruppe extrem großer Konzerne fokussiert seien, könnte jede Erschütterung des Vertrauens oder der Rahmenbedingungen fatale Folgen haben.
Nahost-Konflikt bedroht Rechenpower-Nachschub
Hier kommt nach Ansicht der WTO der Konflikt im Nahen Osten mit dem Iran-Krieg im Zentrum ins Spiel. Die Region ist nicht nur ein geografisches Nadelöhr für den Welthandel, sondern vor allem Hauptlieferant für Energie und Düngemittel. Ein lang anhaltender Zeitraum hoher Ölpreise würde die Betriebskosten der ohnehin extrem energieintensiven KI-Infrastruktur massiv in die Höhe treiben, warnt die internationale Organisation.
Der Betrieb von Rechenzentren und die Fertigung moderner Halbleiter verschlingen riesige Mengen an Strom. Sollten die Energiepreise über das gesamte Jahr 2026 hinweg auf hohem Niveau bleiben, könnte dies den KI-Boom laut Staiger empfindlich „einklemmen“.
Die WTO schätzt, dass ein dauerhafter Energieschock das Wachstum des Warenhandels um zusätzliche 0,5 Prozentpunkte drücken würde. Das würde die ohnehin vorsichtige Prognose von 1,9 Prozent Wachstum gefährlich nahe an eine Stagnation bringen. Neben den Energiekosten verändert die politische Landschaft die Handelsströme grundlegend. Die USA unter Trump haben die Zölle auf ein seit Jahrzehnten nicht mehr gekanntes Niveau angehoben. Dies führte 2025 allein zu einem Einbruch der US-Importe aus China um 29 Prozent.
Weiterlesen nach der Anzeige
Neue Handelsrouten und schwindende WTO-Prinzipien
Dennoch wuchs der Welthandel insgesamt um 4,6 Prozent, da viele Unternehmen ihre Importe vor Inkrafttreten der Zölle vorzogen und China seine Warenströme erfolgreich nach Asien, Afrika und Lateinamerika umleitete. Besonders die Volkswirtschaften von Singapur, Thailand und Vietnam profitierten von dieser Verschiebung und fungierten als neue Motoren des Welthandels. Die Fragmentierung der Weltwirtschaft wird jedoch immer deutlicher. Der Anteil des Handels, der nach dem sogenannten Meistbegünstigungsprinzip der WTO abgewickelt wird, sank von 80 Prozent 2024 auf nur noch 72 Prozent Anfang 2026.
Das bedeutet, dass immer mehr Geschäfte über bilaterale Sonderabkommen oder durch protektionistische Hürden beeinflusst werden. Die WTO selbst kämpft in diesem Umfeld um ihre Relevanz, während die großen Blockbildungen zwischen den USA und China die globalen Lieferketten zerreißen. Für das laufende Jahr bleibt die Frage entscheidend, ob die Dynamik im KI-Sektor ausreicht, um den Sog der hohen Energiekosten und der geopolitischen Spannungen auszugleichen. Die Weltwirtschaft steuert den Handelsexperten zufolge auf ein Jahr zu, in dem die Rechenleistung von Chips gegen die Förderleistung von Ölquellen antritt.
Lesen Sie auch
(nie)
Künstliche Intelligenz
Wichtigster Server-CPU-Benchmark bekommt ein Update nach 9 Jahren
Die Standard Performance Evaluation Corporation (SPEC) aktualisiert nach neun Jahren ihren wichtigsten Benchmark: Auf SPEC CPU 2017 folgt SPEC CPU 2026 mit einem runderneuerten Unterbau. Der zugrundeliegende Test wächst von 43 auf 52 Teil-Benchmarks.
Weiterlesen nach der Anzeige
Anders als andere Benchmarks wie Cinebench oder Geekbench enthalten alle SPEC-CPU-Versionen keine fertige Installationsdatei. Das verantwortliche Konsortium stellt den Quellcode bereit, den Tester selbst kompilieren müssen. Die Idee dahinter: So läuft der Test auf allerlei Hardware und Nutzer können den Benchmark beliebig optimieren, etwa auch um neue CPU-Funktionen auszunutzen.
Hinter SPEC stecken die wichtigsten CPU-Designer, Serverhersteller, Hyperscaler und Forscher. Mit dabei sind etwa AMD, Intel, Nvidia, ARM, Ampere, IBM, Microsoft, Oracle, Supermicro, HPE, Dell, Cisco, Lenovo und SiFive.
SPEC CPU ist in der Industrie weitverbreitet, auch als Standard-Benchmark bei AMD und Intel. Unter Privatanwendern fristet die Suite ein Nischendasein, weil zusätzlich zum jeweiligen Kompilieren die Bedienung per Kommandozeile hinzukommt.
Neue Test-Suite
Wie schon seine Vorgänger stammen alle Teil-Benchmarks von SPEC CPU 2026 „aus der echten Welt“. Das Konsortium sucht dazu Anwendungen aus, die es in seine Suite aufnimmt. Überraschung: Der Render-Teil mit Blender fällt ersatzlos raus, ebenso der x264-Encoder für das Videoformat H.264. Neu dabei sind etwa CPython, ein FLAC-Audio-Encoder und die Datenbank-Engine SQLite.

SPEC
)
Der Basisdurchgang (Base) limitiert alle 52 Teil-Benchmarks auf einen einzigen Compiler mit denselben Flags. „Peak“ erlaubt Compiler-Optimierungen pro Teil-Benchmark, um die Leistung jeweils zu maximieren. Nutzer müssen in C, C++ und Fortran optimieren.
Weiterlesen nach der Anzeige
SPEC CPU 2026 kann auch moderne Serverprozessoren mit 128 CPU-Kernen und mehr auslasten. Einige der Integer-Tests sollen mit vielen Instruktionen explizit das Prozessor-Front-End überlasten, das die Befehle übersetzt und dann an die Rechenwerke verteilt.
Die Test-Suite inkludiert jetzt aber auch explizit Einplatinencomputer wie Raspberry Pis und RISC-V-Prozessoren. Die offizielle Datenbank führt etwa Ergebnisse mit dem Raspi 5 16 GByte auf (mit offensichtlich wenigen Punkten).
Viele Threads brauchen viel RAM
Jede laufende Instanz benötigt 2 GByte RAM. Wer einen modernen Desktop-Prozessor wie AMDs Ryzen 9 9950X3D2 mit 32 Threads auslasten will, benötigt also 64 GByte Arbeitsspeicher. Ein 128-Kerner mit 256 Threads erfordert 512 GByte.
Eine Lizenz für SPEC CPU 2026 kostet standardmäßig 3000 US-Dollar. Upgrader von der 2017er-Version zahlen 2000 US-Dollar (befristet bis 3. November 2026). Gemeinnützige Organisationen zahlen 750 US-Dollar. Akkreditierte Universitäten und Hochschulen bekommen die Lizenz kostenlos.
(mma)
Künstliche Intelligenz
Sovereignty Washing: Wie man Cloud-Souveränität wirklich bewertet
Digitale Souveränität ist kein Standardprodukt, sondern eine strategische Entscheidung mit individuellen Konsequenzen. Das formulierte iX-Autor Kai Müller bereits 2025 treffend. Aber die Entscheidung bleibt häufig auf der Ebene der Absicht. Und zwischen der strategischen Absicht und der operativen Realität klafft eine Lücke.
Wer heute einen souveränen Cloud-Anbieter auswählen muss, steht vor einem Markt, auf dem fast jeder Anbieter für sich beansprucht, souverän zu sein. Die Substanz hinter dem Label fällt aber unterschiedlich aus.
- US-Hyperscaler kaschieren strukturelle Jurisdiktionsrisiken mit EU-Tochtergesellschaften, während europäische Anbieter EU-Eigentümerschaft als Souveränitätsgarantie vermarkten, aber technische Lücken aufweisen.
- Eine Analyse von siebzehn Anbietern anhand von 31 Kriterien zeigt: Die verschiedenen Anbieter unterscheiden sich in ihren Stärken und Schwächen, aber keiner lässt sich als klarer „Souveränitätssieger“ bezeichnen.
- Insbesondere bei der Kryptografie und Schlüsselkontrolle weisen die meisten Anbieter – ob europäisch oder amerikanisch – eine offene Flanke auf. Abhängigkeit durch die Lieferkette relativiert außerdem jedes Souveränitätsversprechen eines europäischen Standorts.
- Für Anbieter sind Zertifizierungen ein zweischneidiges Schwert: BSI-C5-Attestierung, SecNumCloud und ISO 27001 sorgen zwar für gute Souveränitätswerte, schaffen aber hohe Einstiegshürden in den Markt.
Es lohnt sich also zu prüfen, was hinter den Versprechen steckt – auf der Grundlage von Daten aus dem Sovereign Cloud Compass, einem öffentlich zugänglichen Vergleichswerkzeug.
Das war die Leseprobe unseres heise-Plus-Artikels „Sovereignty Washing: Wie man Cloud-Souveränität wirklich bewertet“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Seit 1987 weiterentwickelt: Großes Update für Spiele-Oldie „NetHack“
Mit „NetHack“ hat eines der ältesten immer noch aktiv entwickelten Computerspiele ein weiteres großes Update erhalten, von Version 3.6.7 geht es damit direkt auf 5.0.0. Das Update nimmt nicht nur Bugfixes vor, sondern bringt auch zahlreiche Änderungen am Spiel selbst – insgesamt sprechen die Verantwortlichen von mehr als 3100 Modifikationen am Code. Alle lassen sich einsehen.
Weiterlesen nach der Anzeige
Das Team warnt jedoch, dass einige der Einträge – vor allem zu neuen Funktionen – Spoiler enthalten könnten. Außerdem laufen bisherige Spielstände nach dem Update nicht mehr.
Auch mal zehn Jahre Update-Pause
„NetHack“ gibt es seit 1987, die erste freigegebene Version war eine deutliche Weiterentwicklung des 1984 veröffentlichten Spiels „Hack“, das sich wiederum stark am vier Jahre älteren „Rogue“ orientierte. Danach erschienen Updates in unregelmäßigen Abständen, teils mit mehr als zehn Jahren Pause. Nach dem jüngsten großen Update auf Version 3.6.0 erschienen mehrere kleinere Updates, die vor allem Fehler behoben. Das aktuelle Update verbessert unter anderem die generelle Architektur der Software.
„NetHack“ ist ein textbasiertes Rollenspiel, dessen „Grafik“ anfangs aus ASCII-Zeichen bestand. Das Spiel läuft aber inzwischen auf unterschiedlichsten Plattformen, längst auch mit grafischen Oberflächen, die viele Spieler bevorzugen. Mit einem zuvor angepassten Charakter erkundet man einen immer wieder neu generierten Dungeon auf der Suche nach dem Amulett von Yendor, das der böse Moloch gestohlen hat. Dabei geht es explizit nicht darum, alles und jeden zu töten, sondern die Erkundung. Bekannt ist „NetHack“ hauptsächlich für seinen enormen Umfang, den Humor und dafür, dass das Spiel auf jede denkbare Spielsituation vorbereitet zu sein scheint. Es gibt einen umfangreichen „Reiseführer“, der für das aktuelle Update angepasst wurde.
(mho)
-
Künstliche Intelligenzvor 3 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 3 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 3 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 3 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 2 MonatenBlade‑Battery 2.0 und Flash-Charger: BYD beschleunigt Laden weiter
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Der beste Luftgütesensor im Test – CO₂, Schadstoffe & Schimmel im Blick
