Connect with us

Datenschutz & Sicherheit

Großrechenzentren: „KI“-Platzhirsche bauen massiv aus


Die Angst, etwas zu verpassen, bleibt ein starker Antrieb beim anhaltenden Tamtam um Künstliche Intelligenz. Alle machen doch gerade „was mit KI“. KI-Berater geben sich überall die Klinken in die Hand, um ihre Heilsversprechen zu verkünden.

Eine gut gepflegte FAQ-Seite reicht vielen Unternehmen und Behörden längst nicht mehr aus, wenn sie denn je eine hatten. Ein Chatbot muss her, haben doch jetzt alle. Auch klassische Datenbanken und Linked-Data-Lösungen sind so was von 2000er. Ohne Large Language Models mit Retrieval-Augmented Generation ist keine Unterstützung und kein Fördergeld für die notwendige Digitalisierung mehr zu bekommen, ganz egal, ob jemand genauer weiß, was die Technologie unter der Haube hat.

Es scheint, als ob vor allem die bei KI meist gemeinten großen generativen Sprachmodelle zum Selbstzweck werden. Sie werden oft eingesetzt, ohne die Funktionsfähigkeit oder die Alternativen in redlicher Weise geprüft zu haben. Über den Sinn und Unsinn, mit Deep-Neural-Net-Kanonen auf Daten-Spatzen zu schießen, wird dabei selten diskutiert.

Doch gerade der fragliche Sinn ändert auch den Blick auf die dafür notwendige oder eben nicht notwendige Infrastruktur, um die ressourcenhungrigen generativen KI-Systeme zu betreiben. Denn diese Systeme verbrauchen enorme Mengen an Energie und Wasser zur Herstellung und Kühlung der Computer in den Rechenzentren.

Wie genau der Ressourcenbedarf und die sich daraus ergebenden Umweltauswirkungen aussehen, darüber rücken die jeweiligen KI-Anbieter wenig bis gar keine Informationen heraus. Die ganz große Mehrheit der Nutzer, die mit generativer KI interagiert oder vielleicht deren Einsatz planen will, hat so gut wie keine aussagekräftigen Informationen über deren Umweltauswirkungen. Fundierte Entscheidungen zu treffen, die Energie- und Wasserverbrauch und andere Umweltfaktoren von generativen KI-Systeme mit einbeziehen, ist derzeit weitgehend unmöglich.

Amazon, Microsoft und Alphabet

Wem gehören die ganzen Rechenzentren, die Cloud-Infrastrukturen und die Hardware, auf der die generative KI läuft? Wenn man auf Europa und Nordamerika blickt, sind die aktuellen Gegebenheiten bekannt: Amazon, Microsoft und Google-Mutter Alphabet teilen den Cloud-Markt weitgehend unter sich auf.

Microsoft Azure, Amazon Web Services (AWS) und Google Cloud bedienen knapp zwei Drittel aller Cloud-Dienstleistungen. In manchen europäischen Ländern wie beispielsweise Großbritannien sind vor allem AWS und Azure sogar so dominant, dass sie zusammen über siebzig Prozent des Cloud-Markts abgrasen. Und die Erträge können sich sehen lassen: Insgesamt beliefen sich die Einnahmen im gesamten weltweiten Cloud-Markt im letzten Jahr auf etwa 330 Milliarden US-Dollar.

Es sind milliardenschwere Giganten: Jeder der drei genannten Konzerne ist ohnehin schon jahrelang in den Top Ten der weltweiten börsennotierten Unternehmen nach Marktkapitalisierung. Sie werden derzeit mit einem Börsen-Marktwert von jeweils mehr als zwei Billionen US-Dollar bewertet. Das liegt auch daran, dass sie neben dem jedes Jahr wachsenden Cloud-Geschäft ebenfalls die Besitzer vieler Rechenzentren sind. Mehr als zehntausend davon stehen vor allem in Nordamerika und Europa.

Dürfen wir Ihre Informationen durch unsere KI jagen?

Die gehypte generative KI sucht bisher noch ihre Cash Cow und hat zu den Einnahmen dieses Geschäftsfeldes nichts Nennenswertes beigetragen. Vielleicht bringen die neuen Bezahlmodelle bei generierter Programmierung mehr Umsatz. Doch auch wenn der Goldesel bisher noch fehlt, ist generative KI ein starker Antrieb für die Aufrüstung und den Neubau von Großrechenzentren. Denn auch dieses Geschäftsfeld wächst enorm: Seit dem Jahr 2020 hat sich die weltweite Anzahl der großen Rechenzentren auf mehr als 1.000 verdoppelt.

Und mit groß ist hier wirklich gewaltig gemeint: Diese mehr als 1.000 Rechenzentren für Hyperscale Computing bewegen sich in der Dimension von jeweils mehr als 50 Megawatt an elektrischer Leistung und sind jeweils mit zehntausenden von Servern bestückt. Angelehnt an den Begriff Hyperscale Computing werden sie in jüngster Zeit auch Hyperscaler genannt.

Die größten Platzhirsche sind wiederum Amazon, Alphabet und Microsoft, die mehr als die Hälfte der gesamten weltweiten Hyperscale-Rechenzentrumskapazität auf sich vereinen. Amazon hat global leicht die Nase vorn. Aber auch Meta, Apple, ByteDance sowie die chinesischen Giganten JD.com und Alibaba besitzen vom Rest der Kapazität nennenswerte Anteile. Aktuell sind weltweit mehr als 500 weitere Großrechenzentren in der Vorbereitungs- und Bauphase.

Die großen Tech-Unternehmen, darunter Alphabet und Microsoft als größter Anteilseigner von OpenAI, melden zugleich einen beispiellosen Anstieg des eigenen Ressourcenverbrauchs. Dazu wurde auch angekündigt, dass die eigenen Nachhaltigkeitsversprechen nicht erfüllt werden. Die dezidierte Begründung ist der groß angelegte Ausbau für die generative KI.

Weiter wachsende Rechenzentrumskapazitäten

Manche sagen zu den großen Rechenzentren auch KI-Gigafactory, was sich ein mit Sicherheit technikferner Marketingspezialist erdacht haben dürfte. Hierzulande gibt es nicht allzu viele riesige Rechenzentren, die von europäischen Unternehmen betrieben werden. Allerdings ist auch bei uns ein erhebliches Wachstum der Rechenzentrumskapazitäten geplant. Laut bitkom (pdf) soll es im zwei- bis dreistelligen Megawatt-Bereich liegen. Ob jedes einzelne der geplanten Projekte auch umgesetzt wird, ist aber teilweise unsicher.

Die Hauptschuldigen für die Bremsen im KI-Rechenzentrumsboom sind schon ausgemacht: Es gibt zu viel Bürokratie, um sie hier schnell hochzuziehen. Der neue Kanzler Friedrich Merz hat dagegen schon Abhilfe durch Entbürokratisierung versprochen. Dass sich hinter dem gegenwärtigen Vorstoß zum Bürokratieabbau in diesem Bereich eher eine Lockerung des Umwelt-, Klima- und Arbeitsschutzes verbirgt, ist ein offenes Geheimnis.

Verfolgt man aktuelle Entwicklungen, wird noch eine weitere Dimension offenbar: Es geht auch um Versorgungsengpässe, sowohl bei Strom als auch bei Wasser. So soll beispielsweise das Rechenzentrum FRA7 der US-amerikanischen Firma CyrusOne gemeinsam mit E.ON bis 2029 ausgebaut werden, um zusätzliche 61 Megawatt zu bekommen. Woher die nötige zusätzliche Energie kommt, steht etwas versteckt in der Pressemitteilung: Fossiles Gas soll lokal Energie produzieren.

Das heißt ganz praktisch: Gigantische Gasturbinen sollen im Dauerbetrieb den aberwitzigen Energiehunger stillen. Und was dies bedeutet, können die Einwohnerinnen von Memphis (Tennessee) gerade schmerzlich berichten: Ein riesiges Rechenzentrum, das errichtet wurde, um Chatbots für Elon Musks KI-Wahn zu betreiben, wird mit mindestens 35 Methan-Turbinen betrieben. Nicht einmal die Hälfte davon waren überhaupt behördlich genehmigt worden.

Der KI-Zirkus brummt. Die schlechte Luft der Turbinen wird im Memphis-Fall in einer Gegend ausgestoßen, die bereits eine hohe Asthma-Rate aufweist. Saubere Luft zum Atmen scheint nicht länger ein Grundbedürfnis der Menschen zu sein, sondern offenbar ein zu nutzender Rohstoff eines unkontrolliert wachsenden Wirtschaftszweiges fragwürdigen Nutzens. Denn welches drängende Problem generative KI eigentlich löst, wird sich erst noch zeigen – vielleicht. Das tatsächlich drängende Problem der Klimakrise jedoch wird durch sie in jedem Fall noch verschärft.

Nur Google kann da noch einen draufsetzen: Der Milliardenkonzern kaufte jüngst sagenhafte 200 Megawatt Fusionsenergie, die es bisher noch gar nicht gibt. Dass man den Bär erst erlegen muss, bevor man das Fell verteilt, ist für die Tech-Bros und KI-Gläubigen auch nur noch ein überkommener Spruch.

Nicht so brillant wie von manchen erhofft

Die KI-Wachstumserwartungen

Gerade unter Leuten, die sich mit Informationstechnik auskennen und schon so manchen Hype haben kommen und gehen sehen, wird derzeit bereits milde abgewunken: Nur die Ruhe, der KI-Bohei wird vorübergehen, die Spreu sich vom Weizen trennen. Doch es sind ja keinen bloßen Gedankenspiele, was die KI-Wachstumserwartungen angeht. Denn bevor der sehnlich erhoffte KI-Technologiesprung angepeilt werden kann, müssen die Rechenkapazitäten mitsamt Kühlung, Klimaanlagen und Lüftung ja physisch tatsächlich errichtet werden.

Das führt dazu, dass genau jetzt riesige Rechenzentren in bisher ungekannter Menge geplant und gebaut werden. Ob sich die speziell für generative KI angepasste Computertechnik tatsächlich rentiert, steht auf einem anderen Blatt. Denn auch folgendes Szenario ist nicht unrealistisch: Wenn sich die derzeitige technische Entwicklung nur fortsetzt, könnte den Menschen bewusst werden, dass mehr Rechenleistung die generative KI qualitativ gar nicht nennenswert verbessert.

Denn die KI-begeisterten Milliardäre könnten auch etwas versprochen haben, was nicht eintreten wird. Die Fehlerquoten, Sicherheitsprobleme und Unzuverlässigkeiten könnten auch weiter zu hoch bleiben für einen Einsatz in Bereichen, die weniger fehlertolerant sind als die Generierung bunter Bilder. Deswegen würden Sprachmodelle nicht verschwinden und weiter auch sinnvolle Einsatzzwecke finden, allerdings nicht im versprochenen Masseneinsatz, sondern für spezifische Anwendungen.

Wenn dieses Szenario eintreten sollte, werden viele Investoren auf hohen Schulden für eine Menge gut gekühlter Gebäude voller ungenutzter und veralteter Server-Racks mit wirklich großen Energiesystemen sitzen. Und wir alle sitzen auf einem Berg Elektronikschrott.

Vergessen darf dabei nicht werden, dass auch China massiv investiert. Seit 2022 hat auch die zweite KI-Großmacht neben den Vereinigten Staaten mehr als sechs Milliarden US-Dollar in Rechenzentren investiert. Auch hier ist seither ein steigender Stromverbrauch zu verzeichnen, der bis 2030 um mehr als fünf Prozent wachsen soll.

Größtes Rechenzentrum der Welt von OpenAI

Bisher liegt die Gesamtrechenzentrumsleistung global bei etwa 55 Gigawatt, was ungefähr 480 Terawattstunden jährlich sind. Das ist angesichts von insgesamt globalen 30.000 Terawattstunden noch kein Pappenstiel, aber auch nicht gerade vernachlässigbar, wenn das drastische Wachstum, was vielfach nun angekündigt ist, tatsächlich eintreten wird.

ChatGPT 5 versucht, die Anzahl von b in blueberry zu zählen.
Das niegelnagelnaue ChatGPT-5 zählt Buchstaben.

Oracle und OpenAI bauen etwa einen ganzen KI-Rechenzentrumskomplex in Texas, der anfangs ein Gigawatt Energie erzeugt, aber das größte Rechenzentrum der Welt werden soll. Zusätzliche 4,5 Gigawatt kündigte der OpenAI-Chef bereits an. Und das neue ChatGPT-5 wurde gerade mit ordentlich PR auf die Welt losgelassen. Es wird mit reduzierten Fehlerquoten und mehr Zuverlässigkeit beworben, was durch erste Versuche aber vorerst nicht bestätigt werden konnte (siehe Bild).

Derweil frisst die explodierte Chip-Produktion für Graphikprozessoren, die für generative KI notwendig sind, längst enorme Ressourcen und erhöht den CO2-Ausstoß bereits. Der künftige Elektroschrott ist also schon auf die Reise gegangen.

Die Ausmaße des Elektronikabfalls

Big Tech kolportiert gern, dass wahre Innovation dem Entscheidungsmut einiger weniger CEOs entspränge, was auch die absurd hohen Gehälter rechtfertigen soll. Diese Darstellung unterschlägt jedoch, dass auch der Rummel um die energieintensive generative KI ohne eine öffentliche (lies: öffentlich finanzierte) Infrastruktur, die alle benötigten Ressourcen bereitstellt, nicht möglich oder zumindest sehr viel teurer wäre.

Neben den zahlreichen Subventionen, Steuergeschenken und Fördergeldern ist es eben auch die Grundversorgung aller, die wie selbstverständlich angezapft wird. Dazu zählt der bereits erwähnte exorbitante Wasser- und Energieverbrauch generativer KI. Allein bei Google stieg der Verbrauch von 12,7 Milliarden Liter Wasser im Jahr 2021 in nur drei Jahren nach eigenen Angaben auf 30 Milliarden Liter Wasser.

In letzter Zeit häufiger geforderte und zum Teil auch umgesetzte moderne Methoden zur Reduzierung des Wasserverbrauchs haben leider einen Haken: Setzt der Betreiber auf eine Kühlung von Rechenzentren ohne Wasserverbrauch, dann macht er den Betrieb deutlich energieintensiver. Und zum verbrauchten Strom in irrsinniger Menge muss auch die schon erwähnte Atemluft bedacht werden, zudem der Abfall in Hülle und Fülle.

Denn am anderen Ende der Verwertungskette sieht die Sache nicht besser aus, im Gegenteil. Die Ausmaße, die Elektronikabfall von generativer KI annehmen wird, sprengt das Vorstellungsvermögen beinahe: Einer 2024 in Nature Computational Science veröffentlichten Studie zufolge wird der Elektroschrott bis 2030 je nach Prognose-Szenario insgesamt etwa zwischen 1,2 Millionen Tonnen (konservative Schätzung mit restriktiverem KI-Einsatz) und 5 Millionen Tonnen (weit verbreiteter KI-Einsatz) wiegen. Im Vergleich zu den Zahlen aus dem Jahr 2023 ist das etwa tausend Mal mehr Elektroschrott, der allein durch generative KI produziert werden wird.

Um sich diese Masse plastisch vorzustellen, helfen vielleicht anschauliche Vergleiche: Die jährliche Gesamtmasse von 5 Millionen Tonnen Elektroschrott ist etwa wie das Wegwerfen von mehr als zwanzig Milliarden iPhones aktuelleren Datums (um die 180 g pro Stück). Jeder Mensch auf der Erde könnte pro Jahr zwei iPhones auf einen riesigen Elektroschrottberg werfen und der gigantische Abfallhaufen wäre immer noch kleiner als die Elektroschrotthalde der generativen KI.

Künstliche Intelligenz

Wir schrieben schon über maschinelles Lernen, bevor es ein Hype wurde. Unterstütze unsere Arbeit!

Wegen der Tatsache, dass die riesigen Rechenzentren wesentlich in drei Gegenden der Erde konzentriert sind, werden diese Elektroschrottberge überwiegend in Nordamerika anfallen, gefolgt von Ostasien und zu einem kleineren Teil (etwa 14 Prozent) in Europa. Verklappt werden sie aber so gut wie immer woanders auf der Welt.

Zumindest die Perspektive auf das KI-Spektakel sollte sich ändern, wenn man sich die Elektroschrotthalden vor Augen führt, in die ganz aktuelle Planungen noch nicht einmal einberechnet sind. Dass der astronomisch hohe Ressourcenverbrauch und generell die ökologischen Fragen nicht mindestens mitbedacht und konkret kalkuliert werden, ist einer modernen Technologie nicht angemessen, die sich anschickt, die Welt verbessern zu wollen. In Zeiten der Klimakrise ist das schlicht unvertretbar.



Source link

Datenschutz & Sicherheit

Sicherheitsupdate: Schadcode-Lücken bedrohen HCL Domino


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Admins sollten ihre Instanzen mit dem Anwendungsentwicklungssystem HCL Domino zügig gegen mögliche Angriffe absichern. Geschieht das nicht, kann Schadcode Systeme kompromittieren.

Wie aus einer Warnmeldung hervorgeht, haben die Entwickler zwei Sicherheitslücken (CVE-2025-53630, Risiko „hoch„; CVE-2025-49847, Risiko „hoch„) geschlossen. Beide Schwachstellen finden sich in der Open-Source-Komponente llama.cpp für den Umgang mit großen Sprachmodellen (LLM). Im Kontext des Vocabulary-Loading-Codes können Angreifer Speicherfehler auslösen und so im schlimmsten Fall eigenen Code ausführen. Das führt in der Regel zur vollständigen Kompromittierung von Computern.

Die Entwickler geben an, dass davon HCL Domino 14.5 betroffen ist. Die Ausgabe DominoIQ Release 0825 (LlamaServerforDominoIQ_0825) soll gegen die geschilderten Angriffe geschützt sein.

​Zuletzt haben die HCL-Entwickler im Mai dieses Jahres Schwachstellen in dem Anwendungsentwicklungssystem geschlossen.


(des)



Source link

Weiterlesen

Datenschutz & Sicherheit

Abhören von Mobiltelefonen mit Radartechnik und KI möglich


Einem Team von Informatikern der Penn State University ist es gelungen, Mobiltelefongespräche mittels eines Millimeterwellenradars abzuhören. Das Radar erfasst die Vibrationen an der Oberfläche des Handys, die beim Sprechen entstehen. Die Entschlüsselung der Vibrationsmuster übernimmt eine Künstliche Intelligenz (KI).

Bereits 2022 hatten die Forscher ein ähnliches Verfahren angewendet, um Gespräche abzuhören, die mit einem Mobiltelefon geführt werden. Damals war jedoch die Abhörleistung niedriger. Das System erreichte eine Genauigkeit von 83 Prozent bei nur zehn vordefinierten Schlüsselwörtern.

Das nun entwickelte Verfahren kann mehr Wörter entschlüsseln. Verwendet wird dazu ein Millimeterwellen-Radarsensor. Die Technik wird etwa in autonomen Fahrzeugen neben Lidar verwendet, um Abstände einschätzen zu können. Bei der Abhörtechnik werden damit kleine Vibrationen erfasst, die an der Geräteoberfläche eines Mobiltelefons durch die Sprache entstehen. Die Daten sind jedoch qualitativ eher minderwertig, wie die Forscher in ihrer Studie „Wireless-Tap: Automatic Transcription of Phone Calls Using Millimeter-Wave Radar Sensing“ schreiben, die in den Proceddings der Sicherheitskonferenz ACM WiSec 2025 erschienen ist. Die sehr stark verrauschten Daten müssen daher interpretiert werden können.

Dazu verwenden die Wissenschaftler das Open-Source-KI-Spracherkennungsmodell Whisper. Eigentlich dient Whisper dazu, eindeutige Audiodaten zu transkribieren. Die Forscher wendeten eine Low-Rank-Adaption-Technik des Maschinellen Lernens an, um Whisper für die Interpretation der Radardaten zu trainieren. So mussten die Wissenschaftler das Spracherkennungsmodell nicht von Grund auf neu erstellen.

Das so speziell abgestimmte KI-Modell konnte aus den Daten Transkriptionen für einen Wortschatz von bis zu 10.000 Wörtern erstellen. Die Genauigkeit betrug dabei 60 Prozent. Insgesamt ist das eine deutliche Verbesserung gegenüber dem Verfahren von 2022, das nur zehn Wörter erkennen konnte. Das Abgehörte muss aber auch beim neuen System in den Kontext gestellt, gegebenenfalls interpretiert und korrigiert werden. Das ist ebenfalls bei Abhörverfahren durch Lippenlesen so, bei dem nur zwischen 30 Prozent und 40 Prozent der gesprochenen Wörter erfasst werden. In den Kontext gebracht, ergibt sich aber ein hohes Sprachverständnis.

Das Abhörsystem per Radar und KI funktioniert derzeit nur in einer Entfernung bis zu 6 m. Die Wissenschaftler möchten mit ihren Forschungsergebnissen darauf aufmerksam machen, wie einfach Schwachstellen von Angreifern ausgenutzt und sensible Informationen abgehört werden können. Sie wollen deshalb künftig ihr Augenmerk auf mögliche Abwehrmaßnahmen richten.


(olb)



Source link

Weiterlesen

Datenschutz & Sicherheit

Anonymisierendes Linux: Tails startet Test der 7er-Version


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Linux-Distribution Tails zum anonymen Surfen im Internet steht jetzt als Testversion der Fassung 7.0 bereit. Die Maintainer haben Tails auf eine neue Basis gestellt und liefern aktualisierte Desktopumgebungen und Softwarepakete mit.

In der Release-Ankündigung erörtern die Tails-Macher die Neuerungen. Die Basis stellt das ganz frische Debian 13, Codename „Trixie“. Für den Desktop setzen sie auf Gnome 48, das bereits seit März verfügbar ist. Weitere Änderungen, die die Tails-Maintainer nennen, umfassen etwa den Gnome Terminal, der nun der Gnome Console weicht. Bei dem Wechsel haben die Programmierer das „Root Terminal“ kaputt gemacht. Als temporäre Gegenmaßnahme sollen sich Nutzer mittels des Befehls sudo -i in der regulären Console die Root-Rechte beschaffen.

Den Gnome Image Viewer ersetzen die Entwickler durch Gnome Loupe. Kleopatra fliegt aus dem Favoriten-Ordner und lässt sich nun über „Apps“ – „Zubehör“ – „Kleopatra“ starten. Die obsolete Netzwerk-Verbindungsoption auf dem „Willkommen“-Bildschirm haben die Tails-Macher ebenfalls entfernt.

Diverse Softwarepakete bringt Tails 7.0rc1 in aktualisierten Fassungen mit: Tor Client 0.4.8.17, Thunderbird 128.13.0esr, Linux-Kernel 6.1.4 (mit verbesserter Unterstützung neuer Hardware für Grafik, WLAN und so weiter), Electrum 4.5.8, OnionShare 2.6.3, KeePassXC 2.7.10, Kleopatra 4:24.12, Inksacpe 1.4, Gimp 3.0.4, Audacity 3.7.3, Text Editor 48.3 sowie Document Scanner 46.0. Die Pakete unar, aircrack-ng und sq sind hingegen nicht mehr Bestandteil von Tails.

Tails 7.0rc1 benötigt 3 GByte RAM anstatt ehemals 2 GByte, um flüssig zu laufen. Das betreffe Schätzungen zufolge etwa zwei Prozent der Nutzer. Zudem benötigt die Distribution nun länger zum Starten. Das wollen die Entwickler jedoch bis zum endgültigen Release korrigieren. Final soll Tails 7.0 schließlich am 16. Oktober 2025 erscheinen. Die Release-Candidates sollen Interessierte die Möglichkeit bieten, die neue Fassung bereits zu testen und potenzielle Fehler aufzuspüren. Diese wollen die Entwickler dann bis zur Veröffentlichung der Release-Version ausbügeln.

Ende Juli haben die Tails-Entwickler die Version 6.18 der Distribution herausgegeben. Darin haben sie im Wesentlichen die Unterstützung von WebTunnel-basierten Bridges ins Tor-Netzwerk ergänzt. Die sollen anders als „obfs4“-Brücken die Verbindung als herkömmlichen Webtraffic tarnen. Auch die Version 6.17 von Tails hatte lediglich kleine Aktualisierungen der zentralen Pakete wie Tor-Browser im Gepäck.


(dmk)



Source link

Weiterlesen

Beliebt