Connect with us

Künstliche Intelligenz

Drei Fragen und Antworten: Ist generative KI eine Klimasau?


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Generative KI braucht nicht nur gewaltige Datenmengen, sondern auch reichlich Strom. Je nach Energiequelle kommen dazu dann noch CO₂-Emissionen. Manche Branchengrößen wie der OpenAI-Chef Sam Altman sehen das überaus entspannt – laut ihm steht der Menschheit ab 2030 ohnehin unbegrenzt Energie zur Verfügung. Ein KI-nutzendes Unternehmen, das schon heute über seine Umweltbilanz Rechenschaft ablegen muss, kann sich aber schlecht auf solche Prophezeiungen berufen. Boris Ruf, Titelautor der neuen iX 7/2025, erklärt die Lage und worauf man achten kann.


Im Interview: Boris Ruf

Im Interview: Boris Ruf

Boris Ruf ist Data Scientist bei AXA und Experte für nachhaltige KI.

KI gilt derzeit als die Zukunftstechnologie schlechthin. Setzen wir unsere Hoffnung damit auf einen stromfressenden Klimakiller?

Generative KI ist tatsächlich eine sehr energieintensive Technologie. Zum einen benötigt das Erstellen der KI-Modelle viel Rechenleistung, aber auch ihr Betrieb verbraucht große Mengen an Strom. Marktbeobachter wie die Internationale Energieagentur rechnen deshalb für diese Branche mit massiv steigendem Energiebedarf.

Die Umweltauswirkungen dieser Entwicklung hängen natürlich davon ab, wie der zusätzlich benötigte Strom gewonnen wird. Die großen IT-Konzerne unterstützen den Ausbau erneuerbarer Energien, indem sie in zahlreiche neue Energieprojekte in diesem Bereich investieren. Allerdings ist der Energiebedarf von Rechenzentren bereits heute hoch, und sie benötigen Versorgungssicherheit rund um die Uhr. Wind- und Sonnenenergie stehen jedoch nicht permanent zur Verfügung, und die Batterietechnologie ist noch nicht ausgereift genug, um entsprechende Flauten zu überbrücken. Es wird daher eine große Herausforderung sein, die Auswirkungen des KI-Booms auf die Umwelt so gering wie möglich zu halten.

Was hat den größeren Stromhunger und CO₂-Fußabdruck: Inferenz oder Modell-Training?

Anfangs lag der Fokus vor allem auf dem Training von KI-Modellen. Dafür werden gigantische Datenmengen über Wochen hinweg in Rechenclustern verarbeitet, was einen erheblichen Ressourcenaufwand erfordert.

Mittlerweile ist aber der Energiebedarf der KI während des Betriebs ins Zentrum gerückt. Bei jeder Anfrage an ein KI-Modell werden Milliarden an Parametern aktiviert. Im Vergleich zu einer klassischen Datenbankabfrage ist das ein sehr rechenintensiver Vorgang. Angesichts des hohen Anfragevolumens – nicht zuletzt aufgrund der zunehmenden Integration von KI in unterschiedlichste Prozesse – summiert sich der Energieaufwand beträchtlich.

Die großen Anbieter der proprietären KI-Modelle präsentieren sich ja eher als Blackbox, auch bei Fragen des Energieverbrauchs und der Umweltauswirkungen. Was soll man als Unternehmen machen, wenn man trotzdem Zahlen für sein Nachhaltigkeits-Reporting braucht? Und welche Tools gibt es für die quelloffenen Modelle?

Was den Energieverbrauch und die Emissionen von proprietären Modellen betrifft, ist die offizielle Datenlage tatsächlich leider sehr dünn. Trotzdem sollte man versuchen, die Umweltauswirkungen der eigenen KI-Projekte wenigstens zu überschlagen. Wir haben für diverse KI-Modelle entsprechende CO₂-Schätzungen modelliert und einen Online-Rechner zu diesem Thema veröffentlicht. Das Projekt EcoLogits stellt ebenfalls Tools zur Verfügung, mit denen sich der geschätzte CO₂-Fußabdruck proprietärer KI-Modelle loggen lässt.

Wer offene KI-Modelle nutzt, hat bei der Erfassung der Klimabilanz bessere Karten. Zum einen gibt es Benchmarks wie das Projekt AI Energy Score von Salesforce. Durch systematische Messung des jeweiligen Stromverbrauchs lassen sich hiermit eine Reihe frei verfügbarer KI-Modelle effektiv vergleichen. Läuft die KI in der eigenen Infrastruktur, kann man mit einem Tool wie CodeCarbon den Stromverbrauch sogar direkt selbst ermitteln.

Boris, vielen Dank für die Antworten! Einen Überblick zum KI-Energiehunger gibt es in der neuen iX. Außerdem zeigen wir, was der Einsatz großer KI-Modelle kostet und wie sich die CO₂-Bilanz von KI-Projekten ermitteln lässt. All das und viele weitere Themen finden Leser im Juli-Heft, das ab sofort im heise Shop oder am Kiosk erhältlich ist.

In der Serie „Drei Fragen und Antworten“ will die iX die heutigen Herausforderungen der IT auf den Punkt bringen – egal ob es sich um den Blick des Anwenders vorm PC, die Sicht des Managers oder den Alltag eines Administrators handelt. Haben Sie Anregungen aus Ihrer tagtäglichen Praxis oder der Ihrer Nutzer? Wessen Tipps zu welchem Thema würden Sie gerne kurz und knackig lesen? Dann schreiben Sie uns gerne oder hinterlassen Sie einen Kommentar im Forum.


(axk)



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Künstliche Intelligenz

LNG-Terminal in Stade: Kommt jetzt das Spezialschiff abhanden?


Die Inbetriebnahme des LNG-Terminals im niedersächsischen Stade verzögert sich weiter. Jetzt berichtet die US-Finanznachrichtenagentur Bloomberg, dass das vom Bund gecharterte Spezialschiff „Energos Force“ Kurs auf Gibraltar genommen hat und sich damit von seinem eigentlich geplanten Einsatzort entfernt. In den letzten Monaten wartete es vor Dänemark darauf, nach Stade einlaufen zu können. Immerhin: Es gibt erste Anzeichen, dass die beiden Konfliktparteien langsam aufeinander zugehen.

In den Differenzen zwischen der bundeseigenen Deutsche Energy Terminal (DET) GmbH und dem Projektentwickler Hanseatic Energy Hub GmbH (HEH) geht es um den Bau der Suprastruktur. Dieser Anleger sorgt dafür, dass das vom Schiff regasifizierte tiefkalte Flüssigerdgas an Land weitergeleitet und dort in die Gasnetze verteilt werden kann. Die HEH steht auf dem Standpunkt, dass die Suprastruktur bis zum Beginn der Heizperiode in Betrieb gehen könnte, wie eine Sprecherin heise online bestätigte. Dies habe auch ein unabhängiger Prüfbericht ergeben. Zuvor hätten dies bereits die zuständigen Genehmigungsbehörden bestätigt.

Die DET bewertet den Zustand hingegen anders und hielt die Anlagen bislang nicht für einsatzbereit. Dass aber die Prüfung nun ergeben hat, dass doch noch weitere Arbeiten zu erledigen sind, bewertet man dort positiv, wie ein Sprecher heise online mitteilte: „Wir begrüßen es, dass HEH offenbar ebenfalls feststellt, dass die technischen Arbeiten an den Suprastruktur-Anlagen und die für einen sicheren Betrieb der Suprastruktur-Anlagen unter Einhaltung deutscher und internationaler Sicherheitsstandards zu übergebende Dokumentation noch ausstehen. Grundsätzlich sehen wir, dass die Anlage in Betrieb genommen werden könnte, wenn die offenen Punkte, die Uniper benennt, abgearbeitet worden sind.“

Zum Verbleib des Spezialschiffes erklärte die DET, dass sie derzeit eine Subcharter „intensiv“ prüfe. Dem Vernehmen nach soll das Schiff auch ohne aktiven Einsatz erhebliche Kosten erzeugen – eine Untervermietung würde die Kosten für den Bund folglich reduzieren. Eine mögliche Weitervermietung solle jedoch nicht zum Nachteil des Terminals in Stade sein, beteuert die DET: „Bei der Prüfung findet auch Berücksichtigung, dass die Subvercharterung die gerade ebenfalls in Prüfung befindlichen Möglichkeiten für eine zeitnahe Inbetriebnahme des Standortes nicht beeinträchtigen darf. Die Subvercharterung soll also keinen Einfluss auf die Inbetriebnahme von Stade haben.“

Stade ist neben zwei LNG-Terminals in Wilhelmshaven und einem in Brunsbüttel das vierte in Deutschland, das mit einem vom Bund gecharterten Schiff betrieben werden soll. Diese LNG-Terminals wurden eiligst eingerichtet, als der russische Angriffskrieg in der Ukraine begann und die russischen Gaslieferungen nach Westeuropa eingeschränkt wurden.


(mki)



Source link

Weiterlesen

Künstliche Intelligenz

KI-Update: KI-Crawler als Bedrohung, KI-Stromhunger und -Emissionen, KI-Agenten


Matthew Prince, Chef des Infrastrukturanbieters Cloudflare, sieht die Geschäftsgrundlage des Webs bedroht: KI-Systeme saugen Inhalte ab, ohne Nutzer zu den Originalseiten zu schicken. Vor zehn Jahren schickte Google für jede zwei gecrawlte Seiten noch einen Besucher zurück zur Quelle. Heute liegt das Verhältnis bei 18:1. Prince vermutet, dass Google bis zu 90 Prozent der Anfragen ohne Klick beantwortet. Bei KI-Anbietern sieht es düsterer aus: OpenAI crawlt 1.500 Seiten für einen generierten Besuch, Anthropic sogar 60.000.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO

Prince plant eine Gegenstrategie. Ende Juni sollen Publisher in New York einen „roten Knopf“ drücken, um KI-Crawler kollektiv zu blockieren. Cloudflare will dafür ein kostenloses System bereitstellen. Langfristig schwebt ihm ein neues Vergütungsmodell vor, das den Wissenswert von Inhalten honoriert. Das liegt in seinem Interesse: Cloudflares Geschäft hängt vom florierenden Web ab.

Microsoft will den wachsenden Energiebedarf seiner KI-Rechenzentren mit Atomstrom decken. Der Konzern unterzeichnete deshalb 2024 einen Vertrag mit Constellation Energy, um einen stillgelegten Reaktor des Kraftwerks Three Mile Island bereits 2027 wieder in Betrieb zu nehmen. Die Anlage erlangte 1979 traurige Berühmtheit durch den schlimmsten Atomunfall in den USA. Den zweiten, unbeschädigten Reaktor schaltete der Betreiber 2019 aus wirtschaftlichen Gründen ab.

Microsoft ist nicht allein. Meta unterzeichnete einen Vertrag mit Constellation für ein Kraftwerk in Illinois. Amazon Web Services investierte 650 Millionen Dollar in eine Kernkraftanlage in Pennsylvania. Google und Oracle zeigen Interesse an kleineren modularen Reaktoren. Kritiker bemängeln die ungelöste Endlagerung von Atommüll und hohe Kosten, die nachhaltigere Lösungen verdrängen könnten.

Google verfehlt seine Klimaziele deutlich. Die Treibhausgas-Emissionen des Konzerns stiegen 2024 um elf Prozent auf 11,5 Millionen Tonnen – 51 Prozent mehr als 2019. Mit Lieferketten erreichen die Emissionen sogar 15,2 Millionen Tonnen. Zum Vergleich: Ein mittelgroßes Kohlekraftwerk stößt zehn Millionen Tonnen CO2 pro Jahr aus.

Der Energieverbrauch steigt durch KI-Entwicklung weiter an. Google räumt ein, dass die schnelle Entwicklung den zukünftigen Energiebedarf schwer prognostizierbar macht. 2019 wollte der Konzern bis 2030 nur noch die Hälfte der jährlichen Emissionen verursachen. Von diesem Ziel entfernt sich Google immer weiter.

Gartner prognostiziert, dass bis 2027 über 40 Prozent aller heute geplanten oder eingesetzten KI-Agenten eingestellt werden. Die Gründe: steigende Kosten, fehlender Ertrag und unzureichende Risikokontrolle. Analystin Anushree Verma sagt, die meisten Projekte befänden sich in einer frühen Experimentphase und würden durch Hype angetrieben.

Nur etwa 130 der mehr als 1.000 Tools, die agentische KI versprechen, halten demnach dieses Versprechen ein. Den meisten fehlt es an Wert oder Kapitalrendite. Dennoch sehen die Analysten eine Zukunft für KI-Agenten: 15 Prozent der Arbeitsplatz-Entscheidungen sollen 2028 von agentischen Tools übernommen werden. 33 Prozent aller Unternehmenssoftware soll bis 2028 KI-Agenten enthalten – heute sind es weniger als ein Prozent.


KI-Update

KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Meta möchte für sein KI-Training auf alle Fotos im Smartphone-Speicher der Facebook-Nutzer zugreifen. Ein Pop-up-Fenster fragt nach Einwilligung für „Cloud Processing“. Dabei soll Facebook selbst auswählen dürfen, welche Bilder aus dem Foto-Ordner in eine Facebook-Cloud geladen und dort ausgewertet werden. Es geht nicht um freigegebene Fotos, sondern um den gesamten Smartphone-Speicher.

Meta dementiert, dass die durch „Cloud Processing“ erhaltenen Bilder bereits für KI-Training genutzt werden. Fragen zur zukünftigen Nutzung ließ der Konzern unbeantwortet. Seit Ende Mai nutzt Meta bereits öffentliche Instagram- und Facebook-Daten automatisch für KI-Training – außer Nutzer haben rechtzeitig widersprochen.

Microsofts KI-Chip „Braga“ kommt später als geplant. Die Massenproduktion verzögert sich um mindestens sechs Monate bis 2026. Ursprünglich wollte Microsoft den Chip bereits 2025 in seinen Rechenzentren einsetzen. Designänderungen, Personalengpässe und hohe Fluktuation sind die Hauptgründe. Der Chip soll deutlich hinter Nvidias Ende 2024 veröffentlichtem Blackwell-Chip zurückbleiben.

Auch Microsofts aktueller „Maia 100“ wird nur intern getestet. Er kommt weder für ChatGPT noch für Copilot zum Einsatz. Der 2019 entwickelte Chip war ursprünglich für Bildverarbeitunggedacht. Nach Maia 100 hatte Microsoft drei Nachfolger geplant, die 2025, 2026 und 2027 erscheinen sollten. Dieser Zeitplan ist nun fraglich.

Die Berliner Datenschutzbeauftragte Meike Kamp hat die chinesische KI-App Deepseek bei Apple und Google als rechtswidrig gemeldet. Sie fordert die Unternehmen auf, die App aus ihren deutschen Stores zu entfernen. Der Grund: Deepseek übermittelt personenbezogene Daten deutscher Nutzer nach China ohne ausreichenden Schutz. Die App verarbeitet Texteingaben, Chatverläufe, hochgeladene Dateien und Standortdaten auf chinesischen Servern.

In China haben staatliche Stellen weitreichende Zugriffsrechte auf persönliche Daten. Nutzer können sich dort nicht effektiv gegen Datenzugriff wehren oder Beschwerde einlegen. Deepseek kam einer freiwilligen Aufforderung zur Entfernung nicht nach. Apple und Google müssen nun über eine Sperrung entscheiden.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO


(mali)



Source link

Weiterlesen

Künstliche Intelligenz

Seagate-Festplatten mit 28 TByte und HAMR-Aufzeichnungstechnik im Test


In den vergangenen Wochen gab es viele Angebote von rezertifizierten Seagate-Festplatten mit hoher Kapazität. Um Betrug geht es diesmal nicht, aber Heimlichtuerei ist trotzdem im Spiel – und zwar seitens Seagate: Es handelt sich um HAMR-Laufwerke, wie das Unternehmen letztlich auch bestätigte.

HAMR, Heat Assisted Magnetic Recording, ist eine Aufzeichnungstechnik, die beim Schreiben Unterstützung von einem Laser im Schreibkopf bekommt und darüber die Kapazität der Scheiben erhöht, mehr dazu im Artikel „Auf dem Weg zur 100-TByte-Festplatte“. Seagate nennt eine Kapazität von „30+ TByte“ und gibt damit nur noch eine Mindestkapazität an – einzelne Festplatten können auch deutlich mehr Kapazität haben, je nach Qualität der Scheiben. Mittels des Aufzeichnungsverfahrens Shingled Magnetic Recording (SMR) erreichen die Laufwerke sogar eine Kapazität von 36 TByte.




Bislang hatten nur Großabnehmer mit direktem Kontakt zu Seagate die Gelegenheit, eine HAMR-Festplatte zu testen; im freien Handel sind diese Modelle auch Jahre nach der Ankündigung nicht erhältlich. Doch erreichen wohl nicht alle produzierten HAMR-Laufwerke die gewünschte Kapazität. Seagate verkauft diese Laufwerke nun als rezertifizierte Modelle. Im Angebot sind Ausführungen mit 16, 20, 22, 24, 26 und 28 TByte, die sich abgesehen von der Kapazität nicht unterscheiden.


Das war die Leseprobe unseres heise-Plus-Artikels „Seagate-Festplatten mit 28 TByte und HAMR-Aufzeichnungstechnik im Test“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Beliebt