Künstliche Intelligenz
Drei Fragen und Antworten: Ist generative KI eine Klimasau?
Generative KI braucht nicht nur gewaltige Datenmengen, sondern auch reichlich Strom. Je nach Energiequelle kommen dazu dann noch CO₂-Emissionen. Manche Branchengrößen wie der OpenAI-Chef Sam Altman sehen das überaus entspannt – laut ihm steht der Menschheit ab 2030 ohnehin unbegrenzt Energie zur Verfügung. Ein KI-nutzendes Unternehmen, das schon heute über seine Umweltbilanz Rechenschaft ablegen muss, kann sich aber schlecht auf solche Prophezeiungen berufen. Boris Ruf, Titelautor der neuen iX 7/2025, erklärt die Lage und worauf man achten kann.
Boris Ruf ist Data Scientist bei AXA und Experte für nachhaltige KI.
KI gilt derzeit als die Zukunftstechnologie schlechthin. Setzen wir unsere Hoffnung damit auf einen stromfressenden Klimakiller?
Generative KI ist tatsächlich eine sehr energieintensive Technologie. Zum einen benötigt das Erstellen der KI-Modelle viel Rechenleistung, aber auch ihr Betrieb verbraucht große Mengen an Strom. Marktbeobachter wie die Internationale Energieagentur rechnen deshalb für diese Branche mit massiv steigendem Energiebedarf.
Die Umweltauswirkungen dieser Entwicklung hängen natürlich davon ab, wie der zusätzlich benötigte Strom gewonnen wird. Die großen IT-Konzerne unterstützen den Ausbau erneuerbarer Energien, indem sie in zahlreiche neue Energieprojekte in diesem Bereich investieren. Allerdings ist der Energiebedarf von Rechenzentren bereits heute hoch, und sie benötigen Versorgungssicherheit rund um die Uhr. Wind- und Sonnenenergie stehen jedoch nicht permanent zur Verfügung, und die Batterietechnologie ist noch nicht ausgereift genug, um entsprechende Flauten zu überbrücken. Es wird daher eine große Herausforderung sein, die Auswirkungen des KI-Booms auf die Umwelt so gering wie möglich zu halten.
Was hat den größeren Stromhunger und CO₂-Fußabdruck: Inferenz oder Modell-Training?
Anfangs lag der Fokus vor allem auf dem Training von KI-Modellen. Dafür werden gigantische Datenmengen über Wochen hinweg in Rechenclustern verarbeitet, was einen erheblichen Ressourcenaufwand erfordert.
Mittlerweile ist aber der Energiebedarf der KI während des Betriebs ins Zentrum gerückt. Bei jeder Anfrage an ein KI-Modell werden Milliarden an Parametern aktiviert. Im Vergleich zu einer klassischen Datenbankabfrage ist das ein sehr rechenintensiver Vorgang. Angesichts des hohen Anfragevolumens – nicht zuletzt aufgrund der zunehmenden Integration von KI in unterschiedlichste Prozesse – summiert sich der Energieaufwand beträchtlich.
Die großen Anbieter der proprietären KI-Modelle präsentieren sich ja eher als Blackbox, auch bei Fragen des Energieverbrauchs und der Umweltauswirkungen. Was soll man als Unternehmen machen, wenn man trotzdem Zahlen für sein Nachhaltigkeits-Reporting braucht? Und welche Tools gibt es für die quelloffenen Modelle?
Was den Energieverbrauch und die Emissionen von proprietären Modellen betrifft, ist die offizielle Datenlage tatsächlich leider sehr dünn. Trotzdem sollte man versuchen, die Umweltauswirkungen der eigenen KI-Projekte wenigstens zu überschlagen. Wir haben für diverse KI-Modelle entsprechende CO₂-Schätzungen modelliert und einen Online-Rechner zu diesem Thema veröffentlicht. Das Projekt EcoLogits stellt ebenfalls Tools zur Verfügung, mit denen sich der geschätzte CO₂-Fußabdruck proprietärer KI-Modelle loggen lässt.
Wer offene KI-Modelle nutzt, hat bei der Erfassung der Klimabilanz bessere Karten. Zum einen gibt es Benchmarks wie das Projekt AI Energy Score von Salesforce. Durch systematische Messung des jeweiligen Stromverbrauchs lassen sich hiermit eine Reihe frei verfügbarer KI-Modelle effektiv vergleichen. Läuft die KI in der eigenen Infrastruktur, kann man mit einem Tool wie CodeCarbon den Stromverbrauch sogar direkt selbst ermitteln.
Boris, vielen Dank für die Antworten! Einen Überblick zum KI-Energiehunger gibt es in der neuen iX. Außerdem zeigen wir, was der Einsatz großer KI-Modelle kostet und wie sich die CO₂-Bilanz von KI-Projekten ermitteln lässt. All das und viele weitere Themen finden Leser im Juli-Heft, das ab sofort im heise Shop oder am Kiosk erhältlich ist.
In der Serie „Drei Fragen und Antworten“ will die iX die heutigen Herausforderungen der IT auf den Punkt bringen – egal ob es sich um den Blick des Anwenders vorm PC, die Sicht des Managers oder den Alltag eines Administrators handelt. Haben Sie Anregungen aus Ihrer tagtäglichen Praxis oder der Ihrer Nutzer? Wessen Tipps zu welchem Thema würden Sie gerne kurz und knackig lesen? Dann schreiben Sie uns gerne oder hinterlassen Sie einen Kommentar im Forum.
(axk)
Künstliche Intelligenz
Kurz erklärt: Confidential Computing und wie es funktioniert
Die Sicherheitsarchitekturen heutiger IT-Systeme basieren auf einem fundamentalen Vertrauensmodell: Verschlüsselt sind Daten immer dann, wenn sie gespeichert oder übertragen werden – „Data at Rest“ und „Data in Transit“. Während der Verarbeitung liegen sie aber unverschlüsselt im Arbeitsspeicher vor, wo sie ausgelesen werden können – Angreifer bewerkstelligen das zum Beispiel über Seitenkanalattacken.
Confidential Computing schließt diese Lücke mit einer hardwarebasierten Ausführungsumgebung (Trusted Execution Environment, TEE). Sie soll die Daten auch während der Ausführung (Data in Use) vor unbefugtem Zugriff schützen. Das ist insbesondere dann relevant, wenn Cloud-Computing im Spiel ist und es dadurch notwendig wird, dem Cloud-Anbieter zu vertrauen, dass keine sensiblen Daten abfließen.
- Ein Confidential-Computing-fähiger Prozessor kann geschützte Ausführungsumgebungen – Enklaven – erstellen, um den Zugriff auf Daten während ihrer Verarbeitung zu unterbinden.
- Enklaven können weder durch Software- noch durch Hardware-Debugger analysiert werden. Nur der in der Enklave vorhandene Code kann mit den Daten darin interagieren. Zur Verschlüsselung dienen Schlüssel, die direkt in die CPU-Hardware geschrieben sind.
- Enklaven verfügen über Einschränkungen, sowohl in der Funktion als auch in der Performance. Einschlägige SDKs und Frameworks wie SCONE dienen dazu, Software für die entsprechenden Anforderungen aufzubereiten.
Dafür braucht es bestimmte CPUs mit Confidential-Computing-Fähigkeiten. 2015 implementierte Intel die Funktion unter dem Namen SGX (Software Guard Extension) als erster Hersteller in seinen x86-Skylake-Prozessoren. Mittlerweile haben auch andere Hersteller vergleichbare Ansätze – ARM mit TrustZone und AMD mit Secure Processor.
Das war die Leseprobe unseres heise-Plus-Artikels „Kurz erklärt: Confidential Computing und wie es funktioniert“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
TSMC widerspricht Intel-Gerüchten | heise online
Der weltweit größte Chipauftragsfertiger TSMC plant weiterhin keine Partnerschaft mit Intel. Das machte TSMC ein weiteres Mal gegenüber taiwanischen Medien wie Taipei Times klar. Zuvor hatte das Wall Street Journal berichtet, dass Intel wegen möglicher Investitionen auf TSMC zugegangen sei.
TSMC hat laut eigenen Aussagen niemals Gespräche mit einem anderen Unternehmen über Investitionen oder die Gründung einer gemeinsamen Tochterfirma (Joint Venture) geführt – abseits der bestehenden Joint Ventures in Japan (JASM) und Deutschland (ESMC). Auch soll es keine Gespräche über die Vergabe von Lizenzen oder den Transfer von Technologien gegeben haben.
Dementis häufen sich
Gerüchte und Spekulationen über einen TSMC-Einstieg bei Intel halten sich hartnäckig. Zum Jahresanfang erschienen Berichte, wonach sich die US-Regierung verschiedene Kooperationsmodelle gewünscht hätte. Die Spekulationen gingen so weit, dass TSMC den Betrieb von Intels Halbleiterwerken zur Chipproduktion hätte übernehmen können. Im April folgten Gerüchte über ein Joint Venture. TSMC widersprach stets.
Ausgangslage ist Intels wirtschaftlich schlechte Lage. Insbesondere die Halbleiterwerke machen momentan jedes Quartal Verlust in Milliardenhöhe. Aktuell sucht Intel nach Großinvestoren, um sich mehr Zeit zur Rückkehr in die grünen Zahlen zu verschaffen. Erst sollte die Fertigungsgeneration 18A neue Chipkunden anlocken, inzwischen vertröstet Intel auf den Nachfolger 14A fürs Jahr 2027.
Die US-Regierung ist mit einem Anteil von 9,9 Prozent bei Intel eingestiegen. Dafür hat sie zusätzlich zu vorherigen Subventionen 5,7 Milliarden US-Dollar gezahlt. Der japanische Investor Softbank steigt mit zwei Milliarden Dollar ein. Zudem kommt eine Milliarde durch den Teilverkauf der Automotive-Sparte Mobileye rein, weitere 4,5 Milliarden folgen durch den anstehenden Teilverkauf des FPGA-Designers Altera.
Intels Aktie profitiert derweil deutlich von Investitionsgerüchten. Insbesondere Meldungen über einen Apple-Stieg ließen das Wertpapier kürzlich hochschießen. Seit TSMCs Stellungnahme sank der Wert moderat um etwa zwei Prozent.
(mma)
Künstliche Intelligenz
Konsortium kauft Electronic Arts für 55 Milliarden US-Dollar
Der kriselnde US-Spielepublisher Electronic Arts wird gekauft und von der Börse genommen. Das teilte EA am Montagnachmittag gemeinsam mit dem Käuferkonsortium mit. Die Kosten liegen demnach bei 55 Milliarden US-Dollar.
Bei den Käufern handelt es sich um den saudi-arabischen Staatsfonds (Public Investment Fund, PIF) sowie Silver Lake und die Investmentfirma, Affinity Partners, die von Donald Trumps Schwiegersohn Jared Kushner gegründet wurde. Die Transaktion soll zu Beginn des Fiskaljahrs 2027 abgeschlossen werden, erklärten die Firmen. Die Summe von 55 Milliarden US-Dollar teilt sich auf in ein Eigenkapital-Investment von 36 Milliarden US-Dollar und einen Schuldenanteil von 20 Milliarden US-Dollar.
Im Rahmen der fremdfinanzierten Übernahme wird Electronic Arts privatisiert. Der US-Publisher hinter der Fußballreihe „EA FC“ (früher „FIFA“) soll weiterhin in Redwood City ansässig bleiben. Auch CEO Andrew Wilson bleibt im Amt, teilten die Firmen mit. Ob diese Jobgarantie auch für die Angestellten gilt, blieb zunächst offen. Erst vor wenigen Monaten hat EA ein „Black Panther“-Spiel eingestampft und Angestellte entlassen. Zuvor hatte EA bereits Angestellte von Codemasters gefeuert und Mitarbeiter von traditionsreichen Studios wie Bioware abgezogen, um an den finanziell erfolgreichen Sportsimulationen im eigenen Portfolio zu arbeiten.
Zweitgrößter Deal der Spielebranche
Der Deal könnte hinter dem Kauf von Activision Blizzard durch Microsoft für 69 Milliarden US-Dollar zur zweitgrößten Übernahme in der Geschichte der Spielebranche werden. Er unterliegt aber noch der Freigabe von Aufsichtsbehörden und EA-Aktionären. Die dürften zufrieden sein: Nachdem bereits am Sonntag mehrere US-Wirtschaftszeitungen über den bevorstehenden Deal berichtet hatten, stieg der EA-Aktienkurs um über 15 Prozent.
Der saudi-arabische Investmentfonds PIF gehört mit einem Anteil von rund zehn Prozent bereits zu den größten Anteilseignern von Electronic Arts. Die 1982 gegründete US-Firma zählt zu den zehn umsatzstärksten Spielefirmen der Welt. Erfolgsgaranten sind vor allem Sportspiele wie „EA FC“ und „Madden“, die sich maßgeblich über den Verkauf von Lootboxen finanzieren. Zum Portfolio von EA gehören aber auch Spielereihen wie „Mass Effect“, „Battlefield“, „F1“ und „Die Sims“.
(dahe)
-
UX/UI & Webdesignvor 1 Monat
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 1 Monat
Adobe Firefly Boards › PAGE online
-
Social Mediavor 1 Monat
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 1 Monat
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 4 Wochen
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 2 Wochen
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Digital Business & Startupsvor 3 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
Apps & Mobile Entwicklungvor 2 Monaten
Firefox-Update 141.0: KI-gestützte Tab‑Gruppen und Einheitenumrechner kommen