Künstliche Intelligenz
Googles Kohlendioxid-Emissionen steigen erneut | heise online
Wieder ein Anstieg bei den CO2-Emissionen: Das geht aus Googles Nachhaltigkeitsbericht hervor, den das Unternehmen hinter der bekannten Suchmaschine jetzt veröffentlicht hat. Demnach ist die Gesamtmenge des ausgestoßenen Kohlendioxids um elf Prozent auf rund 11,5 Millionen Tonnen angewachsen. Verglichen mit 2019 ist das ein Anstieg von 51 Prozent.
Die Zahl repräsentiert jedoch nicht das komplette Ausmaß. Google spricht hier nur von „ambitionsbasierten“ („ambition-based“) Emissionen. Mit dieser Definition schließt das Unternehmen Emissionen aus seiner CO2-Kalkulation aus, die innerhalb seiner Lieferketten auftreten und auf die Google nach eigenen Angaben keinen Einfluss hat, udn mutmaßlich auch keine Ambitionen. Ausgeschlossen werden zum Beispiel bestimmte eingekaufte Waren oder Lebensmittel.
Das wahre Ausmaß ist größer
Ein entsprechend erweitertes Ausmaß der CO2-Emissionen ist in einer Tabelle im Anhang des Berichts zu finden. Demnach hat Google im Jahr 2024 rund 15,2 Millionen Tonnen an Treibhausgasen verursacht. Zum Vergleich: Ein mittelgroßes Kohlekraftwerk stößt laut der Umweltschutzorganisation Worldwide Fund for Nature rund zehn Millionen Tonnen CO2 pro Jahr aus.
Google pocht in seinem Bericht auch auf einen Rückgang der CO2-Emissionen im Bereich der Rechenzentren. Der Energieverbrauch steigt aufgrund des hohen Aufwands zur Entwicklung von Modellen Künstlicher Intelligenz (KI) jedoch weiter an. Im Vergleich zu 2019 sind auch die CO2-Emissionen durch Rechenzentren deutlich höher. Waren es vor sechs Jahren noch rund eine halbe Million Tonnen CO2, waren es 2024 etwas weniger als drei Millionen Tonnen. Immerhin unterbietet das den Wert von rund drei Millionen Tonnen im Jahr 2023 knapp, was Google nun positiv hervorhebt.
Google: CO2-Emissionen schwer kontrollierbar
KI sieht Google auch als einen der wesentlichen Faktoren, der sich bei der Kontrolle der eigenen CO2-Emissionen nur schwer beeinflussen lässt. Die schnelle Entwicklung in diesem Bereich mache den zukünftigen Energiebedarf des Unternehmens nur schwer prognostizierbar.
Lesen Sie auch
Außerdem kritisiert der Nachhaltigkeitsbericht Veränderungen in der Klima- und Energiepolitik, die „langsamer als erforderlich“ voranschreitende Einführung CO2-neutraler Energieversorgung und ein Mangel an CO2-neutralen Lösungen in bestimmten Märkten werden genannt. Diese externen Faktoren könnten sich demnach auf die Kosten, die Machbarkeit und den Zeitplan der eigenen Fortschritte auswirken. Und um das zu bewältigen, sei Flexibilität erforderlich.
Die veröffentlichten Zahlen belegen Googles Trend weg von dem Ziel, das sich das Unternehmen 2019 noch selbst gesetzt hat: Da wollte der Suchmaschinen-Gigant bis 2030 nur noch die Hälfte der jährlichen CO2-Emissionen verursachen, die er für 2019 auswies. Zwar wurde dieses Ziel nie offiziell gestrichen – doch die CO2-Zahlen stiegen seitdem um etwas mehr die Hälfte an – gemessen an den tatsächlichen Emissionen, nicht den „ambitionsbasierten“.
(nen)
Künstliche Intelligenz
Telefónica-CEO Haas: Haben noch keinen Euro mit Glasfaser verdient
Markus Haas, CEO von Telefónica Deutschland, ärgert sich über die vergleichsweise geringe Bereitschaft der Bundesbürger, auf superschnelle Internetverbindungen umzusatteln. „Bislang hat noch keiner, der in Glasfaser in Deutschland investiert hat, einen Euro verdient“, erklärte der Chef des Mobilfunk- und Festnetzbetreibers gegenüber dem Newsletter-Dienst Table.Briefings. Der stockende Glasfaserausbau in Deutschland habe einen Hauptgrund: Hohe Investitionskosten träfen auf eine niedrige Nachfrage nach Anschlüssen mit den optischen Leitungen.
Anders als in Spanien, wo Telefónica als Ex-Monopolist direkt von Kupfer auf Glasfaser wechselte, habe es hierzulande mit VDSL eine Zwischenlösung gegeben, führt Haas aus. Viele Bundesbürger empfänden ihre aktuelle Internetverbindung daher als ausreichend. Der Nutzen eines Glasfaser-Upgrades sei so schwer zu vermitteln. Eine Pflicht, in Häuser oder gar Wohnungen die optische Anschlusstechnik einzubauen, lehnt der Manager trotzdem ab: „Ich denke, es ist schon richtig, eine Technologie nicht gegen den Willen der Kunden und Kundinnen einzuführen.“
Laut der Marktanalyse des Breitbandverbands Breko vom April lag die Glasfaserausbauquote für grundsätzlich direkt anschließbare Häuser Ende 2024 bei 48,8 Prozent. Das entspricht 22,5 Millionen Haushalten und ist ein Plus von 9,1 Prozentpunkten im Vergleich zu 2023. Die Anzahl der tatsächlich angeschlossenen Haushalte stieg auf 24,5 Prozent (11,3 Millionen). Das ist ein Wachstum von 4,1 Prozentpunkten. Die sogenannte Take-up-Rate der tatsächlich genutzten Glasfaseranschlüsse lag bei 26 Prozent. Das heißt: Nur gut ein Viertel der hiesigen Haushalte nutzen diese Technologie aktiv, was 5,9 Millionen „verkauften“ Anschlüssen entspricht.
Zwiespältige Signale der Telekom
Timotheus Höttges, Chef der Deutschen Telekom, kritisierte im Januar, dass erst 13 Prozent der hiesigen Haushalte Glasfaser-Leitungen tatsächlich nutzten. Der Magenta-Konzern setzte selbst aber lange auf das kupferbasierte VDSL mit Vectoring und schwenkte erst langsam auf Glasfaser um. Wettbewerber fordern einen Plan für eine zukunftssichere und reibungslose Kupfer-Glas-Migration. Einzelne Provider werfen der Telekom vor, diese Debatte abzuwürgen und weiter stark mit der VDSL-Vermarktung verdienen zu wollen.
Die Bundesregierung peilt mit ihrer Gigabitstrategie – wie die EU – Glasfaser und superschnelle Netze für alle bis 2030 an. Deutschland bleibe im Festnetz beim Verfolgen dieser Ziele aber teils deutlich unter dem Durchschnitt der Mitgliedsstaaten zurück, teilte die EU-Kommission jüngst mit. Bei „Fibre to the Premises“ (FTTP) lag die deutsche Gesamtabdeckung 2024 demnach nur bei 36,78 Prozent. Zumindest habe die Wachstumsrate von 23,4 Prozent aber das EU-Plus von 8,4 Prozent übertroffen. Für Haushalte in dünn besiedelten Gebieten sieht es mit einer Erschließungsquote von 33,91 Prozent noch schlechter aus.
(nen)
Künstliche Intelligenz
Microsofts KI-Stromhunger: US-Atomkraftwerk soll vorzeitig reaktiviert werden
Im September vorigen Jahres überraschte Microsoft mit der Ankündigung, seinen wachsenden Energiebedarf für eigene KI-Rechenzentren verstärkt mit Atomstrom decken zu wollen: Der Softwareriese unterzeichnete damals einen 20-jährigen Stromabnahmevertrag mit dem US-Versorger Constellation Energy, der auf „CO2-neutralen Strom“ aus Nuklearanlagen spezialisiert ist. Ziel des Deals ist es, den stillgelegten Reaktor TMI Block 1 des Kraftwerks Three Mile Island bis 2028 wieder in Betrieb zu nehmen. Constellation-CEO Joe Dominguez ließ nun aber durchblicken, dass der Atommeiler möglicherweise früher reaktiviert werden könnte.
Schon in zwei Jahren, also 2027, „werden wir bereit sein“, erklärte Dominguez am Mittwoch vor der Presse. Voraussetzung sei, dass der lokale Netzbetreiber in der Region, Pennsylvania-New Jersey-Maryland (PJM), die Anlage wieder ans Stromnetz angeschlossen habe. Constellation hatte den 837-Megawatt-Reaktor 2019 stillgelegt. Grund: Das Unternehmen erhielt damals nicht mehr die notwendigen Subventionen, um mit günstigeren fossilen Brennstoffen konkurrieren zu können. Der Chef des Betreibers meinte nun: „Wir haben mit der Abschaltung dieses Kraftwerks einen Fehler gemacht. Aber wir sind nicht hier, um uns damit zu beschäftigen.“ Es sei sinnvoller, in die Zukunft zu blicken.
Three Mile Island erlangte 1979 weltweit traurige Berühmtheit durch den bislang schlimmsten Atomunfall in den USA. Dabei kam es in Reaktorblock 2 zu einer partiellen Kernschmelze. Constellation legte den betroffenen Meiler in Harrisburg (Pennsylvania) daraufhin dauerhaft still. Den als TMI Block 1 bekannten zweiten Reaktor ließ der Betreiber noch jahrzehntelang am Netz und schaltete ihn erst 2019 aus wirtschaftlichen Gründen ab. In dieser Woche wurde die Anlage in „Crane Clean Energy Center“ umbenannt.
Herausforderungen bei der Reaktivierung
Die erneute Inbetriebnahme von Block 1 sei kein einfacher Vorgang, erläutert das Magazin The Register. Obwohl der Reaktor erst seit sechs Jahren außer Betrieb sei, habe die Anlage selbst bereits über 50 Jahre auf dem Buckel. Turbine, Generator, Transformatoren sowie Kühl- und Steuerungssysteme benötigten eine umfassende Überholung, bevor wieder Strom erzeugt werden kann. Zudem ist eine Genehmigung der US-amerikanischen Atomaufsichtsbehörde erforderlich. Für Constellation sollte das aber prinzipiell eine Formsache sein, da das Unternehmen bereits 21 Kernreaktoren in den USA betreibt.
Angesichts des schier unersättlichen Energiebedarfs, der vom aktuellen Hype rund um generative Künstliche Intelligenz getrieben wird, ist Microsoft nicht der einzige große Cloud-Dienstleister und Rechenzentren-Betreiber, der sich voriges Jahr verstärkt der Kernenergie zugewandt hat. Insbesondere Constellation spielt dabei generell eine Schlüsselrolle.
Vor Kurzem unterzeichnete Meta ebenfalls einen 20-jährigen Abnahmevertrag mit dem Energiekonzern aus Baltimore (Maryland), um den Betrieb des 1,1-Gigawatt-Kernkraftwerks Clinton Clean Energy Center in DeWitt County in Illinois auszuweiten. Dieses Kraftwerk stand vor einem ähnlichen Schicksal wie der Three Mile Island Reaktor Block 1, da das staatliche Null-Emissions-Zertifikateprogramm 2027 ausläuft. Zuvor hatte Meta bereits Angebote für ein bis vier Gigawatt Kernenergie eingeholt, die bis 2030 bereitgestellt werden könnten. Der Betreiber von WhatsApp, Facebook und Instagram setzt ebenfalls in großem Stil auf KI. Training und Betrieb von KI-Software benötigen viel Aktivität in Rechenzentren, was einen hohen Stromverbrauch verursacht.
Hyperscaler setzen vermehrt auf Atomkraft
Mit Amazon Web Services (AWS) hat ein weiterer Hyperscaler stark in Atomkraft investiert und 650 Millionen US-Dollar für den Erwerb einer Kernkraftanlage von Cumulus Data springen lassen. Diese befindet sich neben Talen Energys 2,5-Gigawatt-Kernkraftwerk Susquehanna im Nordosten Pennsylvanias. Der ursprüngliche Vertrag sicherte Amazon direkten Zugang zu mindestens 480 Megawatt sauberer Energie, wurde jedoch im Frühjahr aufgrund von Bedenken lokaler Energieversorger hinsichtlich der Netzstabilität überarbeitet. Statt die Energie direkt zu beziehen, wird Talen die AWS-Rechenzentren in der Region nun bis Ende 2042 mit bis zu 1,92 Gigawatt Netzstrom versorgen.
Zusätzlich zu bestehenden Kernkraftwerken haben kleine modulare Reaktoren (SMRs) als Energiequelle für Rechenzentren großes Interesse bei großen Cloud-Anbietern wie auch Google und Oracle geweckt. Diese Mini-Atomkraftwerke könnten die Leistung bestehender Meiler zusätzlich steigern. Allerdings gehen Experten davon aus, dass die meisten dieser SMRs erst Anfang der 2030er Jahre startbereit sein dürften.
Die neue Energieausrichtung von Hyperscalern wird kritisiert, da die Endlagerung von Atommüll ungelöst ist und Sicherheitsrisiken bestehen. Zudem sind Kernkraftprojekte mit hohen Kosten und langen Bauzeiten verbunden, was alternative, nachhaltigere Energielösungen in den Schatten stellen könnte. Gegner befürchten zudem, dass eine solche Fokussierung die Entwicklung wirklich innovativer und nachhaltiger Energiequellen hemmen könnte.
(nen)
Künstliche Intelligenz
Facebook will an unveröffentlichte Bilder auf Smartphones
Um an gutes Trainingsmaterial für seine künstliche Intelligenz (KI) zu kommen, sind dem Meta-Konzern viele Quellen recht – nach dubiosen Tauschbörsen für urheberrechtlich geschützte Bücher will der Tech-Konzern hierfür nun womöglich auch auf Kamera-Fotos auf dem Smartphone-Speicher seiner Nutzer zugreifen.
Dafür spricht ein Pop-up-Dialogfenster, von dem diverse Facebook-Nutzer berichten. Laut des Tech-Magazins TheVerge erschien dieses automatisch, als sie gerade in der Facebook-App ihre Kamera öffneten, um ein Bild für den eigenen Social-Media-Auftritt zu schießen.
Facebook will an Foto-Ordner
In dem Fenster soll Facebook die Nutzer nach der Einwilligung für „Cloud Processing“ gefragt haben. Was nichts anderes bedeutet, ausgewählte Bilder aus dem Foto-Ordner des Smartphones – also vornehmlich solche Bilder, die die Nutzer wirklich selbst geschossen haben – in eine Facebook-Cloud zu laden. Mit dem Zweck, dass Facebook diese Bilder automatisiert auswerten kann, um den Nutzern zu mutmaßlich passender Gelegenheit automatisch erstellte Collagen, Rückblicke oder KI-Umgestaltungen anzubieten.
Welche Bilder dafür in die Cloud wandern, möchte Facebook selbst auswählen dürfen. Besonders erstaunlich: Es handelt sich bei diesen Bildern nicht um solche, die in irgendeiner Weise von den Nutzern auf einer Meta-Plattform hochgeladen wurden. Facebook möchte ausdrücklich den Smartphone-Speicher durchsuchen und sich die Bilder der Nutzer nehmen, die es für passend hält.
Zustimmung für Meta AI inklusive
Ebenfalls brisant: Wer bei diesem Pop-up-Fenster auf „zustimmen“ drückt, der stimmt damit auch den Nutzungsbedingungen für Meta AI zu. Damit erlauben sie Metas KI, Dinge wie Gesichter, Aufnahmedatum, Personen oder Objekte auf den Bildern auszuwerten. Außerdem erhält Meta dadurch das Recht, persönliche Daten abzuspeichern und weiterzuverwenden.
Auf Anfrage von TheVerge dementierte Meta, dass die durch „Cloud Processing“ erhaltenen Bilder bereits für KI-Training genutzt werden. Weitere Fragen dazu, ob der Konzern plant, das in Zukunft zu tun, lässt Meta jedoch unbeantwortet. TheVerge wertet das als Zeichen dafür, dass so etwas wahrscheinlich ist.
Meta nutzt bereits viele Daten für KI
Es wäre ein weiterer Schritt von Meta, sich Nutzerdaten für das Training seiner KI-Modelle zu sichern. Schon seit Ende Mai nutzt der Konzern sämtliche Daten, die Nutzer in ihrem Instagram- oder Facebook-Profil als „öffentlich“ eingestellt haben automatisch dafür – vorausgesetzt, die Betroffenen haben nicht rechtzeitig widersprochen. Einige Daten werden von Meta immer als öffentlich angesehen, dazu zählen Ihr angegebener Name und der Benutzername, Ihr Profilbild und Avatare, sowie verschiedene Aktivitäten in öffentlichen Gruppen, auf öffentlichen Facebook-Seiten und Instagram-Kanälen. Private Nachrichten und Daten von Nutzern unter 18 Jahren sollen dabei unangetastet bleiben.
(nen)
-
Online Marketing & SEOvor 2 Wochen
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Apps & Mobile Entwicklungvor 2 Wochen
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
UX/UI & Webdesignvor 2 Wochen
Philip Bürli › PAGE online
-
Social Mediavor 2 Wochen
LinkedIn Feature-Update 2025: Aktuelle Neuigkeiten
-
Social Mediavor 2 Wochen
Aktuelle Trends, Studien und Statistiken
-
Social Mediavor 2 Wochen
“Wir haben doch nichts zu erzählen…” – 3 Tricks für neue Social Media Content Ideen
-
Online Marketing & SEOvor 2 Wochen
Aus Marketing, Medien, Agenturen & Tech: Diese 40 klugen Köpfe unter 40 müssen Sie kennen
-
Online Marketing & SEOvor 2 Wochen
#WantaFanta: Warum Fanta und Nico Santos der Gen Z Wünsche erfüllen