Connect with us

Künstliche Intelligenz

Gigawattstunden-Netzspeicher wird in Brandenburg gebaut


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Vom fossilen zum erneuerbaren Energieort: Im Jänschwalde bei Cottbus soll ein riesiger Stromspeicher entstehen. Er wird zu den größten Akkumulator-Anlagen dieser Art weltweit gehören.

Weiterlesen nach der Anzeige

Die GigaBattery Jänschwalde 1000 soll Strom aus Solar- und Windkraftanlagen speichern und in Zeiten, wenn beide nicht zur Verfügung stehen, ins Netz speisen. Die Speicherkapazität soll vier Gigawattstunden betragen. Das reiche aus, um über 1,6 Millionen Haushalten vier Stunden lang mit Strom zu versorgen, teilt der Energieversorger LEAG mit. Der Speicher soll eine Leistung von 1 Gigawatt liefern, die Hälfte dessen, was das nahegelegene Braunkohlekraftwerk Jänschwalde bereitstellt.

Das Projekt ist eine Kooperation von LEAG und Fluence Energy GmbH. Die deutsche Tochter des US-Unternehmens liefert Smartstack-Speichermodule, die Lithium-Eisenphosphat-Zellen nutzen, und richtet ihn ein. Zudem übernimmt Fluence die Systemintegration der elektrotechnischen Anlagen. Siemens schließlich liefert die Schaltanlage für den Anschluss an das 380-Kilovolt-Stromnetz.

Die Anlage gehört zu LEAGs Projekt GigawattFactory: Der Energieversorger will an seinen alten Kraftwerks- und Tagebaustandorten in der Lausitz eine neue Energieinfrastruktur im Gigawattmaßstab aufbauen, mit Wind-, Solaranlagen, Gaskraftwerken und Speichern. Der Braunkohleabbau in Jänschwalde wurde erst Ende 2023 eingestellt. Auf der rekultivierten Fläche des Tagebaus entsteht ein Solarpark, dessen erster Bauabschnitt eine Spitzenleistung von rund 133 Megawatt haben wird.

Baubeginn für den neuen Speicher ist voraussichtlich im Mai oder Juni 2026. Ende 2027 oder Anfang 2028 könnte der Speicher in Betrieb gehen, wie eine LEAG-Sprecherin dem PV Magazine gesagt hat.

Der Speicher in Jänschwalde könnte vorübergehend der mit Abstand größte in Deutschland werden. Die aktuell größten Netzakkus haben Kapazitären von rund drei Gigawattstunden. Größere sind in Bau. In Förderstedt in Sachsen-Anhalt entsteht ein Stromspeicher mit einer Kapazität von 714 Megawattstunden. Wenn er fertig ist, wird er der größte deutsche Akkumulator sein.

Weiterlesen nach der Anzeige


(wpl)



Source link

Künstliche Intelligenz

Wikipedia wird kostenpflichtig für KI-Bots


Die Wikipedia und verwandte Projekte der Wikimedia-Stiftung sind ein gefundenes Fressen für KI-Firmen. Sie grasen die wertvollen Daten laufend ab, um damit ihre großen Sprachmodelle zu füttern. Das verursacht Wikimedia erhebliche Kosten, weshalb sie die KI-Bots bremsen wollte. Da sich die Bots zunehmend als Menschen tarnen, hat das nur bedingt funktioniert. Jetzt versucht Wikimedia es mit einer separaten Schnittstelle (API).

Weiterlesen nach der Anzeige

Sie wird als Wikimedia Enterprise vermarktet und erlaubt die automatisierte, strukturierte Abfrage der Inhalte. Gelegentliche Nutzung ist gebührenfrei, für intensive Nutzung hingegen fallen Gebühren an. Diese Einnahmen sollen den Serverbetrieb und laufend notwendige juristische Verteidigung finanzieren helfen.

Die exakten Tarife sind offenbar Verhandlungssache und hängen davon ab, ob der Kunde alle Updates in Echtzeit, in stündlichen oder täglichen Zusammenstellungen oder nur auf aktiven Abruf erhalten möchte. Auch Zusagen hinsichtlich Verfügbarkeit und Geschwindigkeit der Antwort auf Unterstützungsanfragen sind relevante Faktoren.

Mit Geld alleine ist es nicht getan: Die Kunden müssen, wenn sie die von zahllosen Freiwilligen zusammengetragenen und strukturierten Daten nutzen, die Quelle angeben. Tantiemen für die Inhalte selbst fallen nicht an.

„In einer Welt, die immer mehr in KI untergeht, ist das menschliche Wissen der Wikipedia für die Welt wertvoller denn je“, heißt es in Wikimedias Vorstellung des Enterprise-Angebots. Sie hebt hervor, dass KI ohne von Menschen bereitgestellte Information sterben würde; mit der Zeit müssten überwiegend KI-generierte Inhalte zum KI-Training herangezogen werden, was zum Zusammenbruch der KI-Modelle führte.

Menschen trügen zur Schaffung von Wissen in einer Weise bei, die nicht durch KI ersetzbar sei. Während aktuelle KI-Werkzeuge Zusammenfassungen schreiben könnten, seien sie zu Diskussion und Konsensbildung, wie freiwillige Wikipedia-Mitarbeiter es täglich tun, unfähig. Künstliche Intelligenz „ist nicht in der Lage, etwas in einem Archiv Vergrabenes aufzustöbern, noch kann sie ein Foto einer Veranstaltung oder eines nicht erfassten Ortes schießen, um Wissen zu verbessern.“

Weiterlesen nach der Anzeige

Überdies sei die Wikipedia in über 300 Sprachen online, häufig von Muttersprachlern geschrieben. Diese Vielsprachigkeit unterstütze die Entwicklung inklusiver KI-Modelle mit Kulturkompetenz.


(ds)



Source link

Weiterlesen

Künstliche Intelligenz

5,5 Milliarden Euro: Googles „BIP-Booster“ für KI in Deutschland


Google hat am Dienstag in Berlin seine bislang größten Investitionen in Deutschland angekündigt: 5,5 Milliarden Euro bis 2029. Diese fließen in den massiven Ausbau der Infrastruktur für Künstliche Intelligenz (KI), neue Rechenzentren sowie innovative Projekte für erneuerbare Energien und Abwärmenutzung. Philipp Justus, Deutschlandchef, hob die Dimension des Vorhabens hervor: Es gehe um 5,5 Milliarden Euro bis 2029, „mehr als fünfmal soviel als 2020“ bei der jüngsten Initiative. Öffentliches Geld sei nicht dabei.

Weiterlesen nach der Anzeige

Der Chef von Google Zentraleuropa kündigte den Bau eines „hochmodernen Cloud-Rechenzentrum“ im hessischen Dietzenbach und den Ausbau des bestehenden in Hanau an. Der Einsatz bekräftige Googles Engagement für „langfristiges Wachstum in Deutschland“ und werde „insgesamt jedes Jahr 9000 Arbeitsplätze“ hier sichern. Dabei handle es sich um „klassische Multiplikator-Effekte“: wenn ein Unternehmen investiert, entstünden bei Zulieferbetrieben weitere Jobs.

Die Republik bezeichnete Justus als einen „attraktiven Standort für KI, weil wir viele Unternehmen hier haben, die über einen sehr großen Datenschatz verfügen“. Google wolle die „Rechenpower näher an die deutsche Wirtschaft, den Mittelstand bringen“. Er erwähnte zudem, dass es bereits die Google-Cloud-Region Berlin-Brandenburg gäbe, die „live“ sei, wenn auch ohne eigenes Rechenzentrum.

Der Aspekt der Nachhaltigkeit spiele eine zentrale Rolle, unterstrich Marianne Janik, Leiterin Google Cloud Nordeuropa. Der US-Konzern setze in Dietzenbach „ganz neue Maßstäbe“. Geplant sei das „erste Wärmerückführungsprojekt für mehr als 2000 Haushalte“, wofür sich das Unternehmen mit dem lokalen Fernwärmeanbieter verständigt habe. Die Kühlung erfolge mithilfe von Trockenluft, um den Wasserverbrauch auf ein Minimum zu reduzieren. Ein weiteres Ziel sei, für die Stromversorgung „bis 2030 in allen Netzen rund um die Uhr CO₂-freie Energie zu nutzen“. Sie betonte die Effizienz der neuen Technologie: Sie biete „viermal soviel Rechenleistung“, verbrauche aber „84 Prozent weniger Energie als ein durchschnittliches Datencenter. Das erste Modul solle 2027 in Betrieb gehen.

Zum Thema digitale Souveränität für Europa, für den just ein US-Hyperscaler sorgen soll, merkte Janik an: Diese Entwicklung brauche „auch Infrastruktur“. Google biete bereits drei Möglichkeiten an, bei denen Kunden wählen könnten, „wie viel digitale Souveränität sie haben wollen“. Die Managerin verwies auf eine bestehende Kooperation mit dem Bundeswehr-IT-Haus BWI, die allerdings heftig umstritten ist. Kristina Sinemus (CDU), hessische Ministerin für Digitalisierung und Innovation, bestätigte: „Wir haben nicht automatisch die Daten alle abgegeben in die USA.“ Verträge könnten so geschlossen werden, dass Datennutzung allein in Deutschland und Europa erfolge. Kritiker verweisen dagegen darauf, dass die US-Gesetze Behörden in den USA auch Zugriffsrechte in Deutschland und Europa gäben.

Weiterlesen nach der Anzeige

Die Eignung seiner Kommune für das Großprojekt malte Dieter Lang, Bürgermeister der Gemeinde Dietzenbach aus, die er als kinderreichste Stadt Hessens bezeichnete. Der Bau sei „jetzt schon mit einer ganzen Reihe von Superlativen verknüpft“. Der SPD-Politiker erinnerte daran, dass das Gebiet bereits in den 1970er Jahren die „größte städtebauliche Maßnahme der Bundesrepublik“ darstellte. Heute seien die Voraussetzungen in diesem „Reallabor“ ideal: „Für Rechenzentrum brauchen Sie Fläche, die ist in Dietzenbach vorhanden.“ Zudem sei dank der Bundesnetzagentur „exklusiv für Betreiber Starkstrom verlegt“ worden, unter anderem mit neun 110-kV-Leitungen.

Lang zeigte sich zuversichtlich: Das Rechenzentrum sei ein „Meilenstein in der nachhaltigen Architektur, eingepackt in die Natur“. Es erfülle „in vielen Aspekten unser Klimaanpassungskonzept“. Die Bagger seien schon am Rollen. Alles spreche dafür, „dass wir 2027 fertig sind“.

Bundesfinanzminister Lars Klingbeil (SPD) wertete die Investition als „wichtiges Signal an den Standort Deutschland“. Die schwarz-rote Koalition wolle das Land modernisieren, Arbeitsplätze sichern und neue schaffen sowie „attraktiver machen für private Investitionen“. Die Entscheidung eines „internationalen Top-Players“ sei ein wichtiger Impuls für die „klimaneutrale Transformation“ und stärke den High-Tech-Standort. Der Vizekanzler mahnte jedoch: „Einzelne Erfolgsmeldungen reichen uns nicht aus.“ Entscheidend seien Strukturreformen, niedrigere Energiepreise und weniger Bürokratie.

Sinemus sieht die Investition als einen „BIP-Booster“. Sie unterstrich, dass die Rhein-Main-Region mit dem Beginn des Internetknotens DE-CIX bereits europaweit Platz 1 bei Rechenzentren sei und das Rückgrat der digitalen Wirtschaft in Europa bilde.

Das Vorhaben wirft aber auch Bedenken rund um den steigenden Energieverbrauch, dadurch nötige CO₂-Ausgleichszertifikate und mangelnde Transparenz auf. Julian Bothe, Manager Klimaschutz & KI bei AlgorithmWatch, rügt, dass solch große Investitionen kluge regulatorische Rahmenbedingungen benötigten. Andernfalls drohe eine stärkere Abhängigkeit von fossilen Energien und den nicht überprüfbaren Versprechen der großen Tech-Konzerne.

Google erklärt, den stündlichen Energieverbrauch seiner Rechenzentren aus eigens erzeugten erneuerbaren Energien decken zu wollen. Zahlen für Deutschland aus 2024 zeigen laut AlgorithmWatch aber lediglich eine Abdeckung von 68 Prozent bei stundenweiser Betrachtung; der Rest stammte demnach aus fossilen Quellen.

Google veröffentlicht zwar kumulierte Prozentzahlen zur Nutzung der Erneuerbaren in Deutschland. Diese seien aber weder unabhängig überprüfbar, noch gebe der Konzern die Gesamtsummen des Energieverbrauchs aller seiner Rechenzentren im Land bekannt, moniert Bothe. Zudem scheine Google seiner Verpflichtung aus dem Energieeffizienzgesetz (EnEfG), den Energieverbrauch selbst betriebener Rechenzentren zu veröffentlichen, nicht nachzukommen. Unbekannt sei auch der Energieverbrauch durch Kapazitätsmieten in Rechenzentren anderer Betreiber.

Angesichts des bevorstehenden Wachstums von Rechenzentren hält Bothe eine starke Regulierung für unverzichtbar. Er spricht von einem „fatalen Signal“, dass die Bundesregierung das EnEfG quasi abschaffen wolle. Damit gefährde die Exekutive die Planungssicherheit und riskiere das Scheitern ihrer eigenen Nachhaltigkeitsziele.


(mki)



Source link

Weiterlesen

Künstliche Intelligenz

GEMA-ChatGPT-Urteil: Das kann kein Zufall sein!


Wer dem Laien erklärt, wie KI-Modelle funktionieren, erntet oft ungläubiges Staunen: Dass der Trick hinter der KI einfach nur Statistik sein soll, dass dem keine Seele, kein Sinn und Verstand innewohnt, ist vielen schier unbegreiflich. Wie kann dieses Ding denn dann in zusammenhängenden Sätzen zu einem sprechen? Oder sogar sinnvolle, gar inspirierende Dinge von sich geben?

Weiterlesen nach der Anzeige

Über allem thront gar eine Frage, die für den Menschen als Spezies ziemlich unangenehm klingt: Sind wir vielleicht in weiten Teilen so berechenbar, dass ein Computer unsere Sprache, unser Wissen und unsere Werke einfach mal eben so in Sekundenschnelle nachbilden kann?


Eine Analyse von Malte Kirchner

Eine Analyse von Malte Kirchner

Malte Kirchner ist seit 2022 Redakteur bei heise online. Neben der Technik selbst beschäftigt ihn die Frage, wie diese die Gesellschaft verändert. Sein besonderes Augenmerk gilt Neuigkeiten aus dem Hause Apple. Daneben befasst er sich mit Entwicklung und Podcasten.

Das Landgericht München verneinte jetzt in einem Urteil den statistischen Zufall. Zumindest im Falle von neun bekannten Liedern kam es zu dem Ergebnis, dass die KI nicht rein zufällig genauso wie die Künstler auf die nahezu identischen Texte gekommen sein kann. So hatte es OpenAI als Herausgeber von ChatGPT und Beklagte behauptet. Die Texte müssten offenbar „memorisiert“ sein, sagt hingegen das Gericht und folgt damit der deutschen Verwertungsgesellschaft GEMA als Klägerin.

Vor allzu dramatischen Folgenabschätzungen sollte man sich im Moment noch hüten: Das Urteil ist nicht rechtskräftig, und es ist eines von diversen Verfahren, die derzeit in verschiedenen Teilen der Welt gegen die KI-Anbieter angestrengt werden. Vermutlich werden wir in einigen Jahren Grundsatzurteile sehen, vielleicht auch neue Gesetzgebungen. Fest steht aber: Den von der KI-Branche erhofften Durchmarsch durch die Gerichte als Sieger wird es nicht geben.

Weiterlesen nach der Anzeige

Und dieser Zwischenschritt ist für die KI-Branche sehr wohl einschneidend. Das Münchener Urteil rüttelt an deren Selbstverständnis, dass KI grundsätzlich etwas Gutes für die Menschheit ist. Etwas, gegen das die Allgemeinheit – hier vertreten durch die Gerichte – doch nichts haben kann, weil es die Gesellschaften weiterbringt. Gerade bei OpenAI liegt dieser Gedanke in der DNA: Als gemeinnützige Organisation geschaffen, nahm sich OpenAI vor, die künstliche Intelligenz zum Wohle der Menschheit zu entwickeln.

In diesem Bewusstsein wurde das Wissen der Menschheit bedenkenlos aufgesogen, um es allen zur Verfügung zu stellen. Dafür zu bezahlen, kam den Machern zunächst nicht in den Sinn. Zumal die KI bis heute mit Training und Rechenleistung immens viel mehr Geld kostet, als sie erwirtschaftet. Nur durch große Mengen Wagniskapital und Investitionen aus der IT-Branche ist sie lebensfähig und zu dem geworden, was sie heute ist.

Aber wie in vorausgegangenen digitalen Räuschen, die durch neue Technologie ausgelöst wurden, sind es einmal mehr die Urheberrechte, die die digitalen Überflieger vom Himmel geholt haben. Immer wieder hat es in den vergangenen Jahren und Jahrzehnten die Fälle gegeben, dass Technik das, was andere Menschen schaffen, freier zugänglich macht. Diese digitale Entfesselung aus den vorher begrenzten analogen Möglichkeiten ist zweifellos ein Fortschritt. Doch am Ende wollen und müssen die Menschen, die etwas erschaffen, auch weiterhin von etwas leben. Die Freude über die neuen Möglichkeiten und über die größere Reichweite sind für sie nicht auskömmlich. Da nun die KI-Anbieter etwas mit ihren Werken erschaffen, erscheint es erstmal legitim, dass sie von ihnen einen Lohn wollen. Genauso legitim ist es allerdings, zu fragen, was Urteile wie das Münchener mit der KI machen.

Erste Experten argwöhnen schon, es könnte gar die Löschung ganzer Modelle im Raum stehen, wenn es den KI-Anbietern nicht gelingt, das beanstandete Wissen irgendwie herauszufiltern oder zu -schneiden. Zu diesem Schlimmstfall muss es aber gar nicht kommen. Es könnte schon genügen, dass sich die KI künftig viel wortkarger, viel restriktiver und ergebnisloser präsentiert, sodass Sinn und Zweck einer ganzen Branche infrage gestellt werden.

Dann lizenziert doch einfach die Inhalte, möchte man der Branche zurufen. Das findet teilweise heute auch schon statt. Aber in einer Branche, die massiv Geld verbrennt, in der vagen Hoffnung, irgendwann als erste die Allgemeine Künstliche Intelligenz, also die wirkliche KI, zu erfinden, ist das wohl eher ein Spiel auf Zeit als eine nachhaltige Lösung.

Es könnte natürlich auch sein, dass Europa mal wieder einen Sonderweg beschreitet. Die Urteile könnten, wenn sie hier anders als im Rest der Welt gefällt werden, in die technische Isolation führen. Wenn aber US-amerikanische Gerichte und solche in Ländern außerhalb der EU nicht grundsätzlich anders urteilen, werden sich OpenAI und Co. einige grundlegende Zukunftsgedanken machen müssen.

Technische Lösungswege versprechen auf den ersten Blick nur halbwegs Abhilfe: Da gibt es zum Beispiel die „Differential Privacy“, eine Technik, die sicherstellt, dass einzelne Trainingsdaten nicht mehr aus dem Modell extrahiert werden können. Das funktioniert prinzipiell, führt aber häufig zu schlechteren Modellergebnissen. Bei der „Constitutional AI“ kann sich ein Modell selbst maßregeln. Auch hier sind Wenn und Aber buchstäblich vorprogrammiert. Und „Machine Unlearning“ wäre zwar ein Weg, urheberrechtlich Geschütztes zu löschen. Aber wenn es nicht bei neun Liedern von Herbert Grönemeyer und Helene Fischer bleibt, fragt sich früher oder später: zu welchem Preis?

Die Urheber, vertreten durch die GEMA, gehen für den Moment erstmal mit dem guten Gefühl aus dem Gerichtssaal, dass ihre Belange überhaupt in der KI-Welt eine Rolle spielen. Und die KI-Anbieter wie OpenAI, Google, Anthropic, xAI und DeepSeek werden daran erinnert, dass wichtige Grundsatzfragen nicht einfach durch disruptives Mit-dem-Kopf-durch-die-Wand-gehen aus der Welt geschafft werden können.

Am Ende steht ein fundamentales Dilemma zwischen moralischem Rechthaben (Urheber) und drohender ökonomischer Überforderung (KI-Branche). Und bezeichnenderweise kann die von uns befragte KI auch keinen Ausweg aufzeigen, wie beides in Einklang gebracht werden soll. Das kann kein Zufall sein.


(mki)



Source link

Weiterlesen

Beliebt