Connect with us

Künstliche Intelligenz

Wikipedia wird kostenpflichtig für KI-Bots


Die Wikipedia und verwandte Projekte der Wikimedia-Stiftung sind ein gefundenes Fressen für KI-Firmen. Sie grasen die wertvollen Daten laufend ab, um damit ihre großen Sprachmodelle zu füttern. Das verursacht Wikimedia erhebliche Kosten, weshalb sie die KI-Bots bremsen wollte. Da sich die Bots zunehmend als Menschen tarnen, hat das nur bedingt funktioniert. Jetzt versucht Wikimedia es mit einer separaten Schnittstelle (API).

Weiterlesen nach der Anzeige

Sie wird als Wikimedia Enterprise vermarktet und erlaubt die automatisierte, strukturierte Abfrage der Inhalte. Gelegentliche Nutzung ist gebührenfrei, für intensive Nutzung hingegen fallen Gebühren an. Diese Einnahmen sollen den Serverbetrieb und laufend notwendige juristische Verteidigung finanzieren helfen.

Die exakten Tarife sind offenbar Verhandlungssache und hängen davon ab, ob der Kunde alle Updates in Echtzeit, in stündlichen oder täglichen Zusammenstellungen oder nur auf aktiven Abruf erhalten möchte. Auch Zusagen hinsichtlich Verfügbarkeit und Geschwindigkeit der Antwort auf Unterstützungsanfragen sind relevante Faktoren.

Mit Geld alleine ist es nicht getan: Die Kunden müssen, wenn sie die von zahllosen Freiwilligen zusammengetragenen und strukturierten Daten nutzen, die Quelle angeben. Tantiemen für die Inhalte selbst fallen nicht an.

„In einer Welt, die immer mehr in KI untergeht, ist das menschliche Wissen der Wikipedia für die Welt wertvoller denn je“, heißt es in Wikimedias Vorstellung des Enterprise-Angebots. Sie hebt hervor, dass KI ohne von Menschen bereitgestellte Information sterben würde; mit der Zeit müssten überwiegend KI-generierte Inhalte zum KI-Training herangezogen werden, was zum Zusammenbruch der KI-Modelle führte.

Menschen trügen zur Schaffung von Wissen in einer Weise bei, die nicht durch KI ersetzbar sei. Während aktuelle KI-Werkzeuge Zusammenfassungen schreiben könnten, seien sie zu Diskussion und Konsensbildung, wie freiwillige Wikipedia-Mitarbeiter es täglich tun, unfähig. Künstliche Intelligenz „ist nicht in der Lage, etwas in einem Archiv Vergrabenes aufzustöbern, noch kann sie ein Foto einer Veranstaltung oder eines nicht erfassten Ortes schießen, um Wissen zu verbessern.“

Weiterlesen nach der Anzeige

Überdies sei die Wikipedia in über 300 Sprachen online, häufig von Muttersprachlern geschrieben. Diese Vielsprachigkeit unterstütze die Entwicklung inklusiver KI-Modelle mit Kulturkompetenz.


(ds)



Source link

Künstliche Intelligenz

Microsoft investiert Milliarden in portugiesisches KI-Rechenzentrum


Auf der Suche nach Rechenkraft für Künstliche Intelligenz und die Cloud ist Microsoft in Portugal fündig geworden. In der Hafenstadt Sines, etwa 90 Kilometer Luftlinie südlich der Hauptstadt Lissabon, entsteht ein Campus, der 1,2 Gigawatt Leistung ziehen soll. Eine von insgesamt sechs geplanten Anlagen steht bereits. Nun verspricht Microsoft zehn Milliarden US-Dollar, rund 8,6 Milliarden Euro, beizusteuern.

Weiterlesen nach der Anzeige

Das hat Microsofts President Brad Smith der portugiesischen Tageszeitung Jornal de Negócios anlässlich des in Lissabon stattfindenden Web Summits erzählt. Wie viel des Geldes Miete oder Nutzungsgebühren sind, und wie viel Kapital in Aktien oder andere Beteiligungsformen fließt, ist undeutlich. Auch der Zeitraum für den Geldfluss ist bislang nicht bekannt. Nicht weniger als 12.600 High-End-GPUs der nächsten Generation Nvidias sollen eines Tages in Sines rechnen.

Partner Microsofts sind der britische Hyperscaler Nscale sowie das portugiesische Unternehmen Start Campus. Es hat sich Bau und Betrieb von Rechenzentren im KI-Maßstab verschrieben. Die Anlagen in Sines sollen ausschließlich mit Strom aus erneuerbarer Energie betrieben werden. Zur Kühlung der enormen Anlagen wird das Meer gewärmt. Auch Start Campus hält sich mit Details bislang bedeckt. Es begrüßt Microsofts Ankündigung und hält fest, dass diese sowohl den bestehenden Campus-Teil als auch die geplanten Erweiterungen betrifft.

Neben Zugang zu Meereswasser hat der Standort Sines weitere strategische Vorteile: Ein Unterseekabel führt von dort nach Brasilien sowie bald Französisch Guyana; wohl mehr Einfluss hat, dass Google kommendes Jahr eine Nuvem genannte Glasfaserverbindung an die US-Ostküste eröffnen wird. Unterdessen wälzt die portugiesische Regierung Pläne, Sines zu einem wichtigen NATO-Standort auszubauen. Es ist schon jetzt der größte künstliche Hafen des Atlantiklandes.


(ds)



Source link

Weiterlesen

Künstliche Intelligenz

Gigawattstunden-Netzspeicher wird in Brandenburg gebaut


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Vom fossilen zum erneuerbaren Energieort: Im Jänschwalde bei Cottbus soll ein riesiger Stromspeicher entstehen. Er wird zu den größten Akkumulator-Anlagen dieser Art weltweit gehören.

Weiterlesen nach der Anzeige

Die GigaBattery Jänschwalde 1000 soll Strom aus Solar- und Windkraftanlagen speichern und in Zeiten, wenn beide nicht zur Verfügung stehen, ins Netz speisen. Die Speicherkapazität soll vier Gigawattstunden betragen. Das reiche aus, um über 1,6 Millionen Haushalten vier Stunden lang mit Strom zu versorgen, teilt der Energieversorger LEAG mit. Der Speicher soll eine Leistung von 1 Gigawatt liefern, die Hälfte dessen, was das nahegelegene Braunkohlekraftwerk Jänschwalde bereitstellt.

Das Projekt ist eine Kooperation von LEAG und Fluence Energy GmbH. Die deutsche Tochter des US-Unternehmens liefert Smartstack-Speichermodule, die Lithium-Eisenphosphat-Zellen nutzen, und richtet ihn ein. Zudem übernimmt Fluence die Systemintegration der elektrotechnischen Anlagen. Siemens schließlich liefert die Schaltanlage für den Anschluss an das 380-Kilovolt-Stromnetz.

Die Anlage gehört zu LEAGs Projekt GigawattFactory: Der Energieversorger will an seinen alten Kraftwerks- und Tagebaustandorten in der Lausitz eine neue Energieinfrastruktur im Gigawattmaßstab aufbauen, mit Wind-, Solaranlagen, Gaskraftwerken und Speichern. Der Braunkohleabbau in Jänschwalde wurde erst Ende 2023 eingestellt. Auf der rekultivierten Fläche des Tagebaus entsteht ein Solarpark, dessen erster Bauabschnitt eine Spitzenleistung von rund 133 Megawatt haben wird.

Baubeginn für den neuen Speicher ist voraussichtlich im Mai oder Juni 2026. Ende 2027 oder Anfang 2028 könnte der Speicher in Betrieb gehen, wie eine LEAG-Sprecherin dem PV Magazine gesagt hat.

Der Speicher in Jänschwalde könnte vorübergehend der mit Abstand größte in Deutschland werden. Die aktuell größten Netzakkus haben Kapazitären von rund drei Gigawattstunden. Größere sind in Bau. In Förderstedt in Sachsen-Anhalt entsteht ein Stromspeicher mit einer Kapazität von 714 Megawattstunden. Wenn er fertig ist, wird er der größte deutsche Akkumulator sein.

Weiterlesen nach der Anzeige


(wpl)



Source link

Weiterlesen

Künstliche Intelligenz

5,5 Milliarden Euro: Googles „BIP-Booster“ für KI in Deutschland


Google hat am Dienstag in Berlin seine bislang größten Investitionen in Deutschland angekündigt: 5,5 Milliarden Euro bis 2029. Diese fließen in den massiven Ausbau der Infrastruktur für Künstliche Intelligenz (KI), neue Rechenzentren sowie innovative Projekte für erneuerbare Energien und Abwärmenutzung. Philipp Justus, Deutschlandchef, hob die Dimension des Vorhabens hervor: Es gehe um 5,5 Milliarden Euro bis 2029, „mehr als fünfmal soviel als 2020“ bei der jüngsten Initiative. Öffentliches Geld sei nicht dabei.

Weiterlesen nach der Anzeige

Der Chef von Google Zentraleuropa kündigte den Bau eines „hochmodernen Cloud-Rechenzentrum“ im hessischen Dietzenbach und den Ausbau des bestehenden in Hanau an. Der Einsatz bekräftige Googles Engagement für „langfristiges Wachstum in Deutschland“ und werde „insgesamt jedes Jahr 9000 Arbeitsplätze“ hier sichern. Dabei handle es sich um „klassische Multiplikator-Effekte“: wenn ein Unternehmen investiert, entstünden bei Zulieferbetrieben weitere Jobs.

Die Republik bezeichnete Justus als einen „attraktiven Standort für KI, weil wir viele Unternehmen hier haben, die über einen sehr großen Datenschatz verfügen“. Google wolle die „Rechenpower näher an die deutsche Wirtschaft, den Mittelstand bringen“. Er erwähnte zudem, dass es bereits die Google-Cloud-Region Berlin-Brandenburg gäbe, die „live“ sei, wenn auch ohne eigenes Rechenzentrum.

Der Aspekt der Nachhaltigkeit spiele eine zentrale Rolle, unterstrich Marianne Janik, Leiterin Google Cloud Nordeuropa. Der US-Konzern setze in Dietzenbach „ganz neue Maßstäbe“. Geplant sei das „erste Wärmerückführungsprojekt für mehr als 2000 Haushalte“, wofür sich das Unternehmen mit dem lokalen Fernwärmeanbieter verständigt habe. Die Kühlung erfolge mithilfe von Trockenluft, um den Wasserverbrauch auf ein Minimum zu reduzieren. Ein weiteres Ziel sei, für die Stromversorgung „bis 2030 in allen Netzen rund um die Uhr CO₂-freie Energie zu nutzen“. Sie betonte die Effizienz der neuen Technologie: Sie biete „viermal soviel Rechenleistung“, verbrauche aber „84 Prozent weniger Energie als ein durchschnittliches Datencenter. Das erste Modul solle 2027 in Betrieb gehen.

Zum Thema digitale Souveränität für Europa, für den just ein US-Hyperscaler sorgen soll, merkte Janik an: Diese Entwicklung brauche „auch Infrastruktur“. Google biete bereits drei Möglichkeiten an, bei denen Kunden wählen könnten, „wie viel digitale Souveränität sie haben wollen“. Die Managerin verwies auf eine bestehende Kooperation mit dem Bundeswehr-IT-Haus BWI, die allerdings heftig umstritten ist. Kristina Sinemus (CDU), hessische Ministerin für Digitalisierung und Innovation, bestätigte: „Wir haben nicht automatisch die Daten alle abgegeben in die USA.“ Verträge könnten so geschlossen werden, dass Datennutzung allein in Deutschland und Europa erfolge. Kritiker verweisen dagegen darauf, dass die US-Gesetze Behörden in den USA auch Zugriffsrechte in Deutschland und Europa gäben.

Weiterlesen nach der Anzeige

Die Eignung seiner Kommune für das Großprojekt malte Dieter Lang, Bürgermeister der Gemeinde Dietzenbach aus, die er als kinderreichste Stadt Hessens bezeichnete. Der Bau sei „jetzt schon mit einer ganzen Reihe von Superlativen verknüpft“. Der SPD-Politiker erinnerte daran, dass das Gebiet bereits in den 1970er Jahren die „größte städtebauliche Maßnahme der Bundesrepublik“ darstellte. Heute seien die Voraussetzungen in diesem „Reallabor“ ideal: „Für Rechenzentrum brauchen Sie Fläche, die ist in Dietzenbach vorhanden.“ Zudem sei dank der Bundesnetzagentur „exklusiv für Betreiber Starkstrom verlegt“ worden, unter anderem mit neun 110-kV-Leitungen.

Lang zeigte sich zuversichtlich: Das Rechenzentrum sei ein „Meilenstein in der nachhaltigen Architektur, eingepackt in die Natur“. Es erfülle „in vielen Aspekten unser Klimaanpassungskonzept“. Die Bagger seien schon am Rollen. Alles spreche dafür, „dass wir 2027 fertig sind“.

Bundesfinanzminister Lars Klingbeil (SPD) wertete die Investition als „wichtiges Signal an den Standort Deutschland“. Die schwarz-rote Koalition wolle das Land modernisieren, Arbeitsplätze sichern und neue schaffen sowie „attraktiver machen für private Investitionen“. Die Entscheidung eines „internationalen Top-Players“ sei ein wichtiger Impuls für die „klimaneutrale Transformation“ und stärke den High-Tech-Standort. Der Vizekanzler mahnte jedoch: „Einzelne Erfolgsmeldungen reichen uns nicht aus.“ Entscheidend seien Strukturreformen, niedrigere Energiepreise und weniger Bürokratie.

Sinemus sieht die Investition als einen „BIP-Booster“. Sie unterstrich, dass die Rhein-Main-Region mit dem Beginn des Internetknotens DE-CIX bereits europaweit Platz 1 bei Rechenzentren sei und das Rückgrat der digitalen Wirtschaft in Europa bilde.

Das Vorhaben wirft aber auch Bedenken rund um den steigenden Energieverbrauch, dadurch nötige CO₂-Ausgleichszertifikate und mangelnde Transparenz auf. Julian Bothe, Manager Klimaschutz & KI bei AlgorithmWatch, rügt, dass solch große Investitionen kluge regulatorische Rahmenbedingungen benötigten. Andernfalls drohe eine stärkere Abhängigkeit von fossilen Energien und den nicht überprüfbaren Versprechen der großen Tech-Konzerne.

Google erklärt, den stündlichen Energieverbrauch seiner Rechenzentren aus eigens erzeugten erneuerbaren Energien decken zu wollen. Zahlen für Deutschland aus 2024 zeigen laut AlgorithmWatch aber lediglich eine Abdeckung von 68 Prozent bei stundenweiser Betrachtung; der Rest stammte demnach aus fossilen Quellen.

Google veröffentlicht zwar kumulierte Prozentzahlen zur Nutzung der Erneuerbaren in Deutschland. Diese seien aber weder unabhängig überprüfbar, noch gebe der Konzern die Gesamtsummen des Energieverbrauchs aller seiner Rechenzentren im Land bekannt, moniert Bothe. Zudem scheine Google seiner Verpflichtung aus dem Energieeffizienzgesetz (EnEfG), den Energieverbrauch selbst betriebener Rechenzentren zu veröffentlichen, nicht nachzukommen. Unbekannt sei auch der Energieverbrauch durch Kapazitätsmieten in Rechenzentren anderer Betreiber.

Angesichts des bevorstehenden Wachstums von Rechenzentren hält Bothe eine starke Regulierung für unverzichtbar. Er spricht von einem „fatalen Signal“, dass die Bundesregierung das EnEfG quasi abschaffen wolle. Damit gefährde die Exekutive die Planungssicherheit und riskiere das Scheitern ihrer eigenen Nachhaltigkeitsziele.


(mki)



Source link

Weiterlesen

Beliebt