Künstliche Intelligenz
GEMA-ChatGPT-Urteil: Das kann kein Zufall sein!
Wer dem Laien erklärt, wie KI-Modelle funktionieren, erntet oft ungläubiges Staunen: Dass der Trick hinter der KI einfach nur Statistik sein soll, dass dem keine Seele, kein Sinn und Verstand innewohnt, ist vielen schier unbegreiflich. Wie kann dieses Ding denn dann in zusammenhängenden Sätzen zu einem sprechen? Oder sogar sinnvolle, gar inspirierende Dinge von sich geben?
Weiterlesen nach der Anzeige
Über allem thront gar eine Frage, die für den Menschen als Spezies ziemlich unangenehm klingt: Sind wir vielleicht in weiten Teilen so berechenbar, dass ein Computer unsere Sprache, unser Wissen und unsere Werke einfach mal eben so in Sekundenschnelle nachbilden kann?

Malte Kirchner ist seit 2022 Redakteur bei heise online. Neben der Technik selbst beschäftigt ihn die Frage, wie diese die Gesellschaft verändert. Sein besonderes Augenmerk gilt Neuigkeiten aus dem Hause Apple. Daneben befasst er sich mit Entwicklung und Podcasten.
Kein Zufall
Das Landgericht München verneinte jetzt in einem Urteil den statistischen Zufall. Zumindest im Falle von neun bekannten Liedern kam es zu dem Ergebnis, dass die KI nicht rein zufällig genauso wie die Künstler auf die nahezu identischen Texte gekommen sein kann. So hatte es OpenAI als Herausgeber von ChatGPT und Beklagte behauptet. Die Texte müssten offenbar „memorisiert“ sein, sagt hingegen das Gericht und folgt damit der deutschen Verwertungsgesellschaft GEMA als Klägerin.
Vor allzu dramatischen Folgenabschätzungen sollte man sich im Moment noch hüten: Das Urteil ist nicht rechtskräftig, und es ist eines von diversen Verfahren, die derzeit in verschiedenen Teilen der Welt gegen die KI-Anbieter angestrengt werden. Vermutlich werden wir in einigen Jahren Grundsatzurteile sehen, vielleicht auch neue Gesetzgebungen. Fest steht aber: Den von der KI-Branche erhofften Durchmarsch durch die Gerichte als Sieger wird es nicht geben.
Urteil rüttelt am Selbstverständnis der Branche
Weiterlesen nach der Anzeige
Und dieser Zwischenschritt ist für die KI-Branche sehr wohl einschneidend. Das Münchener Urteil rüttelt an deren Selbstverständnis, dass KI grundsätzlich etwas Gutes für die Menschheit ist. Etwas, gegen das die Allgemeinheit – hier vertreten durch die Gerichte – doch nichts haben kann, weil es die Gesellschaften weiterbringt. Gerade bei OpenAI liegt dieser Gedanke in der DNA: Als gemeinnützige Organisation geschaffen, nahm sich OpenAI vor, die künstliche Intelligenz zum Wohle der Menschheit zu entwickeln.
In diesem Bewusstsein wurde das Wissen der Menschheit bedenkenlos aufgesogen, um es allen zur Verfügung zu stellen. Dafür zu bezahlen, kam den Machern zunächst nicht in den Sinn. Zumal die KI bis heute mit Training und Rechenleistung immens viel mehr Geld kostet, als sie erwirtschaftet. Nur durch große Mengen Wagniskapital und Investitionen aus der IT-Branche ist sie lebensfähig und zu dem geworden, was sie heute ist.
Immer wieder die Urheberrechte
Aber wie in vorausgegangenen digitalen Räuschen, die durch neue Technologie ausgelöst wurden, sind es einmal mehr die Urheberrechte, die die digitalen Überflieger vom Himmel geholt haben. Immer wieder hat es in den vergangenen Jahren und Jahrzehnten die Fälle gegeben, dass Technik das, was andere Menschen schaffen, freier zugänglich macht. Diese digitale Entfesselung aus den vorher begrenzten analogen Möglichkeiten ist zweifellos ein Fortschritt. Doch am Ende wollen und müssen die Menschen, die etwas erschaffen, auch weiterhin von etwas leben. Die Freude über die neuen Möglichkeiten und über die größere Reichweite sind für sie nicht auskömmlich. Da nun die KI-Anbieter etwas mit ihren Werken erschaffen, erscheint es erstmal legitim, dass sie von ihnen einen Lohn wollen. Genauso legitim ist es allerdings, zu fragen, was Urteile wie das Münchener mit der KI machen.
Erste Experten argwöhnen schon, es könnte gar die Löschung ganzer Modelle im Raum stehen, wenn es den KI-Anbietern nicht gelingt, das beanstandete Wissen irgendwie herauszufiltern oder zu -schneiden. Zu diesem Schlimmstfall muss es aber gar nicht kommen. Es könnte schon genügen, dass sich die KI künftig viel wortkarger, viel restriktiver und ergebnisloser präsentiert, sodass Sinn und Zweck einer ganzen Branche infrage gestellt werden.
Dann lizenziert doch einfach die Inhalte, möchte man der Branche zurufen. Das findet teilweise heute auch schon statt. Aber in einer Branche, die massiv Geld verbrennt, in der vagen Hoffnung, irgendwann als erste die Allgemeine Künstliche Intelligenz, also die wirkliche KI, zu erfinden, ist das wohl eher ein Spiel auf Zeit als eine nachhaltige Lösung.
Zeit für grundlegende Zukunftsgedanken
Es könnte natürlich auch sein, dass Europa mal wieder einen Sonderweg beschreitet. Die Urteile könnten, wenn sie hier anders als im Rest der Welt gefällt werden, in die technische Isolation führen. Wenn aber US-amerikanische Gerichte und solche in Ländern außerhalb der EU nicht grundsätzlich anders urteilen, werden sich OpenAI und Co. einige grundlegende Zukunftsgedanken machen müssen.
Technische Lösungswege versprechen auf den ersten Blick nur halbwegs Abhilfe: Da gibt es zum Beispiel die „Differential Privacy“, eine Technik, die sicherstellt, dass einzelne Trainingsdaten nicht mehr aus dem Modell extrahiert werden können. Das funktioniert prinzipiell, führt aber häufig zu schlechteren Modellergebnissen. Bei der „Constitutional AI“ kann sich ein Modell selbst maßregeln. Auch hier sind Wenn und Aber buchstäblich vorprogrammiert. Und „Machine Unlearning“ wäre zwar ein Weg, urheberrechtlich Geschütztes zu löschen. Aber wenn es nicht bei neun Liedern von Herbert Grönemeyer und Helene Fischer bleibt, fragt sich früher oder später: zu welchem Preis?
Ausweg ungewiss
Die Urheber, vertreten durch die GEMA, gehen für den Moment erstmal mit dem guten Gefühl aus dem Gerichtssaal, dass ihre Belange überhaupt in der KI-Welt eine Rolle spielen. Und die KI-Anbieter wie OpenAI, Google, Anthropic, xAI und DeepSeek werden daran erinnert, dass wichtige Grundsatzfragen nicht einfach durch disruptives Mit-dem-Kopf-durch-die-Wand-gehen aus der Welt geschafft werden können.
Am Ende steht ein fundamentales Dilemma zwischen moralischem Rechthaben (Urheber) und drohender ökonomischer Überforderung (KI-Branche). Und bezeichnenderweise kann die von uns befragte KI auch keinen Ausweg aufzeigen, wie beides in Einklang gebracht werden soll. Das kann kein Zufall sein.
(mki)
Künstliche Intelligenz
Gigawattstunden-Netzspeicher wird in Brandenburg gebaut
Vom fossilen zum erneuerbaren Energieort: Im Jänschwalde bei Cottbus soll ein riesiger Stromspeicher entstehen. Er wird zu den größten Akkumulator-Anlagen dieser Art weltweit gehören.
Weiterlesen nach der Anzeige
Die GigaBattery Jänschwalde 1000 soll Strom aus Solar- und Windkraftanlagen speichern und in Zeiten, wenn beide nicht zur Verfügung stehen, ins Netz speisen. Die Speicherkapazität soll vier Gigawattstunden betragen. Das reiche aus, um über 1,6 Millionen Haushalten vier Stunden lang mit Strom zu versorgen, teilt der Energieversorger LEAG mit. Der Speicher soll eine Leistung von 1 Gigawatt liefern, die Hälfte dessen, was das nahegelegene Braunkohlekraftwerk Jänschwalde bereitstellt.
Das Projekt ist eine Kooperation von LEAG und Fluence Energy GmbH. Die deutsche Tochter des US-Unternehmens liefert Smartstack-Speichermodule, die Lithium-Eisenphosphat-Zellen nutzen, und richtet ihn ein. Zudem übernimmt Fluence die Systemintegration der elektrotechnischen Anlagen. Siemens schließlich liefert die Schaltanlage für den Anschluss an das 380-Kilovolt-Stromnetz.
LEAG baut Energieinfrastruktur in der Lausitz
Die Anlage gehört zu LEAGs Projekt GigawattFactory: Der Energieversorger will an seinen alten Kraftwerks- und Tagebaustandorten in der Lausitz eine neue Energieinfrastruktur im Gigawattmaßstab aufbauen, mit Wind-, Solaranlagen, Gaskraftwerken und Speichern. Der Braunkohleabbau in Jänschwalde wurde erst Ende 2023 eingestellt. Auf der rekultivierten Fläche des Tagebaus entsteht ein Solarpark, dessen erster Bauabschnitt eine Spitzenleistung von rund 133 Megawatt haben wird.
Baubeginn für den neuen Speicher ist voraussichtlich im Mai oder Juni 2026. Ende 2027 oder Anfang 2028 könnte der Speicher in Betrieb gehen, wie eine LEAG-Sprecherin dem PV Magazine gesagt hat.
Der Speicher in Jänschwalde könnte vorübergehend der mit Abstand größte in Deutschland werden. Die aktuell größten Netzakkus haben Kapazitären von rund drei Gigawattstunden. Größere sind in Bau. In Förderstedt in Sachsen-Anhalt entsteht ein Stromspeicher mit einer Kapazität von 714 Megawattstunden. Wenn er fertig ist, wird er der größte deutsche Akkumulator sein.
Weiterlesen nach der Anzeige
(wpl)
Künstliche Intelligenz
5,5 Milliarden Euro: Googles „BIP-Booster“ für KI in Deutschland
Google hat am Dienstag in Berlin seine bislang größten Investitionen in Deutschland angekündigt: 5,5 Milliarden Euro bis 2029. Diese fließen in den massiven Ausbau der Infrastruktur für Künstliche Intelligenz (KI), neue Rechenzentren sowie innovative Projekte für erneuerbare Energien und Abwärmenutzung. Philipp Justus, Deutschlandchef, hob die Dimension des Vorhabens hervor: Es gehe um 5,5 Milliarden Euro bis 2029, „mehr als fünfmal soviel als 2020“ bei der jüngsten Initiative. Öffentliches Geld sei nicht dabei.
Weiterlesen nach der Anzeige
Der Chef von Google Zentraleuropa kündigte den Bau eines „hochmodernen Cloud-Rechenzentrum“ im hessischen Dietzenbach und den Ausbau des bestehenden in Hanau an. Der Einsatz bekräftige Googles Engagement für „langfristiges Wachstum in Deutschland“ und werde „insgesamt jedes Jahr 9000 Arbeitsplätze“ hier sichern. Dabei handle es sich um „klassische Multiplikator-Effekte“: wenn ein Unternehmen investiert, entstünden bei Zulieferbetrieben weitere Jobs.
Die Republik bezeichnete Justus als einen „attraktiven Standort für KI, weil wir viele Unternehmen hier haben, die über einen sehr großen Datenschatz verfügen“. Google wolle die „Rechenpower näher an die deutsche Wirtschaft, den Mittelstand bringen“. Er erwähnte zudem, dass es bereits die Google-Cloud-Region Berlin-Brandenburg gäbe, die „live“ sei, wenn auch ohne eigenes Rechenzentrum.
Fokus auf Nachhaltigkeit und digitale Souveränität
Der Aspekt der Nachhaltigkeit spiele eine zentrale Rolle, unterstrich Marianne Janik, Leiterin Google Cloud Nordeuropa. Der US-Konzern setze in Dietzenbach „ganz neue Maßstäbe“. Geplant sei das „erste Wärmerückführungsprojekt für mehr als 2000 Haushalte“, wofür sich das Unternehmen mit dem lokalen Fernwärmeanbieter verständigt habe. Die Kühlung erfolge mithilfe von Trockenluft, um den Wasserverbrauch auf ein Minimum zu reduzieren. Ein weiteres Ziel sei, für die Stromversorgung „bis 2030 in allen Netzen rund um die Uhr CO₂-freie Energie zu nutzen“. Sie betonte die Effizienz der neuen Technologie: Sie biete „viermal soviel Rechenleistung“, verbrauche aber „84 Prozent weniger Energie als ein durchschnittliches Datencenter. Das erste Modul solle 2027 in Betrieb gehen.
Zum Thema digitale Souveränität für Europa, für den just ein US-Hyperscaler sorgen soll, merkte Janik an: Diese Entwicklung brauche „auch Infrastruktur“. Google biete bereits drei Möglichkeiten an, bei denen Kunden wählen könnten, „wie viel digitale Souveränität sie haben wollen“. Die Managerin verwies auf eine bestehende Kooperation mit dem Bundeswehr-IT-Haus BWI, die allerdings heftig umstritten ist. Kristina Sinemus (CDU), hessische Ministerin für Digitalisierung und Innovation, bestätigte: „Wir haben nicht automatisch die Daten alle abgegeben in die USA.“ Verträge könnten so geschlossen werden, dass Datennutzung allein in Deutschland und Europa erfolge. Kritiker verweisen dagegen darauf, dass die US-Gesetze Behörden in den USA auch Zugriffsrechte in Deutschland und Europa gäben.
Standort Dietzenbach: Modellregion aus den 70ern
Weiterlesen nach der Anzeige
Die Eignung seiner Kommune für das Großprojekt malte Dieter Lang, Bürgermeister der Gemeinde Dietzenbach aus, die er als kinderreichste Stadt Hessens bezeichnete. Der Bau sei „jetzt schon mit einer ganzen Reihe von Superlativen verknüpft“. Der SPD-Politiker erinnerte daran, dass das Gebiet bereits in den 1970er Jahren die „größte städtebauliche Maßnahme der Bundesrepublik“ darstellte. Heute seien die Voraussetzungen in diesem „Reallabor“ ideal: „Für Rechenzentrum brauchen Sie Fläche, die ist in Dietzenbach vorhanden.“ Zudem sei dank der Bundesnetzagentur „exklusiv für Betreiber Starkstrom verlegt“ worden, unter anderem mit neun 110-kV-Leitungen.
Lang zeigte sich zuversichtlich: Das Rechenzentrum sei ein „Meilenstein in der nachhaltigen Architektur, eingepackt in die Natur“. Es erfülle „in vielen Aspekten unser Klimaanpassungskonzept“. Die Bagger seien schon am Rollen. Alles spreche dafür, „dass wir 2027 fertig sind“.
Bundesfinanzminister Lars Klingbeil (SPD) wertete die Investition als „wichtiges Signal an den Standort Deutschland“. Die schwarz-rote Koalition wolle das Land modernisieren, Arbeitsplätze sichern und neue schaffen sowie „attraktiver machen für private Investitionen“. Die Entscheidung eines „internationalen Top-Players“ sei ein wichtiger Impuls für die „klimaneutrale Transformation“ und stärke den High-Tech-Standort. Der Vizekanzler mahnte jedoch: „Einzelne Erfolgsmeldungen reichen uns nicht aus.“ Entscheidend seien Strukturreformen, niedrigere Energiepreise und weniger Bürokratie.
Sinemus sieht die Investition als einen „BIP-Booster“. Sie unterstrich, dass die Rhein-Main-Region mit dem Beginn des Internetknotens DE-CIX bereits europaweit Platz 1 bei Rechenzentren sei und das Rückgrat der digitalen Wirtschaft in Europa bilde.
Wie grün sind Google-Rechenzentren wirklich?
Das Vorhaben wirft aber auch Bedenken rund um den steigenden Energieverbrauch, dadurch nötige CO₂-Ausgleichszertifikate und mangelnde Transparenz auf. Julian Bothe, Manager Klimaschutz & KI bei AlgorithmWatch, rügt, dass solch große Investitionen kluge regulatorische Rahmenbedingungen benötigten. Andernfalls drohe eine stärkere Abhängigkeit von fossilen Energien und den nicht überprüfbaren Versprechen der großen Tech-Konzerne.
Google erklärt, den stündlichen Energieverbrauch seiner Rechenzentren aus eigens erzeugten erneuerbaren Energien decken zu wollen. Zahlen für Deutschland aus 2024 zeigen laut AlgorithmWatch aber lediglich eine Abdeckung von 68 Prozent bei stundenweiser Betrachtung; der Rest stammte demnach aus fossilen Quellen.
Google veröffentlicht zwar kumulierte Prozentzahlen zur Nutzung der Erneuerbaren in Deutschland. Diese seien aber weder unabhängig überprüfbar, noch gebe der Konzern die Gesamtsummen des Energieverbrauchs aller seiner Rechenzentren im Land bekannt, moniert Bothe. Zudem scheine Google seiner Verpflichtung aus dem Energieeffizienzgesetz (EnEfG), den Energieverbrauch selbst betriebener Rechenzentren zu veröffentlichen, nicht nachzukommen. Unbekannt sei auch der Energieverbrauch durch Kapazitätsmieten in Rechenzentren anderer Betreiber.
Angesichts des bevorstehenden Wachstums von Rechenzentren hält Bothe eine starke Regulierung für unverzichtbar. Er spricht von einem „fatalen Signal“, dass die Bundesregierung das EnEfG quasi abschaffen wolle. Damit gefährde die Exekutive die Planungssicherheit und riskiere das Scheitern ihrer eigenen Nachhaltigkeitsziele.
(mki)
Künstliche Intelligenz
Ein erster Ausblick auf den Mercedes GLB EQ
Weiterlesen nach der Anzeige
Aus welchem Winkel auch immer man das betrachten mag: Ein Neustart der E-Auto-Strategie bei Mercedes war überfällig. Dass im Sommer 2025 bei einem Teil der bestehenden EQA- und EQB-Modelle Energiegehalt und Ladeleistung zurückgenommen werden mussten, war nur der traurige Abschluss. Der Neustart, eingeleitet mit CLA EQ und GLC EQ, verspricht allerdings eine grundlegende Wende zum Besseren. Einen ersten Ausblick auf den kommenden GLB EQ gewährte Mercedes in frostiger Umgebung schon.
Keine Überraschung
Die äußere Gestaltung lag bei diesem Termin noch unter einer dicken Eisschicht. Zwar sind so kurz vor der offiziellen Premiere praktisch alle Tests schon gelaufen, doch die Verantwortlichen wollten noch nicht alles offenlegen. Was sich schon erkennen lässt: Wie beim GLC EQ bleibt eine Revolution in der Gestaltung aus. Mercedes gibt dem Neuanfang einen konservativen Anstrich. Der noch aktuelle EQB ist 4,68 m lang, sein Nachfolger wird das mit rund 4,8 m überbieten. Wie bisher gibt es auch den neuen GLB künftig als Siebensitzer. Bislang lässt sich Mercedes das mit knapp 1000 Euro Aufpreis gut bezahlen.

Mercedes-Benz
)
Immer mit Glasdach
Auch das Innenraum-Design wird niemanden überraschen. Mercedes legt es wohl unter anderem deshalb schon jetzt offen. Im Wesentlichen ist dort das Armaturenbrett zu sehen, das schon aus dem CLA EQ bekannt ist. Hier wie dort wird die volle Anzahl an Displays, die auf den ersten Pressebildern gezeigt wird, vermutlich nur gegen Zuzahlung zu haben sein. Installiert ist in jedem Fall das Betriebssystem MB.OS, das nun nach und nach über die gesamte Modellpalette ausgerollt wird. Wir erwarten es beispielsweise auch im Rahmen der Modellpflege der C-Klasse, die im kommenden Jahr ansteht. Noch nicht geklärt ist die Sache beim Glasdach. Im GLC EQ ist es serienmäßig, eine Verschattung auf Knopfdruck oder eine Illuminierung mit kleinen Sternchen kostet Aufpreis. Öffnen lässt es sich nie. Möglicherweise verfährt Mercedes im GLB EQ ebenso.
Schnell befüllt
Weiterlesen nach der Anzeige
Einen riesigen Schritt bringt der Modellwechsel aber vor allem bei Antrieb und Ladeleistung mit sich. Das vorläufige Basismodell hat schon 200 kW und eine Traktionsbatterie mit 85 kWh, die auch im Allradmodell mit 260 kW Motorleistung Standard ist. Die maximale Ladeleistung liegt bei 320 kW. Die 70 Prozent zwischen 10 und 80 Prozent Ladestand sollen in 22 Minuten nachgefüllt sein. Das entspricht einer durchschnittlichen Nettoladeleistung von rund 162 kW. Die maximale Reichweite im WLTP gibt Mercedes mit „bis zu 700 km“ an.

Mercedes-Benz
)
Wir rechnen damit, dass früher oder später auch der etwas kleiner konfigurierte E-Antriebsstrang aus dem CLA EQ 200 seinen Weg in den GLB EQ finden wird. Er leistet 165 kW, die Batterie bietet einen Energiegehalt von 58 kWh. Ihre maximale Ladeleistung liegt bei 200 kW. Von 10 auf 80 Prozent Ladestand geht es hier in 20 Minuten, woraus sich eine durchschnittliche Nettoladeleistung von knapp 122 kW ergibt. An Wechselstrom können beide gegen Aufpreis mit bis zu 22 kW laden. Serienmäßig belässt es Mercedes bei 11 kW. Wie im CLA wird Mercedes auch den nächsten GLB zusätzlich mit 48-Volt-Hybridantrieben anbieten. Geplant sind drei Leistungsstufen mit 100, 120 und 140 kW, zu denen jeweils noch ein Startergenerator mit 22 kW kommt.
Auslieferung ab Frühjahr 2026
Die offizielle Vorstellung des GLB soll noch im Dezember sein, die Auslieferungen sollen im Frühjahr 2026 beginnen. Noch gibt es keine Aussagen zum Preis, nur ein paar grobe Abschätzungen, wohin es gehen könnte. Der aktuelle Mercedes GLB mit Verbrenner wird offiziell ab rund 44.000 Euro angeboten, der EQB mit E-Antrieb ab knapp 48.000 Euro. Darunter wird der Nachfolger kaum zu haben sein. Andererseits begrenzt der GLC EQ die Angelegenheit nach oben. Das in der kommenden Modellhierarchie recht weit oben angesiedelte Startmodell GLC 400 EQ ist ab 71.281 Euro zu haben, wobei Mercedes schon im Konfigurator den ersten Nachlass einräumt. Da der GLB EQ etwas unterhalb dieses Modells eingeordnet sein soll, wird er wohl weniger teuer, was nicht mit preiswert gleichzusetzen ist. Das aber hat von Mercedes wohl auch niemand ernsthaft erwartet.
(mfz)
-
UX/UI & Webdesignvor 3 MonatenDer ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 2 MonatenAdobe Firefly Boards › PAGE online
-
Apps & Mobile Entwicklungvor 3 MonatenGalaxy Tab S10 Lite: Günstiger Einstieg in Samsungs Premium-Tablets
-
Social Mediavor 3 MonatenRelatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
UX/UI & Webdesignvor 4 WochenIllustrierte Reise nach New York City › PAGE online
-
Datenschutz & Sicherheitvor 2 MonatenHarte Zeiten für den demokratischen Rechtsstaat
-
Entwicklung & Codevor 3 MonatenPosit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 MonatenEventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
