Künstliche Intelligenz
KI-Update kompakt: ChatGPT Pulse, Code World Model, eHealth, KI-Suche
OpenAI macht ChatGPT zum personalisierten Newsfeeds
OpenAI hat ChatGPT Pulse eingeführt, eine Funktion, die proaktiv Themen vorschlägt und Informationen liefert, ohne dass Nutzer danach suchen. Das System nutzt die Memory-Funktion, Chat-Historie und direktes Feedback, um personalisierte Themenkarten zu erstellen. Diese bieten einen schnellen Überblick ähnlich einem Feed in sozialen Netzwerken.

Die Funktion soll Menschen dabei helfen, morgens auf dem Handy zu schauen, was ChatGPT für sie bereithält. OpenAI folgt damit dem Trend aller großen KI-Unternehmen, die glauben, dass Menschen Informationen lieber von außen bekommen möchten, statt aktiv zu suchen. Fraglich bleibt, wie weit Nutzer bereit sind, persönliche Daten preiszugeben, um personalisierte Informationen zu erhalten.
Microsoft erweitert Copilot um Anthropic-Modelle
Microsoft führt schrittweise Alternativen zu OpenAI-Modellen im KI-Assistenten-System Copilot ein. Kunden können künftig auf KI-Modelle von Anthropic umsteigen. Bei der Tochter Github ist Anthropic für zahlende Abonnenten des Github Copilot bereits erste Wahl im Visual Studio Code (VS Code).
Den Anfang macht das Microsoft Copilot Studio, mit dem KI-Agenten erstellt werden. Nach einem Opt-in können die Anthropic-Modelle Claude Sonnet 4 und Claude Opus 4.1 aktiviert werden. Die Umstellung soll flexibel sein, sodass unterschiedliche Aufgaben mit verschiedenen KI-Modellen bearbeitet werden können.
Meta gründet Lobby-Team gegen KI-Gesetze
Meta hat das American Technology Excellence Project gegründet, um weitere KI-Regulierung in den USA zu verhindern. Das Team soll über Dutzende Millionen US-Dollar verfügen und in Bundesstaaten politische Kandidaten unterstützen, die auf Metas Linie sind. Allein in diesem Jahr wurden laut dem Technologie-Webseite Engadget über 1000 Vorschläge zur KI-Regulierung auf bundesstaatlicher Ebene eingebracht.
Meta glaubt, Regulierung würde die USA im Wettrennen um KI mit China zurückwerfen. Schon zuvor hatte das Unternehmen eine ähnliche Interessengruppe in Kalifornien eingerichtet, wo bereits einzelne KI-Gesetze existieren, etwa zum Schutz digitaler Abbilder von Schauspielern oder bezüglich Falschinformationen vor Wahlen.
Metas Code-Modell simuliert Programmausführung
Meta hat das Code World Model entwickelt, ein KI-System mit 32 Milliarden Parametern, das Code nicht nur schreibt, sondern auch dessen Ausführung im Computer simuliert. Das Modell kann vorhersagen, ob ein Programm in einer Endlosschleife hängen bleibt, analysiert die Komplexität von Algorithmen und schätzt Laufzeiten bei verschiedenen Eingabegrößen.
Das System arbeitet auch rückwärts: Aus einer Beschreibung dessen, was ein Programm tun soll, simuliert es die Ausführung und leitet den passenden Code ab. Das Training erfolgte mit über 120 Millionen Python-Programmausführungen. Meta hat das Modell als Open-Weights-Modell unter einer nicht-kommerziellen Forschungslizenz veröffentlicht.
Alibaba stellt Videomodell mit synchronisiertem Ton vor
Alibaba hat Wan2.5-Preview veröffentlicht, ein Videomodell, das zehn Sekunden lange Full HD-Videos mit synchronisiertem Ton erzeugt. Das System verwendet eine multimodale Architektur, die Text, Bilder, Video und Audio in einem einheitlichen System verarbeitet. Als Eingabe akzeptiert es Text, Bilder oder Audio und kann Stimmen mehrerer Personen, Soundeffekte und Hintergrundmusik erstellen.
Wan2.5-Preview erreicht laut Alibaba ein ähnliches Niveau wie Googles Veo 3. In Demonstrationsvideos zeigen sich allerdings noch Schwächen: Bild- und Tonspur passen nur oberflächlich zusammen, Schlagzeugspiel und Musik synchronisieren sich nicht taktgenau, und die Darstellung konsistenter Gesichter bereitet Probleme.

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.
Gesundheitsverband fordert eigenes KI-Reallabor
Der Spitzenverband Digitale Gesundheitsversorgung hat ein „Green Paper“ vorgelegt und fordert eine branchenspezifische „AI Regulatory Sandbox“ für das Gesundheitswesen. Der Verband vertritt über 170 E-Health-Unternehmen und sieht einen Engpass aus unklaren Regularien, mangelndem Datenzugang und fehlenden Testumgebungen für KI-Entwickler.
Das bereits existierende KI-Reallabor der Bundesnetzagentur sei zu unspezifisch für die besonderen Anforderungen von Medizin und Pflege. Besonders problematisch bleibt der Datenzugang: Gesundheitsdaten sind besonders geschützt und auf viele Einrichtungen verteilt. Zudem überschneiden sich die Medizinprodukte-Verordnung und der AI Act teilweise, was zu Verunsicherung führt.
Altman will KI-Einsatz im Gesundheitswesen vorantreiben
OpenAI-Chef Sam Altman sieht große Chancen für KI in der Medizin. „Wir haben beobachtet, dass immer mehr Menschen ChatGPT zur Unterstützung bei der Verwaltung ihrer Gesundheitsversorgung nutzen, und das funktioniert mittlerweile recht gut“, sagte Altman bei der Verleihung des Axel-Springer-Awards in Berlin. Mit GPT-5 wolle OpenAI dies weiter vorantreiben und mit Ärzten zusammenarbeiten.
Ärzte würden es nutzen, um bessere Versorgung zu bieten, aber auch Patienten würden es häufig für Fragen verwenden. Altman ist der neunte Preisträger des undotierten Axel-Springer-Awards, mit dem jährlich Personen gewürdigt werden, die in herausragender Weise Märkte verändern.
Hollywood-Studios haben zu wenig Daten für KI-Training
Die geplante KI-Partnerschaft zwischen dem Filmstudio Lionsgate und dem Start-up Runway kommt langsamer voran als erwartet. Ein überraschender Grund: Die Filmbibliothek reicht nicht aus, um ein leistungsfähiges KI-Modell zu trainieren. Laut einem Insider sei selbst Disneys gesamter Filmkatalog zu klein für dieses Vorhaben.
Ursprünglich wollte Lionsgate seinen Filmkatalog nutzen, um mit Runway ein eigenes KI-Modell für die Filmproduktion zu entwickeln. Zusätzlich bremsen rechtliche Fragen das Projekt: Ungeklärte Bildrechte von Schauspielerinnen und Schauspielern erschweren die Nutzung des Materials. Lionsgate betont, man verfolge weiter KI-Projekte mit mehreren Anbietern.
KI-Zusammenfassungen bedrohen zivilgesellschaftliche Vielfalt
KI-Chatbots und automatisierte Zusammenfassungen in Suchmaschinen verändern das Online-Suchverhalten grundlegend. Immer mehr Menschen bleiben auf den Plattformen und konsumieren nur die dort aufbereiteten Inhalte. Zivilgesellschaftliche Organisationen mit ihrer Expertise bleiben in den Zusammenfassungen bei Suchanfragen unsichtbar und werden oft nicht einmal als Quelle genannt.
Wenn die Organisationswebseiten weniger besucht werden, können NGOs nicht auf ihre weiterführenden Angebote verweisen und um Spenden werben. Große Tech-Konzerne nehmen damit Einfluss auf öffentliche Meinungsbildung, ohne angemessen demokratisch kontrolliert zu werden. Manuel Hofmann von der Deutschen Aidshilfe fordert, dass Plattformen ihre Quellen in KI-Zusammenfassungen prominent ausweisen müssen sowie mehr demokratische Kontrolle.
App verkauft Telefonaufnahmen für KI-Training
„Neon – Money Talks“ ist derzeit in den USA auf Platz 4 in den iPhone-App Charts, noch vor Google und WhatsApp. Die App zeichnet Telefongespräche auf und zahlt dafür 15 US-Cent pro Minute, maximal 30 US-Dollar pro Tag. Die Aufnahmen werden dann für KI-Trainings weiterverkauft, angeblich bereinigt um personenbezogene Daten.
Die Vertragsklauseln sind ein juristisches Minenfeld: Neon Mobile sichert sich unwiderrufliche, weltweite, gebührenfreie, übertragbare und sublizenzierbare Lizenzen. Teilnehmende verzichten auf Ansprüche bezüglich dessen, was Neon oder dessen Kunden aus den Aufnahmen generieren, und haften selbst, wenn sie bei Gesprächen Rechte Dritter verletzen.
Spotify führt Maßnahmen gegen KI-Musik ein
Spotify will seine Nutzer und Musikschaffende vor KI-Musik schützen. Musiker sollen künftig offenlegen, ob und wie KI bei der Produktion zum Einsatz kommt. Ein neues Beschwerdeformular ermöglicht es Künstlern, sich zu melden, wenn ihre Stimme illegal von KI kopiert wurde. Allerdings muss jeder KI-Song einzeln beanstandet werden.
Ab Herbst soll ein Filter KI-Spammer automatisch erkennen, die massenhaft Song-Kopien und kurze KI-Tracks hochladen, um den Algorithmus auszutricksen und möglichst viele Wiedergaben zu bekommen. Der Algorithmus soll diese Inhalte dann nicht mehr empfehlen.

(igr)
Künstliche Intelligenz
5,5 Milliarden Euro: Googles „BIP-Booster“ für KI in Deutschland
Google hat am Dienstag in Berlin seine bislang größten Investitionen in Deutschland angekündigt: 5,5 Milliarden Euro bis 2029. Diese fließen in den massiven Ausbau der Infrastruktur für Künstliche Intelligenz (KI), neue Rechenzentren sowie innovative Projekte für erneuerbare Energien und Abwärmenutzung. Philipp Justus, Deutschlandchef, hob die Dimension des Vorhabens hervor: Es gehe um 5,5 Milliarden Euro bis 2029, „mehr als fünfmal soviel als 2020“ bei der jüngsten Initiative. Öffentliches Geld sei nicht dabei.
Weiterlesen nach der Anzeige
Der Chef von Google Zentraleuropa kündigte den Bau eines „hochmodernen Cloud-Rechenzentrum“ im hessischen Dietzenbach und den Ausbau des bestehenden in Hanau an. Der Einsatz bekräftige Googles Engagement für „langfristiges Wachstum in Deutschland“ und werde „insgesamt jedes Jahr 9000 Arbeitsplätze“ hier sichern. Dabei handle es sich um „klassische Multiplikator-Effekte“: wenn ein Unternehmen investiert, entstünden bei Zulieferbetrieben weitere Jobs.
Die Republik bezeichnete Justus als einen „attraktiven Standort für KI, weil wir viele Unternehmen hier haben, die über einen sehr großen Datenschatz verfügen“. Google wolle die „Rechenpower näher an die deutsche Wirtschaft, den Mittelstand bringen“. Er erwähnte zudem, dass es bereits die Google-Cloud-Region Berlin-Brandenburg gäbe, die „live“ sei, wenn auch ohne eigenes Rechenzentrum.
Fokus auf Nachhaltigkeit und digitale Souveränität
Der Aspekt der Nachhaltigkeit spiele eine zentrale Rolle, unterstrich Marianne Janik, Leiterin Google Cloud Nordeuropa. Der US-Konzern setze in Dietzenbach „ganz neue Maßstäbe“. Geplant sei das „erste Wärmerückführungsprojekt für mehr als 2000 Haushalte“, wofür sich das Unternehmen mit dem lokalen Fernwärmeanbieter verständigt habe. Die Kühlung erfolge mithilfe von Trockenluft, um den Wasserverbrauch auf ein Minimum zu reduzieren. Ein weiteres Ziel sei, für die Stromversorgung „bis 2030 in allen Netzen rund um die Uhr CO₂-freie Energie zu nutzen“. Sie betonte die Effizienz der neuen Technologie: Sie biete „viermal soviel Rechenleistung“, verbrauche aber „84 Prozent weniger Energie als ein durchschnittliches Datencenter. Das erste Modul solle 2027 in Betrieb gehen.
Zum Thema digitale Souveränität für Europa, für den just ein US-Hyperscaler sorgen soll, merkte Janik an: Diese Entwicklung brauche „auch Infrastruktur“. Google biete bereits drei Möglichkeiten an, bei denen Kunden wählen könnten, „wie viel digitale Souveränität sie haben wollen“. Die Managerin verwies auf eine bestehende Kooperation mit dem Bundeswehr-IT-Haus BWI, die allerdings heftig umstritten ist. Kristina Sinemus (CDU), hessische Ministerin für Digitalisierung und Innovation, bestätigte: „Wir haben nicht automatisch die Daten alle abgegeben in die USA.“ Verträge könnten so geschlossen werden, dass Datennutzung allein in Deutschland und Europa erfolge. Kritiker verweisen dagegen darauf, dass die US-Gesetze Behörden in den USA auch Zugriffsrechte in Deutschland und Europa gäben.
Standort Dietzenbach: Modellregion aus den 70ern
Weiterlesen nach der Anzeige
Die Eignung seiner Kommune für das Großprojekt malte Dieter Lang, Bürgermeister der Gemeinde Dietzenbach aus, die er als kinderreichste Stadt Hessens bezeichnete. Der Bau sei „jetzt schon mit einer ganzen Reihe von Superlativen verknüpft“. Der SPD-Politiker erinnerte daran, dass das Gebiet bereits in den 1970er Jahren die „größte städtebauliche Maßnahme der Bundesrepublik“ darstellte. Heute seien die Voraussetzungen in diesem „Reallabor“ ideal: „Für Rechenzentrum brauchen Sie Fläche, die ist in Dietzenbach vorhanden.“ Zudem sei dank der Bundesnetzagentur „exklusiv für Betreiber Starkstrom verlegt“ worden, unter anderem mit neun 110-kV-Leitungen.
Lang zeigte sich zuversichtlich: Das Rechenzentrum sei ein „Meilenstein in der nachhaltigen Architektur, eingepackt in die Natur“. Es erfülle „in vielen Aspekten unser Klimaanpassungskonzept“. Die Bagger seien schon am Rollen. Alles spreche dafür, „dass wir 2027 fertig sind“.
Bundesfinanzminister Lars Klingbeil (SPD) wertete die Investition als „wichtiges Signal an den Standort Deutschland“. Die schwarz-rote Koalition wolle das Land modernisieren, Arbeitsplätze sichern und neue schaffen sowie „attraktiver machen für private Investitionen“. Die Entscheidung eines „internationalen Top-Players“ sei ein wichtiger Impuls für die „klimaneutrale Transformation“ und stärke den High-Tech-Standort. Der Vizekanzler mahnte jedoch: „Einzelne Erfolgsmeldungen reichen uns nicht aus.“ Entscheidend seien Strukturreformen, niedrigere Energiepreise und weniger Bürokratie.
Sinemus sieht die Investition als einen „BIP-Booster“. Sie unterstrich, dass die Rhein-Main-Region mit dem Beginn des Internetknotens DE-CIX bereits europaweit Platz 1 bei Rechenzentren sei und das Rückgrat der digitalen Wirtschaft in Europa bilde.
Wie grün sind Google-Rechenzentren wirklich?
Das Vorhaben wirft aber auch Bedenken rund um den steigenden Energieverbrauch, dadurch nötige CO₂-Ausgleichszertifikate und mangelnde Transparenz auf. Julian Bothe, Manager Klimaschutz & KI bei AlgorithmWatch, rügt, dass solch große Investitionen kluge regulatorische Rahmenbedingungen benötigten. Andernfalls drohe eine stärkere Abhängigkeit von fossilen Energien und den nicht überprüfbaren Versprechen der großen Tech-Konzerne.
Google erklärt, den stündlichen Energieverbrauch seiner Rechenzentren aus eigens erzeugten erneuerbaren Energien decken zu wollen. Zahlen für Deutschland aus 2024 zeigen laut AlgorithmWatch aber lediglich eine Abdeckung von 68 Prozent bei stundenweiser Betrachtung; der Rest stammte demnach aus fossilen Quellen.
Google veröffentlicht zwar kumulierte Prozentzahlen zur Nutzung der Erneuerbaren in Deutschland. Diese seien aber weder unabhängig überprüfbar, noch gebe der Konzern die Gesamtsummen des Energieverbrauchs aller seiner Rechenzentren im Land bekannt, moniert Bothe. Zudem scheine Google seiner Verpflichtung aus dem Energieeffizienzgesetz (EnEfG), den Energieverbrauch selbst betriebener Rechenzentren zu veröffentlichen, nicht nachzukommen. Unbekannt sei auch der Energieverbrauch durch Kapazitätsmieten in Rechenzentren anderer Betreiber.
Angesichts des bevorstehenden Wachstums von Rechenzentren hält Bothe eine starke Regulierung für unverzichtbar. Er spricht von einem „fatalen Signal“, dass die Bundesregierung das EnEfG quasi abschaffen wolle. Damit gefährde die Exekutive die Planungssicherheit und riskiere das Scheitern ihrer eigenen Nachhaltigkeitsziele.
(mki)
Künstliche Intelligenz
GEMA-ChatGPT-Urteil: Das kann kein Zufall sein!
Wer dem Laien erklärt, wie KI-Modelle funktionieren, erntet oft ungläubiges Staunen: Dass der Trick hinter der KI einfach nur Statistik sein soll, dass dem keine Seele, kein Sinn und Verstand innewohnt, ist vielen schier unbegreiflich. Wie kann dieses Ding denn dann in zusammenhängenden Sätzen zu einem sprechen? Oder sogar sinnvolle, gar inspirierende Dinge von sich geben?
Weiterlesen nach der Anzeige
Über allem thront gar eine Frage, die für den Menschen als Spezies ziemlich unangenehm klingt: Sind wir vielleicht in weiten Teilen so berechenbar, dass ein Computer unsere Sprache, unser Wissen und unsere Werke einfach mal eben so in Sekundenschnelle nachbilden kann?

Malte Kirchner ist seit 2022 Redakteur bei heise online. Neben der Technik selbst beschäftigt ihn die Frage, wie diese die Gesellschaft verändert. Sein besonderes Augenmerk gilt Neuigkeiten aus dem Hause Apple. Daneben befasst er sich mit Entwicklung und Podcasten.
Kein Zufall
Das Landgericht München verneinte jetzt in einem Urteil den statistischen Zufall. Zumindest im Falle von neun bekannten Liedern kam es zu dem Ergebnis, dass die KI nicht rein zufällig genauso wie die Künstler auf die nahezu identischen Texte gekommen sein kann. So hatte es OpenAI als Herausgeber von ChatGPT und Beklagte behauptet. Die Texte müssten offenbar „memorisiert“ sein, sagt hingegen das Gericht und folgt damit der deutschen Verwertungsgesellschaft GEMA als Klägerin.
Vor allzu dramatischen Folgenabschätzungen sollte man sich im Moment noch hüten: Das Urteil ist nicht rechtskräftig, und es ist eines von diversen Verfahren, die derzeit in verschiedenen Teilen der Welt gegen die KI-Anbieter angestrengt werden. Vermutlich werden wir in einigen Jahren Grundsatzurteile sehen, vielleicht auch neue Gesetzgebungen. Fest steht aber: Den von der KI-Branche erhofften Durchmarsch durch die Gerichte als Sieger wird es nicht geben.
Urteil rüttelt am Selbstverständnis der Branche
Weiterlesen nach der Anzeige
Und dieser Zwischenschritt ist für die KI-Branche sehr wohl einschneidend. Das Münchener Urteil rüttelt an deren Selbstverständnis, dass KI grundsätzlich etwas Gutes für die Menschheit ist. Etwas, gegen das die Allgemeinheit – hier vertreten durch die Gerichte – doch nichts haben kann, weil es die Gesellschaften weiterbringt. Gerade bei OpenAI liegt dieser Gedanke in der DNA: Als gemeinnützige Organisation geschaffen, nahm sich OpenAI vor, die künstliche Intelligenz zum Wohle der Menschheit zu entwickeln.
In diesem Bewusstsein wurde das Wissen der Menschheit bedenkenlos aufgesogen, um es allen zur Verfügung zu stellen. Dafür zu bezahlen, kam den Machern zunächst nicht in den Sinn. Zumal die KI bis heute mit Training und Rechenleistung immens viel mehr Geld kostet, als sie erwirtschaftet. Nur durch große Mengen Wagniskapital und Investitionen aus der IT-Branche ist sie lebensfähig und zu dem geworden, was sie heute ist.
Immer wieder die Urheberrechte
Aber wie in vorausgegangenen digitalen Räuschen, die durch neue Technologie ausgelöst wurden, sind es einmal mehr die Urheberrechte, die die digitalen Überflieger vom Himmel geholt haben. Immer wieder hat es in den vergangenen Jahren und Jahrzehnten die Fälle gegeben, dass Technik das, was andere Menschen schaffen, freier zugänglich macht. Diese digitale Entfesselung aus den vorher begrenzten analogen Möglichkeiten ist zweifellos ein Fortschritt. Doch am Ende wollen und müssen die Menschen, die etwas erschaffen, auch weiterhin von etwas leben. Die Freude über die neuen Möglichkeiten und über die größere Reichweite sind für sie nicht auskömmlich. Da nun die KI-Anbieter etwas mit ihren Werken erschaffen, erscheint es erstmal legitim, dass sie von ihnen einen Lohn wollen. Genauso legitim ist es allerdings, zu fragen, was Urteile wie das Münchener mit der KI machen.
Erste Experten argwöhnen schon, es könnte gar die Löschung ganzer Modelle im Raum stehen, wenn es den KI-Anbietern nicht gelingt, das beanstandete Wissen irgendwie herauszufiltern oder zu -schneiden. Zu diesem Schlimmstfall muss es aber gar nicht kommen. Es könnte schon genügen, dass sich die KI künftig viel wortkarger, viel restriktiver und ergebnisloser präsentiert, sodass Sinn und Zweck einer ganzen Branche infrage gestellt werden.
Dann lizenziert doch einfach die Inhalte, möchte man der Branche zurufen. Das findet teilweise heute auch schon statt. Aber in einer Branche, die massiv Geld verbrennt, in der vagen Hoffnung, irgendwann als erste die Allgemeine Künstliche Intelligenz, also die wirkliche KI, zu erfinden, ist das wohl eher ein Spiel auf Zeit als eine nachhaltige Lösung.
Zeit für grundlegende Zukunftsgedanken
Es könnte natürlich auch sein, dass Europa mal wieder einen Sonderweg beschreitet. Die Urteile könnten, wenn sie hier anders als im Rest der Welt gefällt werden, in die technische Isolation führen. Wenn aber US-amerikanische Gerichte und solche in Ländern außerhalb der EU nicht grundsätzlich anders urteilen, werden sich OpenAI und Co. einige grundlegende Zukunftsgedanken machen müssen.
Technische Lösungswege versprechen auf den ersten Blick nur halbwegs Abhilfe: Da gibt es zum Beispiel die „Differential Privacy“, eine Technik, die sicherstellt, dass einzelne Trainingsdaten nicht mehr aus dem Modell extrahiert werden können. Das funktioniert prinzipiell, führt aber häufig zu schlechteren Modellergebnissen. Bei der „Constitutional AI“ kann sich ein Modell selbst maßregeln. Auch hier sind Wenn und Aber buchstäblich vorprogrammiert. Und „Machine Unlearning“ wäre zwar ein Weg, urheberrechtlich Geschütztes zu löschen. Aber wenn es nicht bei neun Liedern von Herbert Grönemeyer und Helene Fischer bleibt, fragt sich früher oder später: zu welchem Preis?
Ausweg ungewiss
Die Urheber, vertreten durch die GEMA, gehen für den Moment erstmal mit dem guten Gefühl aus dem Gerichtssaal, dass ihre Belange überhaupt in der KI-Welt eine Rolle spielen. Und die KI-Anbieter wie OpenAI, Google, Anthropic, xAI und DeepSeek werden daran erinnert, dass wichtige Grundsatzfragen nicht einfach durch disruptives Mit-dem-Kopf-durch-die-Wand-gehen aus der Welt geschafft werden können.
Am Ende steht ein fundamentales Dilemma zwischen moralischem Rechthaben (Urheber) und drohender ökonomischer Überforderung (KI-Branche). Und bezeichnenderweise kann die von uns befragte KI auch keinen Ausweg aufzeigen, wie beides in Einklang gebracht werden soll. Das kann kein Zufall sein.
(mki)
Künstliche Intelligenz
Ein erster Ausblick auf den Mercedes GLB EQ
Weiterlesen nach der Anzeige
Aus welchem Winkel auch immer man das betrachten mag: Ein Neustart der E-Auto-Strategie bei Mercedes war überfällig. Dass im Sommer 2025 bei einem Teil der bestehenden EQA- und EQB-Modelle Energiegehalt und Ladeleistung zurückgenommen werden mussten, war nur der traurige Abschluss. Der Neustart, eingeleitet mit CLA EQ und GLC EQ, verspricht allerdings eine grundlegende Wende zum Besseren. Einen ersten Ausblick auf den kommenden GLB EQ gewährte Mercedes in frostiger Umgebung schon.
Keine Überraschung
Die äußere Gestaltung lag bei diesem Termin noch unter einer dicken Eisschicht. Zwar sind so kurz vor der offiziellen Premiere praktisch alle Tests schon gelaufen, doch die Verantwortlichen wollten noch nicht alles offenlegen. Was sich schon erkennen lässt: Wie beim GLC EQ bleibt eine Revolution in der Gestaltung aus. Mercedes gibt dem Neuanfang einen konservativen Anstrich. Der noch aktuelle EQB ist 4,68 m lang, sein Nachfolger wird das mit rund 4,8 m überbieten. Wie bisher gibt es auch den neuen GLB künftig als Siebensitzer. Bislang lässt sich Mercedes das mit knapp 1000 Euro Aufpreis gut bezahlen.

Mercedes-Benz
)
Immer mit Glasdach
Auch das Innenraum-Design wird niemanden überraschen. Mercedes legt es wohl unter anderem deshalb schon jetzt offen. Im Wesentlichen ist dort das Armaturenbrett zu sehen, das schon aus dem CLA EQ bekannt ist. Hier wie dort wird die volle Anzahl an Displays, die auf den ersten Pressebildern gezeigt wird, vermutlich nur gegen Zuzahlung zu haben sein. Installiert ist in jedem Fall das Betriebssystem MB.OS, das nun nach und nach über die gesamte Modellpalette ausgerollt wird. Wir erwarten es beispielsweise auch im Rahmen der Modellpflege der C-Klasse, die im kommenden Jahr ansteht. Noch nicht geklärt ist die Sache beim Glasdach. Im GLC EQ ist es serienmäßig, eine Verschattung auf Knopfdruck oder eine Illuminierung mit kleinen Sternchen kostet Aufpreis. Öffnen lässt es sich nie. Möglicherweise verfährt Mercedes im GLB EQ ebenso.
Schnell befüllt
Weiterlesen nach der Anzeige
Einen riesigen Schritt bringt der Modellwechsel aber vor allem bei Antrieb und Ladeleistung mit sich. Das vorläufige Basismodell hat schon 200 kW und eine Traktionsbatterie mit 85 kWh, die auch im Allradmodell mit 260 kW Motorleistung Standard ist. Die maximale Ladeleistung liegt bei 320 kW. Die 70 Prozent zwischen 10 und 80 Prozent Ladestand sollen in 22 Minuten nachgefüllt sein. Das entspricht einer durchschnittlichen Nettoladeleistung von rund 162 kW. Die maximale Reichweite im WLTP gibt Mercedes mit „bis zu 700 km“ an.

Mercedes-Benz
)
Wir rechnen damit, dass früher oder später auch der etwas kleiner konfigurierte E-Antriebsstrang aus dem CLA EQ 200 seinen Weg in den GLB EQ finden wird. Er leistet 165 kW, die Batterie bietet einen Energiegehalt von 58 kWh. Ihre maximale Ladeleistung liegt bei 200 kW. Von 10 auf 80 Prozent Ladestand geht es hier in 20 Minuten, woraus sich eine durchschnittliche Nettoladeleistung von knapp 122 kW ergibt. An Wechselstrom können beide gegen Aufpreis mit bis zu 22 kW laden. Serienmäßig belässt es Mercedes bei 11 kW. Wie im CLA wird Mercedes auch den nächsten GLB zusätzlich mit 48-Volt-Hybridantrieben anbieten. Geplant sind drei Leistungsstufen mit 100, 120 und 140 kW, zu denen jeweils noch ein Startergenerator mit 22 kW kommt.
Auslieferung ab Frühjahr 2026
Die offizielle Vorstellung des GLB soll noch im Dezember sein, die Auslieferungen sollen im Frühjahr 2026 beginnen. Noch gibt es keine Aussagen zum Preis, nur ein paar grobe Abschätzungen, wohin es gehen könnte. Der aktuelle Mercedes GLB mit Verbrenner wird offiziell ab rund 44.000 Euro angeboten, der EQB mit E-Antrieb ab knapp 48.000 Euro. Darunter wird der Nachfolger kaum zu haben sein. Andererseits begrenzt der GLC EQ die Angelegenheit nach oben. Das in der kommenden Modellhierarchie recht weit oben angesiedelte Startmodell GLC 400 EQ ist ab 71.281 Euro zu haben, wobei Mercedes schon im Konfigurator den ersten Nachlass einräumt. Da der GLB EQ etwas unterhalb dieses Modells eingeordnet sein soll, wird er wohl weniger teuer, was nicht mit preiswert gleichzusetzen ist. Das aber hat von Mercedes wohl auch niemand ernsthaft erwartet.
(mfz)
-
UX/UI & Webdesignvor 3 MonatenDer ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 2 MonatenAdobe Firefly Boards › PAGE online
-
Apps & Mobile Entwicklungvor 3 MonatenGalaxy Tab S10 Lite: Günstiger Einstieg in Samsungs Premium-Tablets
-
Social Mediavor 3 MonatenRelatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
UX/UI & Webdesignvor 4 WochenIllustrierte Reise nach New York City › PAGE online
-
Datenschutz & Sicherheitvor 2 MonatenHarte Zeiten für den demokratischen Rechtsstaat
-
Entwicklung & Codevor 3 MonatenPosit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 MonatenEventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
