Künstliche Intelligenz
Stromversorgung: Deutschland greift Habecks Gaskraft-Plan wieder auf
Deutschland hält in weiten Teilen an früheren Plänen für seine Stromversorgung fest – das zeigt die Einigung zwischen EU-Kommission und Wirtschaftsministerin Katherina Reiche (CDU). Nach monatelangen Verhandlungen steht jetzt fest, dass die Bundesregierung nur wenig von dem abweichen wird, was die Vorgängerregierung geplant hat.
Weiterlesen nach der Anzeige
Es ist ein großes Ziel: Deutschland soll dekarbonisiert werden. Trotz Ausbau von Sonnen- und Windkraft reichen Erneuerbare Energien zumindest in Zeiten längerer Dunkelflauten auf absehbare Zeit nicht. Vor allem dann, wenn sowohl Autofahrer als auch Industrie auf Strom umstellen. Davon geht – vereinfacht – das Bundeswirtschaftsministerium aus, das für die Energiepolitik zuständig ist. Bis 2035 braucht Deutschland, auch wegen des Kohleausstieges, mehr Stromerzeugungskapazität. Über die Art der gut regelbaren und nur bei Bedarf zugeschalteten Stromquellen wurde in den vergangenen Monaten intensiv diskutiert.
Weil es dabei um staatliche Garantien geht, muss die EU-Kommission dem deutschen Plan zustimmen. Und die erteilte den ursprünglichen Plänen der Bundeswirtschaftsministerin, Gaskraftwerke mit einer Leistung von 20 Gigawatt zu errichten, eine deutliche Absage. Nach monatelangen Verhandlungen gibt es nun eine Einigung zur sogenannten Kraftwerksstrategie. Reiche gibt es kleiner: „Mit den kurzfristigen Ausschreibungen über zwölf Gigawatt neuer, zusätzlicher steuerbarer Leistung schaffen wir auch für die Zukunft die Grundlage für gesicherte Stromversorgung in Deutschland“, sagt die Ministerin.
Noch 2026 sollen Kraftwerkskapazitäten in dieser Größenordnung ausgeschrieben werden. Die Verträge des Bundes mit potenziellen Betreibern werden 15 Jahre laufen.
H2-ready-Kriterium bleibt, Umstellung später
Zehn Gigawatt davon müssen bis 2031 nicht nur zur Verfügung stehen, sondern auch in der Lage sein, über längere Zeiträume durchgehend Strom zu liefern. Kleinere Speicher scheiden somit von vornherein aus. Allerdings soll, heißt es aus dem Wirtschaftsministerium, die Aggregation von Kapazitäten zulässig sein: Mehrere kleinere Anlagen könnten gemeinsam mitbieten. Vieles spricht dafür, dass die zehn Gigawatt Leistung vor allem aus neuen Gaskraftwerke kommen werden.
Die neuen Gaskraftwerke sollen alle „H2-ready“, also in der Lage sein, auch mit Wasserstoff betrieben zu werden. Spätestens ab 2040 soll stückweise der Umstieg beginnen, 2045 will auch Reiche kein Erdgas mehr verfeuern lassen. Das ist deutlich später als in der früheren und von Reiche verworfenen Kraftwerkstrategie des Ampel-Wirtschaftsministers Robert Habeck geplant war: Der hat 2024 ebenfalls zwölf Gigawatt zusätzliche Kapazität geplant, die acht Jahre nach Errichtung schrittweise auf Wasserstoff hätten umgerüstet werden sollen – also ab etwa 2035. Habecks Pläne wurden mit dem vorzeitigen Regierungsende jedoch ad acta gelegt.
Bislang mangelt es an Erzeugungskapazitäten für Wasserstoff, der für die Umrüstung genutzt werden könnte. Auch der Aufbau des sogenannten Wasserstoffkernnetzes, das den Energieträger sicher durch Deutschland transportieren und die bisherige Erdgasinfrastruktur zumindest teilweise ablösen soll, steckt noch in den Kinderschuhen. Mit der jetzt getroffenen Einigung verpflichtet sich aber auch die neue Bundesregierung zu Wasserstoff.
Weiterlesen nach der Anzeige
Nachfragesteuerung ja, Lastabwurf nein
Zwei weitere Gigawatt wird Deutschland technikoffen ausschreiben. Speicherverbünde könnten dafür ebenso infrage kommen wie virtuelle Kraftwerke mit Mindesterzeugungskapazitäten. Details dazu will das Wirtschaftsministerium noch veröffentlichen, nicht förderfähig sollen allerdings Kapazitätsgarantien durch Lastabwurf („Demand Side Response“) sein.
Die Ministerin sieht in ihrer Kraftwerksstrategie einen „Startpunkt für umfassende, technologieoffene Kapazitätsmärkte“. Am Ausstieg aus der Kohleverstromung 2038 und dem Ausstieg aus der fossilen Stromerzeugung 2045 hält die Einigung mit der EU-Kommission fest. Deutschland muss die Pläne noch formell bei der EU-Kommission einreichen.
(ds)
Künstliche Intelligenz
Bitkom: Ohne Stromsubvention für Rechenzentren keine saubere Industrie
Sollte der Strom für Rechenzentren in Deutschland vergünstigt werden? Während die Branche beim deutschen Industriestrompreis bislang – trotz erheblicher Proteste – nicht berücksichtigt wurde, könnte sich nun eine neue Chance ergeben. Ein Gutachten im Auftrag des Bitkom kommt zu dem Schluss, dass Rechenzentren eine zunehmend wichtige Rolle für verschiedene subventionierte Branchen spielen, sodass sie selbst förderwürdig seien.
Weiterlesen nach der Anzeige
Rechenzentren gelten, nicht zuletzt unter dem Eindruck der globalen KI-Entwicklungen, als maßgeblich für den Wirtschaftsstandort Europa und damit auch Deutschland. „Rechenzentren sind das Rückgrat von Industrie und Wirtschaft“, sagt Bitkom-Präsident Ralf Wintergerst. „Wenn wir energieintensive Industrie schützen wollen, dürfen wir ihre digitale Infrastruktur nicht außen vor lassen.“
Stahlwerke, Autoindustrie und andere Branchen, für deren Transformation die EU eine staatliche Beihilfe erlauben will, seien so stark auf Rechenzentren angewiesen, dass diese selbst gefördert werden müssten. Die Nichtberücksichtigung der Rechenzentren könnte gar europarechtswidrig sein. Zu diesem Schluss kommt das Gutachten von Christian Koenig, Experte für EU-Beihilfenrecht an der Universität Bonn.
30.000 Gigawattstunden bis 2030
Der Strompreis habe maßgeblichen Einfluss auf die Konkurrenzfähigkeit der europäischen Industrien, heißt es in dem Gutachten. 46 Prozent der Betriebskosten entfallen laut einer Erhebung der IDC auf Elektrizität. Laut einer im vergangenen Jahr veröffentlichten Studie im Auftrag des Verbands der Internetwirtschaft Eco zahlen Betreiber von Rechenzentren in Deutschland mit 23 Cent einen um ein Viertel höheren Strompreis als in anderen EU-Staaten.
Trotz aller bisherigen Versuche der Rechenzentrenbetreiber, die Kosten zu senken – etwa durch mehr Energieeffizienz, exklusive Ökostrom-Verträge oder die Vermarktung der Abwärme zu Heizzwecken – bleiben Kosten wie Bedarf gewaltig.
21.000 Gigawattstunden (GWh) verbrauchen die deutschen Rechenzentren nach Bitkom-Angaben derzeit jährlich, und der Bedarf soll trotz immer effizienterer Recheneinheiten deutlich wachsen: auf 30.000 GWh bis 2030. Das liege vor allem an der steigenden Zahl der geplanten Rechenzentren, erläutert der Bitkom.
Der Betrieb könnte deutlich günstiger werden, wenn Rechenzentren zu den laut den Leitlinien für staatliche Klima-, Umweltschutz- und Energiebeihilfen (KUEBLL) förderungsfähigen Branchen zählten.
Weiterlesen nach der Anzeige
„Erforderlich ist eine Ergänzung der Berechnungsmethode“, heißt es in dem Gutachten, und zwar um „datenverkehrs- und datenverarbeitungsspezifischer Parameter, welche die hohe Wertschöpfungsbedeutung von Rechenzentren im Hinblick auf die unionalen Ziele adäquat erfassen.“
Ministerium für „angemessene Berücksichtigung“
Grundsätzliche Unterstützung bei dem Vorhaben erhält der Verband dabei aus dem Bundesministerium für Wirtschaft und Energie (BMWE). Das erkennt den Wettbewerbsfaktor Strompreise für Rechenzentren grundsätzlich an, sieht dabei aber auch die Notwendigkeit einer europarechtlichen Regelung.
„Die Bundesregierung setzt sich auf EU-Ebene für eine angemessene Berücksichtigung von Rechenzentren ein“, teilt eine Sprecherin auf Anfrage von heise online mit. Da dies aber noch ein laufender Prozess sei, könnten noch keine weiteren Details genannt werden.
Bundeswirtschaftsministerin Katherina Reiche (CDU) hatte kurz nach Amtsantritt die Betreiber noch schnell entlasten wollen – dass dies jedoch ohne Änderungen am Europarecht nicht möglich ist, hatten Fachleute aus der Branche schon früh zu bedenken gegeben.
(vbr)
Künstliche Intelligenz
Gegen Überwachung: Android-App spürt nahe Smart Glasses auf
Die Android-App „Nearby Glasses“ scannt nach Bluetooth-Signalen in der Umgebung. Erkennt sie in diesen Signalen eine Herstellerkennung von Smart Glasses der Marke Ray-Ban, Oakley und Snap, werden Nutzer darüber benachrichtigt. Der Soziologe und Gelegenheitsentwickler Yves Jeanrenaud hat die App programmiert, weil er Smart Glasses als „unzumutbaren Eingriff“ in die Privatsphäre betrachtet, wie er auf GitHub schreibt.
Weiterlesen nach der Anzeige
Jeanrenaud weist auf GitHub darauf hin, dass seine App nicht perfekt sei. Fehlalarme seien wahrscheinlich, weil die Kennung nur den Hersteller verrät, nicht das konkrete Produkt. So könne auch eine VR-Brille erkannt werden, während umgekehrt längst nicht alle Smart Glasses erfasst würden. Jeanrenaud ruft daher zu einem besonnenen Umgang mit der App auf
Wachsende Verbreitung, offene Fragen zum Datenschutz
Viele Smart Glasses sind heute oft nur aus der Nähe als solche zu erkennen. Bei Metas Modell signalisiert eine LED Außenstehenden, dass gefilmt wird. Bei hellem Tageslicht ist sie jedoch kaum wahrnehmbar. Gegen einfache Manipulationen wie das Abkleben der LED sind die Brillen allerdings geschützt und blockieren in diesem Fall die Aufnahmefunktion.
Aufgrund ihrer geringen Verbreitung spielen Smart Glasses in der öffentlichen Debatte bislang kaum eine Rolle. Das könnte sich in den nächsten Jahren ändern. Marktführer Meta und EssilorLuxottica haben im vergangenen Jahr sieben Millionen Geräte verkauft, und mit dem Markteintritt von Google und Apple in diesem und nächsten Jahr könnte die Kategorie rasch an Verbreitung gewinnen. Zudem arbeitet Meta laut einem Bericht der New York Times an einer begrenzten Gesichtserkennungsfunktion für seine Smart Glasses.
heise online XR-Briefing abonnieren
Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
„Ich möchte weder Techniklösungen als Allheilmittel darstellen, noch ein falsches Sicherheitsgefühl vermitteln“, schreibt Jeanrenaud auf Github. „Wir brauchen bessere Lösungen, um Überwachungstechnologien und Eingriffe in die Privatsphäre einzudämmen.“
Weiterlesen nach der Anzeige
„Nearby Glasses“ ist im Google Play Store erhältlich. Alternativ ist sie auch bei GitHub verfügbar, wo es weitere Hinweise zu Funktionsweise und Einrichtung gibt. Dort nennt Jeanrenaud auch potenzielle Ausbauschritte wie die Erkennung weiterer Smart Glasses und eine iOS-App. Für Letztere fehlten ihm allerdings noch die nötigen Entwicklungskenntnisse.
(tobe)
Künstliche Intelligenz
Vision Language Model: Wie FastVLM hochauflösende Bilder im Browser analysiert
Vision Language Models (VLMs) verbinden visuelle Wahrnehmung mit natürlichen Sprachfähigkeiten und erlauben es, komplexe Aufgaben wie Bildbeschreibung, das Beantworten natürlichsprachiger Anfragen zu Bildern oder multimodale Suche zu erledigen. In den vergangenen Jahren hat sich gezeigt, dass höhere Eingabeauflösungen die Leistungsfähigkeit dieser Modelle deutlich steigern, vor allem bei textintensiven Bildern. Gleichzeitig wächst mit jeder zusätzlichen Bildzeile die Sequenzlänge des Vision-Encoders, wodurch etwa die Zahl der Vision-Token zunimmt und das Sprachmodell eine längere Eingabesequenz verarbeiten muss, was die Inferenzzeit erhöht. Diese Latenz ist für Anwendungen problematisch, die interaktiv und responsiv sein sollen, etwa in Webbrowsern oder auf mobilen Geräten mit begrenzter Rechenleistung.
Klassische VLMs basieren auf Vision-Encoder-Decoder-Architekturen. Als Vision-Encoder dienen vielfach rein Transformer-basierte Modelle wie ViT-B/16 oder Hybridvarianten mit einem Convolutional Neural Network (CNN) als Backbone. Diese Modelle teilen das Bild in Patches, beispielsweise 16 × 16 Pixel groß, projizieren jeden Patch in einen Embedding-Vektor und verarbeiten die Sequenz durch mehrere Self-Attention-Layer. Die Komplexität der Schichten wächst quadratisch mit der Anzahl der Patches (PDF), sodass eine erhöhte Bildauflösung die Latenz schnell in die Höhe treibt. Um diese Latenz zu reduzieren, haben Wissenschaftler Methoden wie Token Pruning oder Token Merging vorgeschlagen, die weniger wichtige Patches verwerfen oder zusammenfassen. Alternativ gibt es kachelbasierte Ansätze, die ein Bild in mehrere Teile zerlegen und separat verarbeiten. All diese Techniken reduzieren die Tokenanzahl, benötigen aber zusätzliche Verarbeitungsschritte oder führen zu Genauigkeitsverlusten.
- In herkömmlichen Vision Language Models führt eine erhöhte Bildauflösung zu weniger performanten Sprachmodellen.
- Durch die hohen Anforderungen an Speicher und Rechenleistung passen die Modelle für den Einsatz im Browser oder auf mobilen Geräten nicht.
- Das von Apple entwickelte Bildverarbeitungsmodell FastVLM läuft lokal im Browser und verfolgt einen anderen Ansatz: Über den hybriden Vision-Encoder FastViTHD reduziert es die Tokenanzahl bereits während der visuellen Codierung, ohne Genauigkeit einzubüßen.
Durch die hohen Anforderungen an Speicher und Rechenleistung sind herkömmliche VLMs für den Einsatz im Browser oder auf mobilen Geräten ungeeignet. Selbst wenn das Modell auf einem Server läuft, verursachen GPU-Infrastruktur und Energieverbrauch hohe Kosten. Gleichzeitig nimmt die Latenz zu, wenn eine Anwendung zwischen Client und Server Bilder übertragen muss. Diese Hürde motivierte die Entwicklung von FastVLM: einem VLM, das lokal und ressourcensparend arbeitet, ohne auf aufwendige Token-Pruning-Heuristiken zurückzugreifen, und dennoch konkurrenzfähige Genauigkeit bietet.
Das war die Leseprobe unseres heise-Plus-Artikels „Vision Language Model: Wie FastVLM hochauflösende Bilder im Browser analysiert“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 3 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 2 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Künstliche Intelligenzvor 3 MonatenDigital Health: „Den meisten ist nicht klar, wie existenziell IT‑Sicherheit ist“
