Connect with us

Künstliche Intelligenz

Statusbericht: Fortschritte bei der Energiewende – doch Reiche will drosseln


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Das Bundesministerium für Wirtschaft und Energie (BMWE) hat am Montag den lange erwarteten „Monitoringbericht“ zur Energiewende veröffentlicht. Das Energiewirtschaftliche Institut an der Universität zu Köln (EWI) und die Berliner Beratungsfirma BET Consulting sehen darin in vielen Bereichen Fortschritte beim Ausbau der erneuerbaren Energien. Zugleich bestünden aber erhebliche Herausforderungen und Zielverfehlungen, die weitere Maßnahmen erforderten.

Der Ausbau von Photovoltaik liegt laut dem Bericht auf Kurs, um die gesetzlichen Ziele für 2030 in Höhe von 215 Gigawatt (GW) zu erreichen. Auch bei Wind an Land gibt es positive Signale bei den Genehmigungen. Das Ziel von 80 Prozent erneuerbarer Energie am Bruttostromverbrauch halten die Autoren ebenfalls für realistisch.

„In den Szenarien, die von einer Erreichung der Klimaziele ausgehen, wird ein starker Anstieg des Strombedarfs projiziert“, heißt es weiter. Diese Entwicklung hänge aber wesentlich von politischen Entscheidungen ab. Die Szenarien bewegen sich in einer Spannbreite von 600 bis 700 TWh. Nahezu alle untersuchten Studien betrachteten die Elektrifizierung von Gebäuden und Verkehr als die wesentliche Option zum Mindern des CO2-Ausstoßes.

Auch der Ausbau des landseitigen Übertragungsnetzes kommt dem Bericht zufolge deutlich voran, um die notwendigen Transportkapazitäten zu schaffen. Die Aufnahme der neu im Netzentwicklungsplan 2037/2045 bestätigten Maßnahmen in das Bundesbedarfsplangesetz stehe indes noch aus. Eine ausbleibende Novelle könne zu einem „Fadenriss“ bei den Genehmigungen führen. Schwierigkeiten bei Beschaffung und Bau gewönnen zudem mit der fortschreitenden Erlaubnis vieler Projekte an Bedeutung.

Die Markteinführung intelligenter Messsysteme (Smart Meter) hat seit 2023 an Dynamik gewonnen, halten die Autoren fest. Dies sei eine entscheidende Basis, um Effizienz- und Flexibilitätspotenziale im Netzbetrieb zu heben. Der „systemische Nutzen“ müsse aber noch stärker ausgeschöpft werden. Ausreichend zertifizierte Smart-Meter-Gateways und Produktionskapazitäten dafür seien jedenfalls vorhanden. Lange hinkte Deutschland hier hinterher.

Als problematisch werten die Experten etwa, dass eine zu langsame Entwicklung bei der Strom- und Wasserstoffnachfrage das Erreichen der Klimaziele in Gefahr bringen. Die Ausbauziele und insbesondere für Wind auf See (Offshore) bis 2030 würden voraussichtlich verfehlt, was netzbedingte Verzögerungen und Lieferkettenprobleme zur Ursache habe. Das Offshore-Ziel von 30 GW wird laut Schätzungen erst 2032 erreicht.

Der Netzausbau dürfte aufgrund angespannter Lieferketten und Preissteigerungen teurer werden, geben die Autoren zu bedenken. Digitalisierung und effizienter Betrieb böten aber Potenziale zur Kostensenkung.

Der Wasserstoff-Hochlauf gilt als zentrales Element der Energiewende, kommt aber nur schleppend in Gang. Die Bereitstellungskosten für diesen „Champagner der Energiewende“ sind deutlich höher als die aktuelle Zahlungsbereitschaft, was die Marktnachfrage bremst. Das 10 GW-Ziel für heimische Wasserstofferzeugung bis 2030 scheine kaum erreichbar.

Die künftige Versorgungssicherheit sei zweifelhaft, ist dem Report zu entnehmen. Ein Ausbau gesicherter Leistung etwa über Gaskraftwerke und die Erhöhung von Flexibilitäten könnten ratsam sein, um den Versorgungsstandard aufrechtzuerhalten. Viele Studien berücksichtigten nicht ausreichend die Kosteneffizienz oder die mikro- und makroökonomischen Rahmenbedingungen. Eine umfassende Beurteilung energiepolitischer Maßnahmen sei nur durch einen ganzheitlichen Ansatz möglich, der alle systemischen Abhängigkeiten einbeziehe.

Bundeswirtschaftsministerin Katherina Reiche (CDU) sieht die Energiewende „an einem Scheideweg“. Sie fordert eine „ehrlichere Bedarfsermittlung und Planungsrealismus“. Anstatt auf Subventionen und starre Vorgaben zu setzen, solle ein technologieoffener Kapazitätsmarkt die Versorgungssicherheit gewährleisten und die Einheit der Energiemärkte erhalten bleiben.

Konkret plant Reiche, die fixe Einspeisevergütung für neue Solaranlagen abzuschaffen. Der Zubau von Ökostromanlagen und Speichern soll dem BMWE zufolge „besser räumlich gesteuert werden“.

Als zentrale Herausforderung bezeichnet die Ministerin den gleichzeitigen und synchronen Ausbau von Netzen, Erneuerbaren und dezentralen Flexibilitäten. Ziel sei es, die Anlagen markt- und systemdienlich zu fördern und so die Effizienz des Gesamtsystems zu steigern. Reiche plädiert für einen pragmatischen Hochlauf neuer Technologien. Das beinhalte die Beschleunigung der Digitalisierung sowie die Förderung von Forschung und Innovation.

Besondere Bedeutung komme dabei dem Wasserstoff-Hochlauf sowie dem Etablieren umstrittener Verfahren zum Abscheiden und Speichern von CO2 zu. Die Politik müsse Fehlinvestitionen und Überregulierung vermeiden, um die Bezahlbarkeit und wirtschaftliche Tragfähigkeit der Energiewende für alle sicherzustellen.

Die Schlussfolgerungen Reiches stoßen auf viel Kritik. Wie schnell sich eine klimaneutrale Industrieproduktion, Elektrolyseure, Wärmepumpen oder E-Autos etablieren könnten, hänge maßgeblich auch von der Politik ab, betonte Julia Bläsius, Direktorin der Denkfabrik Agora Energiewende. Den Erneuerbaren-Ausbau auf Basis einer niedrigeren Stromverbrauchsprognose zu bremsen, hält Bläsius für kurzsichtig und kostspielig. Ein solches Vorgehen sende auch das falsche Signal an die heimische Wirtschaft.

„Mit den Schlüssen, die Frau Reiche aus dem Energiewende-Monitoring zieht, bürdet sie unserer Energieversorgung eine schwere Hypothek auf“, moniert Sascha Müller-Kraenner, Bundesgeschäftsführer der Deutschen Umwelthilfe (DUH). Die Ministerin schwöre „weiter auf die verkürzten Vorschläge der Gaslobby“. Faktisch drohe eine Ausbau-Bremse für die Erneuerbaren. Auch die Solarwirtschaft warnt vor Förder-Einschnitten.


(vbr)



Source link

Künstliche Intelligenz

iX-Workshop Softwarearchitektur für KI-Systeme – skalierbare Lösungen entwickeln


KI-Projekte scheitern selten an der Technik, oft aber an fehlender Struktur. Wer KI sicher und nachhaltig im Unternehmen verankern will, braucht ein solides architektonisches Fundament.

Weiterlesen nach der Anzeige

Im Workshop Softwarearchitektur für KI-Systeme – skalierbare, sichere und wartbare Lösungen entwickeln erfahren Sie praxisnah, wie Sie KI-Architekturen konzipieren, die den Anforderungen an Skalierbarkeit, Sicherheit und Wartbarkeit gerecht werden. Sie lernen, Machine Learning und Generative KI in bestehende IT-Landschaften zu integrieren, robuste Datenpipelines zu erstellen und regulatorische Anforderungen, wie die des EU AI Acts, zu erfüllen. Auch ethische Fragestellungen und bewährte Design Patterns sind Teil des Workshops.

Der Workshop ist praxisnah aufgebaut. Sie arbeiten an einer Fallstudie und entwickeln reale Szenarien für KI-Architekturen. Dabei üben Sie, Daten zu akquirieren und zu verarbeiten, skalierbare Design Patterns anzuwenden und Sicherheitskonzepte umzusetzen.

Dezember
08.12. – 11.12.2025
Online-Workshop, 09:00 – 17:00 Uhr
10 % Frühbucher-Rabatt bis zum 09. Nov. 2025

Der Workshop richtet sich an Softwarearchitekten und KI-Interessierte, die skalierbare KI-Lösungen in ihre IT-Strukturen integrieren und zukunftssichere Lösungen entwickeln möchten.

Durchgeführt wird der Workshop von Dimitri Blatner, einem anerkannten Experten für Softwarearchitektur, IT-Beratung und digitales Innovationsmanagement. Er verfügt über langjährige Erfahrung in der Entwicklung komplexer IT-Systeme, insbesondere in den Bereichen KI, Cloud und DevOps.


Upgrade for Skills

Upgrade for Skills


(ilk)



Source link

Weiterlesen

Künstliche Intelligenz

Digitaler Euro: Verhandlungsführer des EU-Parlaments ist gegen Online-Nutzung


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Der Berichterstatter des EU-Parlaments für den digitalen Euro, Fernando Navarrete Rojas, tritt für eine zweigleisige Einführung der digitalen Einheitswährung ein. Dabei spricht sich der Angehörige der konservativen Fraktion der Europäischen Volkspartei (EVP) klar gegen eine bedingungslose Online-Nutzung aus. Seine Haltung basiert nach eigener Darstellung auf der Notwendigkeit, die strategische Souveränität der EU zu stärken, die Abhängigkeit von außereuropäischen Zahlungsanbietern zu verringern und zugleich die Finanzstabilität sowie den Datenschutz der Bürger zu gewährleisten.

Weiterlesen nach der Anzeige

Navarrete Rojas unterscheidet in seinen heise online vorliegenden, lange verzögerten Entwürfen für Änderungen am Vorschlag der EU-Kommission für ein einschlägiges Gesetzespaket grundsätzlich zwischen zwei Ausprägungen des digitalen Euro: der Offline- und der Online-Version. Die Offline-Variante beschreibt er als eine nicht kontobasierte, tokenisierte Form von digitalem Bargeld. Er wird von der Europäischen Zentralbank (EZB) ausgegeben, ist lokal auf gesicherten Geräten gespeichert und funktioniert über „Gerät-zu-Gerät“-Zahlungen (Peer-to-Peer), ohne dass eine zentrale Abwicklungsinfrastruktur erforderlich ist.

Diese Konzeption bietet laut dem früheren spanischen Zentralbanker maximale Ausfallsicherheit, da Transaktionen selbst bei Netzwerkausfällen oder in Krisensituationen möglich sind. Entscheidend ist für ihn, dass der Offline-Euro einen mit Bargeld vergleichbaren Datenschutz bietet: Zahlungen müssen weder über eine zentrale Infrastruktur geleitet noch dort erfasst werden. Durch die Nachbildung bargeldähnlicher Merkmale – wie das Fehlen digitaler Euro-Konten – würden zudem die Risiken für die Finanzstabilität reduziert.

Demgegenüber steht der Online-Digital-Euro, der als kontobasiertes Internet-Zahlungssystem eine von der EZB betriebene digitale Abwicklungsinfrastruktur zwingend voraussetzt. Diese Form berge naturgemäß die Gefahr, moniert Navarrete Rojas, die Geschäftsbanken zu ersetzen, Einlagen abfließen zu lassen und in direkten Wettbewerb mit bereits funktionierenden privaten europäischen Zahlungslösungen zu treten.

Daher schlägt der Verhandlungsführer vor, die Einführung des Online-Digital-Euro an eine Bedingung zu knüpfen: Er soll nur dann kommen, wenn ein von der Kommission durchzuführender Markttest ergibt, dass keine europaweite, souveräne Lösung für den Einzelhandelszahlungsverkehr wie Zahlungen zwischen Personen, am Point of Sale und im E-Commerce zur Verfügung steht.

Navarrete Rojas will so verhindern, dass bereits effiziente und skalierbare private Marktlösungen verdrängt werden. Er nennt ausdrücklich die Stärkung bestehender europäischer privater Ansätze wie der European Payment Initiative (EPI) als vorrangiges Ziel. Die EPI arbeitet an einer europäischen Zahlungsinfrastruktur, die resilient sowie universell und grenzüberschreitend zu guten Konditionen einsetzbar ist. Diese Ziele erreichte sie zunächst aber nicht.

Weiterlesen nach der Anzeige

Für die Akzeptanz der Offline-Variante sei der Schutz der Privatsphäre zwingend erforderlich, heißt es in dem Papier. Maßnahmen zur Bekämpfung von Geldwäsche und Terrorismusfinanzierung müssten auf Nutzerebene greifen und dürften nicht durch die Kennzeichnung einzelner digitaler Einheiten erfolgen. Dadurch soll die Austauschbarkeit des Geldes gewährleistet und die Entstehung von programmierbarem oder nachverfolgbarem Geld verhindert werden. Die EZB soll ferner sicherstellen, dass Betrug und Fälschung weiterhin unter dem Niveau vergleichbarer Zahlungsinstrumente liegen.

Um die Finanzstabilität nicht zu unterlaufen, sollen die Bestände an einem potenziellen Online-Digital-Euro für natürliche Personen dem Plan nach Haltegrenzen unterliegen, um signifikante Abflüsse von Kundeneinlagen zu verhindern. So könnte jeder einschlägige digitale Account automatisch mit einem vom Nutzer festgelegten traditionellen Bankkonto verknüpft werden, um diese Limits zu überwachen und die Kontinuität der Zahlungen zu gewährleisten. Um Zahlungsdienstleister nicht unverhältnismäßig zu belasten, sollen Online-Nutzer ihre Konten nur dann automatisch aufladen oder auflösen können, wenn diese beim selben Servicepartner geführt werden.

Insgesamt müsse bei beiden Varianten des digitalen Euro die Einführung anhand klar definierter Probleme bewertet und in Bezug auf Notwendigkeit, Verhältnismäßigkeit und Opportunitätskosten mit den besten verfügbaren Marktalternativen verglichen werden, betont der Berichterstatter. Die von ihm ins Spiel gebrachten Änderungen schüfen einen Rechtsrahmen, der zunächst die Einführung der datenschutzfreundlichen und ausfallsicheren Offline-Währung als gesetzliches Zahlungsmittel unmittelbar ermögliche.

Damian Boeselager (Volt), der für die Grünen-Fraktion an dem Dossier mitverhandelt, kritisiert den Bericht als inhaltlich zu zaghaft. Die von Navarette Rojas favorisierte Offline-Variante würde die Unabhängigkeit Europas untergraben, weil der Online-Zahlungsraum weiterhin privaten, meist US-amerikanischen Systemen wie Visa und Mastercard überlassen bliebe. Angesichts der weltpolitischen Risiken, die eine Lähmung der Zahlungssysteme durch Washington bedeuten könnten, sei entschlossenes Handeln nötig.

Eine Offline-Lösung würde „nur an der Ladentheke funktionieren – nicht im Onlinehandel, wo fast die Hälfte aller Verbraucher mit Karten bezahlt“, moniert Boeselager. Auch Haltelimits schränkten den Digitaleuro in seiner Alltagstauglichkeit massiv ein. Die Gesetzesinitiative wird nun im federführenden Wirtschaftsausschuss debattiert und voraussichtlich im Frühjahr vom Parlament verabschiedet.


(nen)



Source link

Weiterlesen

Künstliche Intelligenz

FreeBSD kurz vor 15.0: Vertrauen ist gut, Reproduzierbarkeit ist besser


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Im Zuge wachsender Supply-Chain-Angriffe setzen die FreeBSD-Entwickler auf ein transparentes Build-Konzept in Form von Zero-Trust-Builds. Der Ansatz baut auf den etablierten Reproducible Builds auf, bei denen sich Binärdateien bitgenau aus dem veröffentlichten Quellcode nachbauen lassen. Während reproduzierbare Builds primär die Nachprüfbarkeit sicherstellen, geht das Zero-Trust-Modell einen Schritt weiter und entzieht dem Build-Prozess selbst das Vertrauen. Kein einzelner Server, Maintainer oder Compiler darf mehr als potenziell vertrauenswürdig gelten.

Weiterlesen nach der Anzeige

Stattdessen erzeugen voneinander unabhängige, deterministische Build-Umgebungen dieselben Artefakte, deren Übereinstimmung kryptografisch verifiziert wird. Manipulationen im Build-Prozess oder in der Toolchain würden so sofort auffallen. So entsteht ein durchgängig überprüfbarer Produktionsprozess, in dem Manipulationen in Toolchains, CI-Systemen oder Signaturprozessen erkennbar werden. Das ist ein konsequenter Schritt hin zu einer Softwarewelt, in der Sicherheit nicht auf einem von Regierungen und Geheimdiensten unterwanderten Vertrauen beruht, sondern auf trockener Verifizierbarkeit.

Ende 2024 erhielt die FreeBSD Foundation von der Sovereign Tech Agency satte 686.400 EUR für die Modernisierung der Infrastruktur. Die im Oktober 2022 gegründete Fördergesellschaft wird vom Bundesministerium für Wirtschaft und Energie finanziert. Derzeit ist es eine Tochtergesellschaft der Bundesagentur für Sprunginnovationen, SPRIND GmbH. Eines der Teilprojekte, das durch die Finanzspritze finanziert werden soll, sind besagte „Zero Trust & Reproducible Builds“.

Im Januar 2025 kündigte die FreeBSD Foundation daher an, beide Technologien bis August zu implementieren. Insbesondere der Build-Prozess für kommende FreeBSD-Releases soll so ohne root-Access zu reproduzierbaren und verifizierbaren Binärdateien führen. Das Ziel wurde nun mit kleiner Verspätung erreicht und kann im aktuellen Entwicklerzweig für FreeBSD 15 genutzt werden.

Damit werden die für die Installation notwendigen ISO-Images für USB-Sticks und CD/DVD, die Images für virtuelle Maschinen und die Cloud-Images für das Ausrollen in AWS, Azure und so weiter unabhängig nachprüfbar. Dazu gehört die Eliminierung oder Normalisierung von Zeitstempeln, damit Builds unabhängig vom Erstellungszeitpunkt identische Ergebnisse liefern.

Weiterlesen nach der Anzeige

Ebenso wichtig ist eine reproduzierbare Sortierung von Dateilisten, Paket-Metadaten und ähnlichen Strukturen, um zufällige Unterschiede zu vermeiden. Überdies bleiben die Build-Umgebungen konsistent, inklusive Debug-Pfaden, Locale-Einstellungen und anderer Umgebungsparameter. Auch die eingesetzten Werkzeuge, etwa das für die Erzeugung von Dateisystem-Images verantwortliche mkimg(1)-Utility, werden erweitert, um reproduzierbare Artefakte nativ zu unterstützen.

Es wurde auch höchste Zeit für FreeBSD, diesen Sicherheitsaspekt zu unterstützen, den GNU/Linux und selbst NetBSD schon seit Jahren bieten. Vom konsequent auf Sicherheit ausgelegten OpenBSD gibt es keine Stellungnahme dazu, allerdings scheint es für die Entwickler kein Thema zu sein. Dort experimentiert man mit anderen Techniken wie der teilweise bewussten Variabilität durch beispielsweise Kernel- und Library‑Randomisierung. Deterministische Builds laufen diesem Konzept ein wenig zuwider.


(axk)



Source link

Weiterlesen

Beliebt