Connect with us

Künstliche Intelligenz

Kommentar: Souveränität steht nicht im Katalog, sondern im Vertrag


Der Deutschland-Stack des IT-Planungsrats ist das ambitionierteste Standardisierungspapier der deutschen Verwaltungs-IT seit Jahren. Über 50 Standards, Protokolle und Regelwerke, sieben Architekturschichten, von der Cloud bis zur künstlichen Intelligenz. Auf dem Papier sieht das beeindruckend aus. Aber Papier ist geduldig – und die deutsche Verwaltung ist es leider auch.

Weiterlesen nach der Anzeige


Ein Kommentar von Moritz Förster

Ein Kommentar von Moritz Förster

Moritz Förster schreibt seit 2012 für die iX und heise online. Er betreut neben dem iX-Channel den Bereich Arbeitsplatz.

Die entscheidende Frage an den Deutschland-Stack lautet nicht, welche Standards er benennt. Sie lautet, ob diese Standards jemals in genügend Ausschreibungen auftauchen werden. Denn zwischen Beschluss und Beschaffung klafft in der deutschen Verwaltung ein Abgrund, der sich mit keinem Architekturdiagramm überbrücken lässt.

Wer den Beschlusstext genau liest, stellt fest: Die Verbindlichkeit ist schwächer, als er zunächst vermuten lässt. Die Standards gelten als „verbindliche Grundlage der Lösungen des Deutschland-Stacks“. Das heißt: Wer eine Lösung innerhalb des Stacks entwickelt, muss sich an die Standards halten. Ob eine Behörde das fertige Produkt aber tatsächlich einsetzt, ist eine andere Frage. Hier formuliert der Beschluss lediglich, dass Bund, Länder und Kommunen die Nutzung bei Neu- und Weiterentwicklungen „anstreben“.

Anstreben. Nicht: umsetzen. Nicht: verpflichtend einführen. Anstreben.

Der Beschluss selbst nennt keine Sanktionen, keine Audits, keine Berichtspflichten. Er zielt auf Neu- und Weiterentwicklungen – die große Masse der Bestandssysteme bleibt faktisch unangetastet. Und Kommunen, die einen Großteil der Verwaltungsleistungen erbringen, sind im IT-Planungsrat zwar institutionell eingebunden, aber nicht stimmberechtigte Vertragsparteien. Ein verbindlicher Standard ohne Durchsetzungsinstrument ist am Ende eine Empfehlung im Anzug.

Weiterlesen nach der Anzeige

Wie wirkungslos bleiben Standardbeschlüsse ohne Beschaffungskonsequenz? Das zeigt ein Format, das auch im Deutschland-Stack wieder prominent auftaucht: das Open Document Format. ODF steht seit Ewigkeiten auf den Wunschlisten der Verwaltungsdigitalisierung. Erst im März 2025 hat der IT-Planungsrat mit Beschluss 2025/06 festgelegt, dass ODF bis 2027 zum Standard für den Dokumentenaustausch werden soll. Jetzt steht ODF auch im Deutschland-Stack. Das ist gut.

Aber: Die Realität in den Behörden sieht anders aus. Bund und viele Länder setzen weiterhin stark auf Microsoft. Schleswig-Holstein treibt als eines der wenigen Länder die Umstellung auf LibreOffice und offene Formate tatsächlich voran – ein Prozess, der selbst dort langwierig und politisch umkämpft ist. Bayern will hingegen ganz dringend in die M365-Cloud. Das sind nicht die Rahmenbedingungen, in denen ein weiterer ODF-Beschluss plötzlich Wirkung entfaltet.

Man darf also die Frage stellen: ODF steht jetzt auch im Deutschland-Stack – wird sich deshalb 2028 irgendetwas daran geändert haben, dass sich Behörden DOCX-Dateien zuschicken? Leider muss die Befürchtung lauten: Nein.

Noch deutlicher wird der Widerspruch zwischen Anspruch und Realität beim Sovereign Cloud Stack. Der SCS, entwickelt von der Open Source Business Alliance, definiert einen vollständig offenen, interoperablen Cloud-Technologiestack für die Verwaltung. Der Deutschland-Stack führt ihn als verbindlichen Cloud-Standard neben OpenStack und den Standards der Deutschen Verwaltungscloud.

Gleichzeitig hat der Bund die Förderung für den SCS auslaufen lassen, stattdessen sprangen die Mitgliedsunternehmen der OSBA ein. Das Projekt, das die technische Grundlage für souveräne Cloud-Infrastrukturen liefern soll, muss sich ohne öffentliche Finanzierung weiterentwickeln – während AWS, Azure und Google mit bestens finanzierten US-Angeboten vor der Tür stehen.

In der Beschaffungsrealität bedeutet das: Wenn eine Vergabestelle zwischen einem schlüsselfertigen Hyperscaler-Angebot und einem SCS-konformen Angebot wählen muss, das auf einer so finanzierten Open-Source-Plattform basiert, dürfte in vielen Fällen das Erstere gewinnen. Nicht aus böser Absicht, sondern aus nachvollziehbarer Pragmatik. Man benennt also einen Standard, fördert ihn aber nicht. Und untergräbt so die Glaubwürdigkeit des gesamten Vorhabens.

Das strukturelle Problem hinter all dem: In der Praxis entscheiden nicht Gremien über die eingesetzte Technologie, sondern Vergabestellen. Und die folgen oft anderen Logiken als ein Architekturpapier.

Das Vergaberecht erlaubt durchaus qualitative und technische Zuschlagskriterien – digitale Souveränität ließe sich also vergaberechtlich abbilden. In der Praxis sind aber Wirtschaftlichkeit und Wettbewerb die Maxime. Der chronische Fachkräftemangel in Behörden verschärft das Problem: Selbst wenn eine Ausschreibung SCS-Konformität fordert – wer soll die Infrastruktur anschließend betreiben? In der Beschaffungspraxis gewinnt häufig die Lösung, die am schnellsten verfügbar und mit am wenigsten internem Aufwand zu betreiben ist. Und das sind in vielen Fällen die proprietären Platzhirsche.

Denen kann der Deutschland-Stack schlicht nicht das Heft aus der Hand nehmen. Er definiert bloß, welche Standards souverän sind. Er sagt wenig darüber aus, wie sie in Leistungsbeschreibungen, Eignungskriterien und Zuschlagsentscheidungen ankommen sollen.

Dabei gäbe es Ansatzpunkte. Die EVB-IT – die Ergänzenden Vertragsbedingungen für IT-Beschaffungen – stehen bereits im Stack. Das ist ein richtiger Schritt. Aber sie müssten um konkrete Stack-Konformitätskriterien erweitert werden, sodass die Einhaltung der definierten Standards zum prüfbaren Bestandteil von Verträgen wird.

Ein Vorbild dafür existiert: Der C5-Katalog des BSI hat sich als zentrales Kriterium bei Cloud-Ausschreibungen der Verwaltung etabliert. Zwar ist ein C5-Testat formal nicht die einzige Möglichkeit, Sicherheitsanforderungen nachzuweisen – aber in der Praxis kommt kaum ein Cloud-Anbieter, der für die Verwaltung arbeiten will, daran vorbei. Dieses Prinzip ließe sich auf den Deutschland-Stack übertragen: Stack-Konformität als gewichtiges Eignungskriterium, nicht als unverbindliche Empfehlung.

Der Deutschland-Stack verdient Anerkennung. Zwar gab es mit SAGA und der Föderalen IT-Architekturrichtlinie bereits frühere Standardisierungsrahmen – aber in seiner konkreten Zuspitzung auf über 50 benannte Standards über sieben Architekturschichten hinweg geht der Deutschland-Stack deutlich weiter als seine Vorgänger. Wer die zähe Geschichte der Verwaltungsdigitalisierung in diesem Land kennt, weiß, dass allein das keine Selbstverständlichkeit ist.

Aber die Geschichte der deutschen Verwaltungsdigitalisierung ist eben auch eine Geschichte beschlossener Standards, die nie in Verträgen gelandet sind. Von Strategiepapieren, die in Schubladen verschwunden sind. Von Pilotprojekten, die nie skaliert wurden.

Die eigentliche Bewährungsprobe für den Deutschland-Stack ist nicht der IT-Planungsrat. Sie beginnt in der nächsten Ausschreibung eines Landesrechenzentrums. Im nächsten Vergabeverfahren für ein kommunales Fachverfahren. Im nächsten Rahmenvertrag für Cloud-Dienste.

Geplant haben wir unsere Souveränität jetzt genug. Packen wir sie endlich an!


(fo)



Source link

Künstliche Intelligenz

Video: Glasfaserausbau – So verlängert ihr euren Anschluss!


Das Kabel eures Glasfaseranschlusses ist zu kurz und der Anbieter will Hunderte Euro, um euch die Leitung im Haus nach oben zu legen? Die gute Nachricht: Ihr könnt die letzten Meter kostengünstig selbst überbrücken. Außerdem lässt sich die Glasfaser fast beliebig durchs ganze Haus verlängern, ohne geringere Datenraten befürchten zu müssen.

Weiterlesen nach der Anzeige

In diesem Video erklären wir euch, welche Stecker- und Kabeltypen es gibt und wie ihr herausbekommt, welches Kabel ihr kaufen müsst, damit alles problemlos funktioniert.


(mond)



Source link

Weiterlesen

Künstliche Intelligenz

Elektroautos und Plug-in-Hybride: Das unterschätzte AC-Laden


Kürzlich verkaufte ich mein erstes Elektroauto privat. Beim Plausch mit dem sehr netten Käufer-Ehepaar wurde mir wieder einmal bewusst, dass Grundlagen rund um das AC-Laden nicht einfach als selbstverständlich angesehen werden sollten. Denn warum beispielsweise mit manchen 7,4-kW-Ladern im Auto meistens nur etwas mehr als 4 kW möglich sind, ist nicht vollkommen trivial. So entstand die Idee zu diesem Artikel, der solche grundlegenden Fragen rund um das Laden mit Wechselstrom noch einmal umfassend klären soll.

  • in Deutschland meist auf 22 kW begrenzt
  • Warnung vor einphasigen Ladern
  • Schieflast kann die nutzbare Ladeleistung begrenzen

In den glanzvollen Aufmachungen von neuen Elektroautos wird fast immer mit der Ladeleistung an Gleichstrom geworben. In Deutschland sind an der gängigen Infrastruktur derzeit praktisch ausschließlich maximal 400 kW möglich, und selbst das ist die absolute Ausnahme. Denn meist sind es bestenfalls 300 kW. Knapp 50.000 Schnellladepunkte führt die Bundesnetzagentur (Stand 1. Februar 2026) auf. Doch das gesamte Bild vervollständigt sich erst mit den fast 150.000 öffentlichen AC-Ladepunkten, zu denen die privaten Wallboxen noch hinzukommen. Die Zahl der Lademöglichkeiten mit Wechselstrom liegt also drastisch über denen der DC-Säulen.

Das hat einen wirtschaftlichen Hintergrund. Eine DC-Ladestation braucht in der Regel einen Anschluss an das Mittelspannungsnetz. Das ist weitmaschiger als das Niederspannungsnetz, das für einen AC-Ladepunkt ausreichend ist. Die Kosten für eine Netzanbindung sind also meistens erheblich höher. Im Gegenzug kann an einer DC-Säule mehr Strom pro Zeiteinheit verkauft werden, wenn sie entsprechend ausgelastet ist, versteht sich.


Das war die Leseprobe unseres heise-Plus-Artikels „Elektroautos und Plug-in-Hybride: Das unterschätzte AC-Laden“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

lernen:digital: Drei Jahre Suche nach Workarounds zum Bildungsföderalismus


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Er sollte etwas Großes schaffen: digitale Möglichkeiten und Methoden auf ihre Schultauglichkeit zu erforschen. Drei Jahre ist es her, dass die damalige Bundesbildungsministerin Bettina Stark-Watzinger (FDP) den Startschuss für den „Kompetenzverbund lernen:digital“ gab. 205 Millionen Euro wurden über die Laufzeit dafür zur Verfügung gestellt. Der Kompetenzverbund sollte Lehren aus den großen Schwierigkeiten während der Corona-Pandemie ziehen, als zwar für Remote-Unterricht jede Menge Technologie beschafft wurde, die Lehrkräfte jedoch oft ohne großes Vorwissen und Hilfestellungen auf die neue, zwangsweise entstandene Realität trafen. Bei einer zweitägigen Veranstaltung im Berliner Café Moskau zogen Verantwortliche und Beteiligte nun eine Abschlussbilanz: Was haben die Millionen für lernen:digital tatsächlich bewirken können?

Weiterlesen nach der Anzeige

203 Teilprojekte ganz unterschiedlicher Art hätten in diesem Rahmen stattgefunden, berichtete Katharina Scheiter, die die Koordinierungsstelle für den Kompetenzverbund leitet. Und sparte ansonsten nicht mit harter Kritik an den politisch Verantwortlichen: Aufgrund von Konstruktionsfehlern des Vorhabens sei es von Anfang an in erster Linie darum gegangen, „das Beste daraus zu machen“, sagte Katharina Scheiter, die an der Universität Potsdam Professorin für digitale Bildung ist. Es habe an Vorplanung und gemeinsamen Zielen gemangelt. Die erreichten Ergebnisse seien zwar gut und wertvoll, würden aber bislang am wichtigsten Bedarf der Bildungsinstitutionen vorbeigehen: wie die Schülerinnen und Schüler mit digitalen Mitteln besser lernen könnten. Den „Stein der Weisen“, nämlich wie der Transfer über gute Fortbildung hin zu den Schülerinnen und Schülern gelingen würde, den habe man auch nicht gefunden, stimmte der für Bildung zuständige bremische Staatsrat Torsten Klieme der kritischen Bestandsaufnahme zu.

Der Konstruktionsfehler, den Bildungsforscherin Scheiter beklagte, hat dabei gleich mehrere Gründe: Der eigentliche Hauptgrund liegt im Bildungsföderalismus – zuständig für die Bildung sind grundsätzlich die Länder, für die Forschung hingegen ist der Bund zuständig. Aufgrund der Zuständigkeitsverteilung durften also nur Forschungsvorhaben finanziert werden – alles andere ist Länderangelegenheit, etwa wie die Lehrerfortbildung organisiert ist. Teilnehmer der Veranstaltung merkten daher auch an, dass ein wesentlicher Teil der Projektlaufzeit damit verschwendet worden sei, Bundes- und Ländervorhaben miteinander in Einklang zu bringen, also die Forschungsmittel des Bundes mit den Vorgaben der 16 Kultusministerien und der Landesinstitutionen zusammenzubringen.

Die ursprünglich gewünschte Praxisnähe, also wie das Bildungswesen tatsächlich digitale Möglichkeiten nutzen kann, fiel dabei offenbar weitgehend weg – und an flächendeckende Skalierung von Erkenntnissen war deshalb schon gar nicht zu denken. Schon in der Konzeptionsphase sei dabei der Blick auf die Praxis abhandengekommen, erklärt der beim Bundesministerium für Bildung, Familie, Senioren, Frauen und Jugend (BMBFSFJ) zuständige Abteilungsleiter Stefan Luther. Dazu kam ein anderes Problem: dass die Mittel schnell gebunden werden sollten. Und um das „Momentum Geld“ (Luther), das zu dem Zeitpunkt zur Verfügung gestanden habe, nicht verstreichen zu lassen, habe man sich trotzdem für die Durchführung entschieden. Das meint unter anderem Mittel aus dem EU-Programm „NextGenerationEU“.

„Zu viel Geld mit zu wenig praktischem Effekt“, bilanziert auch Torsten Klieme recht deutlich. Im Fall einer Weiterführung, die seiner Ansicht nach sinnvoll sei, solle es daher anders aufgesetzt werden, sagte der Ländervertreter. Doch wie das in Zukunft genau aussehen soll, ist offenbar noch zu besprechen. Auf Ergebnisse von „lernen:digital“ solle dabei in jedem Fall aufgebaut werden, erklärte BMBFSFJ-Abteilungsleiter Stefan Luther.

Weiterlesen nach der Anzeige

Hoffnung setzten dabei zumindest die beiden zuständigen Vertreter aus der Politik auf den Digitalpakt 2.0. Eigentlich schon vor über einem Jahr im Grundsatz zwischen Bund und Ländern geeint, soll nun tatsächlich nur noch die Tinte für die Unterschriften aller Beteiligten fehlen. Es gehe nur noch um Wochen, sagten Bund- und Ländervertreter unisono.

Lesen Sie auch

Dass alle künftigen Forschungs- und Transferprogramme sich an der Zielsetzung des sogenannten Start-Chancen-Programms orientieren müssten, dafür sprach sich Staatsrat Klieme aus: Es gehe darum, die Zahl der Schülerinnen und Schüler, die nicht die Mindestkompetenzen erreichen, zu halbieren. „Das ist, was unser Bildungssystem in seiner Qualität am Boden hält“, erklärte Klieme. Alle anderen Programme müssten sich die Frage stellen, was sie auf die Mindestkompetenzen einzahlen könnten – auch die Bund-Länder-Initiative im Rahmen des Digitalpakts 2.0. In dieser Säule des renovierten Bund-Länder-Finanzierungspakets zur digitalen Bildung soll dann auch ein Teil dessen, was mit dem „Kompetenzzentrum für digitales Lernen“ erarbeitet wurde, weitergeführt werden. Ein Forschungscluster zum Thema Didaktik, also zur Vermittlung von Wissen und Kompetenzen sei genau wie ein Schwerpunkt zu Künstlicher Intelligenz geplant.

Nach drei Jahren Laufzeit scheint also vor allem ein eindeutiges Forschungsergebnis den einstigen hehren Zielen gegenüberzustehen: Auch 205 Millionen Euro und eine Vielzahl an Forschungsprojekten ergeben noch kein kohärentes Gesamtkonzept für eine bessere digitale Bildung. Das viel genutzte Schlagwort der lernen:digital-Veranstaltung in Berlin hieß daher: „Ko-Konstruktive Zusammenarbeit“. Was vor allem bedeutet: Bund und Länder, Forschung, Bildung, Verwaltung und Politik wollen sich künftig zumindest möglichst wenig im Wege stehen.


(dahe)



Source link

Weiterlesen

Beliebt