Künstliche Intelligenz
Deutschland-Stack: So soll die nationale souveräne Technologieplattform aussehen
Das Bundesdigitalministerium macht Dampf bei dem von Ressortchef Karsten Wildberger (CDU) angekündigten Deutschland-Stack. Es hat eine Übersicht zur Struktur der vorgesehenen nationalen souveränen Technologie-Plattform für die hiesigen Digitalvorhaben der öffentlichen Hand, eine erste „Landkarte“ zu Technologien und Standards des Schichtenmodells und eine zugehörige Übersicht bereits erreichter Schritte („Reifegrad“) ausgearbeitet und veröffentlicht. Der „D-Stack“ soll generell eine tragende Rolle bei der laufenden Verwaltungsmodernisierung mit digitalen Mitteln übernehmen.
„Mit dem Deutschland-Stack schaffen wir eine offene, sichere und skalierbare IT-Infrastruktur, die föderale Zusammenarbeit erleichtert, Innovationen beschleunigt und nutzerorientierte Lösungen ermöglicht“, erläutert Digitalstaatssekretär Markus Richter. Die Plattform werde Basiskomponenten wie Cloud- und IT-Dienste bereitstellen, die von Bund, Ländern und Kommunen genutzt werden könnten. Zugleich lud Richter „alle Interessierten ein, ihren Beitrag zur Entwicklung der technischen Standards zu leisten“.
Das Digitalministerium führt dazu bis Ende November eine erste Konsultation durch, um Anregungen vor allem aus der IT- und Digitalwirtschaft sowie technischen Experten in den Tech-Stack einfließen zu lassen. Darunter fasst das Ressort alle „relevanten Standards und Technologien zur Realisierung des Deutschland-Stacks“.
Koalitionsvertrag weist die Richtung
Das Beteiligungsverfahren sollen themenspezifische Workshops ergänzen, die auch auf die Bereiche Startups, mittelständische Unternehmen, Fachdienstleister und Wissenschaft ausgerichtet sind. Wissen will das Ministerium etwa, welche Anforderungen an potenzielle neue Dienste und Geschäftsmodelle bestehen und welche Innovationen im Stack enthalten sein sollten, „um die digitale Transformation erfolgreich umzusetzen“.
Der D-Stack umfasst laut dem Ressort die technologische Grundlage der vorgesehenen Plattform, die strategischen und organisatorischen Rahmenbedingungen sowie konkrete Umsetzungsvorhaben und Produkte. Ziel sei es, das Modell gemeinsam zu gestalten, um die Wirtschaft zu stärken, die staatliche Handlungsfähigkeit zu erhöhen und das Vertrauen in den Staat zu festigen. Die Arbeit soll schrittweise erfolgen: Bis 2028 werden dem Plan nach konkrete Angebote für die öffentliche Verwaltung erarbeitet.
Durch den Einsatz von Technologien sollen Potenziale gehoben werden, um die Digitalisierung ziel- und wirkungsorientiert zu beschleunigen, heißt es weiter. Die Definition des Tech-Stacks orientiere sich am Koalitionsvertrag, in dem Schwarz-Rot auch auf digitale Souveränität abstellt. Ein besonderer Fokus liegt auf vertrauenswürdigen, souveränen, interoperablen und europäisch anschlussfähigen Technologien und Standards.
Vom Rechenzentrum bis zur App
Die interaktive Landkarte für Standards und Technologien hat das Datenlabor des Bundesinnenministeriums entwickelt. Sie basiert methodisch auf Vorgaben der Cloud Native Foundation und nutzt als Basis den in OpenCode definierten Tech-Stack. Die Übersicht visualisiert die Inhalte und bietet Steckbriefe zu den einzelnen Komponenten. Enthalten sind etwa Basisinfos, Download-Optionen und Verweise auf die Code-Plattform GitHub.
Ein zentrales Element ist die Konformitätsbewertung. Sie beurteilt, wie gut ein Standard oder eine Technologie die Ziele des Deutschland-Stacks erfüllt. Diese Bewertung ist in sechs Kategorien unterteilt und führt zu unterschiedlichen Stufen. Die Landkarte bildet noch nicht alle verfügbaren Technologien ab, sondern soll nach einem festen Schema ausgebaut werden.
Parallel klärt die Bundesregierung über „Schichten und Gruppen“ des Tech-Stacks auf. Dieser ist demnach in sechs ineinandergreifende Ebenen strukturiert, was an Vorarbeiten einer Denkfabrik erinnert. Das Fundament bildet die Infrastruktur mit Gebäuden, Rechenzentren und Netzen. Darauf bauen die Prozesse für Entwicklung, Sicherheit und Betrieb auf, die eine automatisierte, agile und sichere Softwareentwicklung sowie einen stabilen Betrieb erlauben sollen – inklusive Überwachung, Virtualisierung und Speicherung.
Die zentrale Ebene ist die Plattform, das technische Rückgrat des übergreifenden Government-as-a-Platform-Ansatzes (GaaP). Diese soll die Skalierung digitaler Lösungen zulassen. Dieses Portal beinhaltet essenzielle Bereiche wie Daten (Speicherung, Analyse), Integration (Schnittstellen/APIs) sowie den Einsatz von Künstlicher Intelligenz (KI).
Auf der Plattform sollen die Basisdienste aufsetzen – standardisierte, wiederverwendbare zentrale Services für grundlegende Funktionen wie Identität, Bezahlen oder Signatur. Diese Dienste wiederum dienen den Programmen und Services, die den eigentlichen Kern der fachlichen Wertschöpfung und Aufgabenerfüllung darstellen. Dabei handelt es sich etwa um Fachanwendungen oder Verwaltungsleistungen. Die Ebene Oberfläche und Zugang bildet schließlich die direkten Schnittstellen für die Nutzer ab, etwa über Browser, Apps und Portale.
(mho)
Künstliche Intelligenz
Fehmarnsundtunnel: Wenig Gegenwind trotz Kostenexplosion
Der geplante Fehmarnsundtunnel als Hinterlandanbindung für den neuen Fehmarnbelttunnel zwischen Deutschland und Dänemark stößt offenbar auf wenig Gegenwind. Eine Vertreterin der Deutschen Bahn erklärte jetzt im Wirtschaftsausschuss des Schleswig-Holsteiner Landtags, dass es während der öffentlichen Beteiligungsphase nur 57 Einwendungen gegeben habe. Das sei für ein Projekt dieser Größe so gut wie nichts, erklärte sie laut Medienberichten.
Gemessen an dem großen Fehmarnbelttunnel zwischen Deutschland und Dänemark ist er eine Kleinigkeit: Zwischen der Insel Fehmarn und Schleswig-Holstein soll ein weiterer Tunnel entstehen, der die in die Jahre gekommene Fehmarnsundbrücke ersetzt. Die Brücke aus den 1960er-Jahren soll weiterhin für Fußgänger, Radfahrer und langsame Fahrzeuge erhalten bleiben. Der meiste Autoverkehr und die Eisenbahn sollen aber künftig unter dem Fehmarnsund durchfahren und damit auch nicht mehr dem zuweilen stark wehenden Wind auf der Brücke ausgesetzt sein. Die Bundesstraße 207 soll dann durch den Tunnel führen.
Turbulenter Weg zum Tunnel
Der Weg zum Tunnel gestaltet sich aber in vielerlei Hinsicht turbulent: Erst spät kam man auf deutscher Seite darauf, dass die alte Brücke überhaupt zum Flaschenhals für die neue Verbindung nach Skandinavien werden könnte. Nach Untersuchung des Bauwerks und verschiedener Varianten – zur Auswahl standen Tunnel und Brücken – kristallisierte sich der Absenktunnel als Lösung heraus.
Doch obwohl das Bauwerk mit 1700 Metern Länge deutlich kürzer ist als die 17,6 Kilometer lange feste Querung der Ostsee, gibt es Probleme. Erst stellte sich Mitte des Jahres heraus, dass die Fertigstellung bis Ende 2029 illusorisch ist. Das Eisenbahnbundesamt schätzt, dass es bis Ende 2032 dauern wird, bis der kleine Tunnel einsatzbereit ist. Und Anfang Oktober wurde bekannt, dass die Kosten explodieren. Statt erwarteter 714 Millionen Euro ist jetzt die Rede von 2,3 Milliarden Euro. Grund seien gestiegene Baukosten.
Nur 57 Einwendungen gegen das Projekt
Jetzt gab es aber doch mal eine gute Nachricht für die Projektverantwortlichen. Mit nur 57 Einwendungen sind weitere Verzögerungen des Projekts unwahrscheinlicher geworden. Beim großen Tunnel zwischen der dänischen Insel Lolland und Fehmarn gab es 12.000 Einwendungen. Alleine die Bearbeitung kostete schon Zeit. Hinzu kommt, dass Klagen gegen das Vorhaben keine aufschiebende Wirkung haben. Lediglich bei Eilanträgen drohe ein Planungs- und Baustopp.
Was den deutschen Planern in die Hände spielt: Auf dänischer Seite gibt es inzwischen auch Verzögerungen. Weil ein speziell für das Absenken des Belt-Tunnels zu bauendes Spezialschiff mit deutlicher Verspätung fertiggestellt wurde, kann dort der Zeitplan auch nicht gehalten werden. Das verschafft dem Bauvorhaben auf deutscher Seite etwas Luft. Alle Beteiligten wollen sich abstimmen, um die Pläne zeitlich wieder miteinander zu synchronisieren.
(mki)
Künstliche Intelligenz
KI-Update Deep-Dive feat. They Talk Tech: Prompt Injections
Wie man KI-Systeme manipuliert
Die Vision von KI-Assistenten, die selbstständig E-Mails zusammenfassen, Reisen buchen und Termine planen, wird von Unternehmen wie OpenAI, Google und Anthropic vorangetrieben. Doch diese fortschrittlichen Helfer haben eine kritische Schwachstelle, die sie dauerhaft angreifbar machen könnte. Im Deep-Dive des KI-Updates sprechen die Tech-Journalistinnen Svea Eckert und Eva Wolfangel vom c’t-Podcast „They Talk Tech“ über Prompt Injections. Eva Wolfangel ist überzeugt, dass diese Angriffe „der Grund sind, warum KI-Anwendungen für immer hackbar bleiben und die besten Freundinnen von Cyberkriminellen und Spionen“ sein könnten.
Eine Prompt Injection liegt laut Wolfangel immer dann vor, „wenn man böswillige Eingaben als legitimen Prompt tarnen kann und damit die KI manipuliert“. Dabei werden in scheinbar harmlosen Texten, E-Mails oder auf Webseiten versteckte Befehle platziert, die ein Sprachmodell (LLM) auslesen und ausführen soll. Für Menschen sind diese Anweisungen oft unsichtbar, etwa durch weiße Schrift auf weißem Grund. „Für Chatbots ist gar nix anders als sonst, die sehen den Text einfach“, erklärt Wolfangel.
In einer Demonstration, die ihr vor einiger Zeit von Forschenden gezeigt wurde, wurde das Microsoft-System Copilot angegriffen. „Der User instruiert Copilot, bitte fass mir eine E-Mail zusammen“, beschreibt Wolfangel das Szenario. In dieser E-Mail befanden sich versteckte Anweisungen, die den KI-Agenten dazu brachten, andere E-Mails des Nutzers nach sensiblen Informationen wie Verkaufszahlen oder Einmal-Passwörtern zu durchsuchen. Die gestohlenen Daten wurden dann in einen Link verpackt, der dem Nutzer zur Verfügung gestellt wurde. „Der User klickt den Link, sieht es nicht und dann geht eben diese Information an den Angreifer“, so Wolfangel.
Unsichtbare Befehle per ASCII-Code
Um solche Angriffe zu verschleiern, nutzen Angreifer Methoden wie „ASCII-Smuggling“. „Dabei werden spezielle Zeichen verwendet, um Teile einer URL für das menschliche Auge unsichtbar zu machen, während der Computer sie vollständig liest“, wie Wolfangel erläutert. Eckert ergänzt: „ASCII steht für ‚American Standard Code for Information Interchange‘ und das ist ein Zeichensatz, der jedem Zeichen, also jedem Buchstaben eine eindeutige Nummer zuweist, sodass der Computer sie dann auch verstehen und verarbeiten kann.“ Durch die Manipulation dieser Codes kann ein Link harmlos aussehen, aber im Hintergrund Daten an einen fremden Server senden.
Das Problem bei diesen Angriffen ist, dass sie keine klassische Sicherheitslücke ausnutzen, die man einfach schließen könnte. Stattdessen missbrauchen sie eine Kernfunktion der Sprachmodelle: ihre Fähigkeit, Anweisungen in natürlicher Sprache zu verstehen und zu befolgen. Zwar versuchen die Hersteller, ihre Modelle durch zusätzliche Sicherheitsanweisungen zu schützen, doch das scheint für Eckert und Wolfangel ein aussichtsloses Unterfangen. „Man müsste unendlich kreativ sein, um sich alles Mögliche auszudenken, um dem Herr zu werden. Und das ist quasi unmöglich“, sagt Eckert. Jede geschlossene Lücke wird schnell durch eine neue, kreativere Angriffsmethode ersetzt.
Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.
Riskante Helfer im Alltag
Die Konsequenzen für den Einsatz von KI-Agenten sind weitreichend. Besonders riskant ist es, wenn drei Faktoren zusammenkommen, die der Sicherheitsforscher Simon Willison laut Wolfangel als „lethal trifecta“ bezeichnet: „dass eben ein Chatbot Zugriff auf private Daten hat, die Fähigkeit hat, nach außen zu kommunizieren, und außen auf Inhalte trifft, denen man nicht automatisch vertrauen kann.“ Dies ist der Fall, sobald ein Agent E-Mails liest oder auf das Internet zugreift.
Für Aufgaben wie das automatische Beantworten von E-Mails seien solche Agenten daher ungeeignet. Selbst wenn ein Nutzer jede vom KI-Agenten formulierte E-Mail vor dem Absenden prüft, könnten darin versteckte Befehle enthalten sein. „Der Aufwand, diese E-Mails zu kontrollieren, wird unglaublich hoch“, warnt Wolfangel. Ihre klare Empfehlung lautet daher: „Ich würde es jetzt aktuell tatsächlich nicht machen.“
Für viele Aufgaben, so das Fazit, seien klassische, regelbasierte Systeme die sicherere Wahl. Wolfangel erzählt von einer Fluggesellschaft, deren Chatbot einem Kunden fälschlicherweise eine Rückerstattung versprach, die das Unternehmen dann gerichtlich bestätigt zahlen musste. Das zeige die Unwägbarkeiten. Man habe es schlicht „nicht in der Hand, was die Systeme am Ende schreiben.“
(igr)
Künstliche Intelligenz
iX-Workshop: Hochverfügbares Proxmox VE-Cluster mit Ceph Storage
Virtualisierung und hochverfügbare Speichersystemen spielen eine immer größere Rolle in den Unternehmen. Proxmox VE stellt dabei eine unabhängige, offene und benutzerfreundliche Alternative zu VMware und Hyper-V dar.
In dem praxisorientierten Workshop Proxmox VE-Cluster mit Ceph-Speichersystem einrichten lernen Sie, was Proxmox VE und Ceph sind, welche Vorteile sie bieten und wie Sie diese Technologien optimal einsetzen können. Dabei werden Sie mit den grundlegenden Konzepten, bewährten Vorgehensweisen und Methoden zur Fehlersuche vertraut gemacht, um diese Technologien erfolgreich im produktiven Einsatz zu nutzen. Sie erwerben umfassendes Wissen über die Einrichtung und Verwaltung eines hochverfügbaren Proxmox-Clusters und erfahren, wie Sie Ceph als skalierbare, verteilte Speicherlösung in Proxmox integrieren und für maximale Redundanz und Performance konfigurieren können.
Schritt-für-Schritt-Anleitung
Nach einer Einführung in die Konzepte wird Schritt für Schritt eine Cluster- und Speicherinstallation durchgeführt – von der Grundkonfiguration und Netzwerkeinstellungen bis hin zu fortgeschrittenen Ceph-Konfigurationen. Dabei lernen Sie, Risiken wie Datenverlust und Ausfallzeiten zu minimieren und erhalten wertvolle Tipps zur Fehlervermeidung und -behebung sowie Best Practices für den produktiven Einsatz.
Der Workshop richtet sich an IT-Administratoren mit Erfahrung in der Serveradministration, die Proxmox VE und Ceph zur Verbesserung ihrer Infrastruktur einsetzen möchten, sowie an Personen, die erste praktische Erfahrung mit Proxmox und Ceph sammeln möchten, aber bereits vertraut mit Konzepten der Virtualisierung und Netzwerkinfrastrukturen sind.
Oktober 16.10.2025 |
Online-Workshop, 09:00 – 17:00 Uhr |
Dezember 03.12.2025 |
Online-Workshop, 09:00 – 17:00 Uhr 10 % Frühbucher-Rabatt bis zum 04. Nov. 2025 |
Ihr Trainer Yannick Haymann ist Gründer und Senior Consultant der Sysfacts AG. Seit über 15 Jahren betreut und berät er Kunden mit komplexen Infrastrukturen in verschiedensten Datacenter-Projekten.
(ilk)
-
UX/UI & Webdesignvor 2 Monaten
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 1 Monat
Adobe Firefly Boards › PAGE online
-
Social Mediavor 2 Monaten
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 2 Monaten
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 1 Monat
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 3 Wochen
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Apps & Mobile Entwicklungvor 3 Monaten
Firefox-Update 141.0: KI-gestützte Tab‑Gruppen und Einheitenumrechner kommen
-
Online Marketing & SEOvor 2 Monaten
So baut Googles NotebookLM aus deinen Notizen KI‑Diashows