Künstliche Intelligenz
Missing Link: 40. Jahrestag der Reaktorkatastrophe in Tschernobyl
Am Sonnabend, 26. April 1986, um 1:20 Uhr ist die Welt noch in Ordnung. Noch für wenige Minuten: In der Zentrale von Block 4 des Kraftwerkes Tschernobyl in der Ukrainischen Sozialistischen Sowjetrepublik bereitet die Nachtschicht einen Test vor. Er soll zeigen, dass der Reaktor auch nach einem Stromausfall sicher ist. Drei Minuten später, um 1:23:44 Uhr (25. April, 23:23:44 Uhr unserer Zeit) explodiert der Reaktor. Es ist der schlimmste Atomunfall in der Geschichte.
Weiterlesen nach der Anzeige
Bei dem Test sollte ein externer Stromausfall simuliert werden. Damit wollte die Kraftwerkmannschaft überprüfen, ob in so einem Fall die nachlaufende Turbine noch genug Energie für die Notkühlung des Reaktors liefern würde, bis die Notstromgeneratoren starten. Eine Minute galt es zu überbrücken – sonst bestünde die Gefahr einer Kernschmelze.

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.
Die Simulation begann bereits 24 Stunden vorher, am 25. April um 1 Uhr Ortszeit, mit dem schrittweisen Herunterfahren des Reaktors für die jährliche Überprüfung. Doch weil am Freitagmittag in Kiew Strom benötigt wird, wird das Herunterfahren gestoppt. Der Reaktor läuft zu der Zeit mit halber Kraft.
Um 23:10 Uhr nimmt das Personal das Herunterfahren wieder auf. Etwa eine Stunde später war er bei einem Viertel seiner Leistung angekommen. Doch plötzlich sackte die Leistung schlagartig auf etwa 1 Prozent ab. Grund war eine sogenannte Xenon-Vergiftung.
Xenon absorbiert Neutronen
Weil der Reaktor stundenlang mit halber Kraft lief, hatte sich das Isotop Xenon-135 gebildet. Xenon absorbiert Neutronen und behindert die Kettenreaktion, weshalb die Leistung des Reaktors abfiel. Es dauert etwa ein bis zwei Tage, bis das Isotop zerfallen ist. Erst dann ist der Reaktor wieder betriebsbereit und darf wieder hochgefahren werden.
Knapp eine Stunde vor der Katastrophe, um 0:32 Uhr, trifft die Mannschaft die erste von mehreren Fehlentscheidungen: Um die Leistung des Reaktors wieder hochzufahren, zieht sie einen Teil der Steuerstäbe, mit denen der Reaktor geregelt wird, heraus. Doch was sie beabsichtigt – die Leistung wieder zu steigern – gelingt nicht: Der Reaktor kommt nur auf 7 Prozent. Mit einer Leistung von weniger als 20 Prozent darf er nicht betrieben werden, sondern muss nur heruntergefahren werden. Dennoch fällt die Entscheidung, den Reaktor laufen zu lassen und den Test wie geplant durchzuführen.
Weiterlesen nach der Anzeige
In der nächsten halben Stunde fährt die Bedienmannschaft weitere Steuerstäbe aus dem Reaktor, um ihn zu stabilisieren. Um 1:03 Uhr sind 193 der 211 Steuerstäbe herausgefahren. Die Anlage wird zunehmend instabil, der Druck schwankt. Durch eine Notabschaltung hätte die Katastrophe jetzt noch verhindert werden können. Die automatische Notabschaltung war jedoch 20 Minuten zuvor deaktiviert worden.

USFCRFC
)
20 Minuten später nimmt das Schicksal endgültig seinen Lauf: Um 1:23 Uhr ordnet der stellvertretende Chefingenieur an, den Test zu starten. Wie geplant wird der Strom abgeschaltet. Die Pumpen werden jetzt nur noch durch die auslaufende Turbine angetrieben. Dadurch wird weniger Kühlwasser in den Reaktorkern gepumpt. Die Temperatur dort steigt rasch an. Die Welt ist nur noch Sekunden von der Katastrophe entfernt.
Der Schichtleiter drückt den Notschalter
Um 1:23:40 Uhr drückt der Schichtleiter den Schalter für die Notabschaltung – es war der Funke an der Zündschnur. Der Knopf AZ-5 sorgte dafür, dass alle Steuerstäbe eingefahren werden. Doch statt die Kettenreaktion zu stoppen, wurde sie wegen eines Konstruktionsfehlers des Reaktors beschleunigt. In Sekundenbruchteilen stieg die Leistung auf das Hundertfache des Nennwerts. Durch den Temperaturanstieg verformten sich die Stäbe und blieben stecken. Bei einer Temperatur von etwa 2000 Grad Celsius schmolzen die Brennelemente. Das Zirkonium in den Hüllen der Brennstäbe reagierte mit dem Wasserdampf, ebenso das Graphit. Große Mengen an Wasserstoff und Kohlenstoffmonoxid wurden freigesetzt.
Es kommt in kurzer Abfolge zu zwei Explosionen, von denen eine den rund 2000 Tonnen schweren Deckel des Reaktors wegsprengt. Im Innern des Reaktors wütet ein Feuer, das riesige Mengen radioaktiven Materials freisetzt. Brennendes, hochradioaktives Graphit wird hinausgeschleudert. Die heiße Luft, die von dem Feuer aufsteigt, befördert die radioaktiven Stoffe hoch in die Atmosphäre.
Die Werksfeuerwehr war in Minuten vor Ort und hatte schon etwa vier Stunden nach den Explosionen die Brände außerhalb des Reaktorgebäudes gelöscht. Drinnen brannte es jedoch weiter. Um das Feuer zu löschen und zudem eine unkontrollierte Kettenreaktion im geschmolzenen Reaktorkern zu verhindern, wurde beschlossen, Blei, Bor, Dolomit, Sand und Lehm in den Reaktor zu schütten.
Künstliche Intelligenz
Behörden-Dschungel: Statusmonitor für die BundID soll die Wirtschaft entlasten
Der mühsame Weg zum digitalen Staat mit funktionellem E-Government hat einen Meilenstein erreicht – zumindest auf dem Papier und in der technischen Infrastruktur. Wie aus einer aktuellen Antwort der Bundesregierung auf eine Anfrage der AfD-Bundestagsfraktion hervorgeht, ist die Entwicklung des sogenannten Statusmonitors innerhalb der BundID sowie des Zentralen Bürgerpostfaches (ZBP) abgeschlossen und harrt neuer Anwendungen.
Weiterlesen nach der Anzeige
Das System soll Unternehmen und Bürgern mehr Transparenz über den Bearbeitungsstand ihrer Anträge und Genehmigungen verschaffen. Es befindet sich laut der Auskunft bereits seit August 2024 „produktiv im Pilotbetrieb“. Nach einer Phase der Feinjustierung, in der Erkenntnisse aus dem Testlauf verarbeitet worden seien, stehe die Komponente seit Oktober 2025 mit vollem Funktionsumfang zur Verfügung. Damit reagiert die Exekutive auf eine langjährige Forderung aus der Wirtschaft, die mangelnde Informationsflüsse in Verwaltungsprozessen als erhebliches Bürokratiehindernis beklagt hatte.
Die technische Bereitstellung allein löst das Problem der Funkstille zwischen Amt und Antragsteller aber noch nicht. Die Verantwortung für die tatsächliche Nutzung liegt der Regierung zufolge bei den einzelnen Behörden. Diese müssen ihre Onlinedienste aktiv an die BundID und das ZBP anbinden sowie den Statusmonitor mit den notwendigen Daten befüllen.
Wie groß ist die Umsetzungslücke?
Hier offenbart sich aber erneut eine Schwachstelle des föderalen Systems: Da für die Kommunen und Landesbehörden keine Verpflichtung besteht, die Nutzung des Tools an den Bund zu melden, tappt das federführende Bundesministerium für Digitales und Staatsmodernisierung (BMDS) im Dunkeln. Ihm liegen derzeit keine detaillierten Informationen darüber vor, welche Behörden den Dienst in welchem Umfang produktiv einsetzen oder wie stark die Bürokratie für Unternehmen dadurch tatsächlich abgenommen hat.
Trotz dieser Unwägbarkeiten bewegt sich die Harmonisierung der deutschen Kontenlandschaft vorwärts. Inzwischen sind zehn Bundesländer vollständig auf die BundID umgestiegen und haben ihre eigenen Landeskonten aufgegeben. Weitere Länder wie Sachsen planen diesen Schritt bis Mitte 2026. Anstatt auf eine riskante automatisierte Migration der Bestandsdaten zu setzen, baut der Bund auf individuelle Abstimmungen mit den Ländern, um den heterogenen rechtlichen und technischen Rahmenbedingungen gerecht zu werden.
Ein wichtiger Baustein für die Akzeptanz des Systems soll die Einführung der sogenannten Bidirektionalität im Juli 2026 sein. Diese Funktion wird es ermöglichen, Rückfragen der Verwaltung direkt über das Portal zu beantworten oder fehlende Nachweise ohne Medienbruch digital nachzureichen.
Weiterlesen nach der Anzeige
Zentralisierung unter kritischer Beobachtung
Die fortschreitende Zentralisierung über die BundID bleibt nicht ohne Widerspruch. Datenschützer und Bürgerrechtler warnen regelmäßig vor den Risiken eines „Single Point of Failure“. Die Konzentration sensibler Identitätsdaten in einem zentralen System weckt Begehrlichkeiten bei Sicherheitsbehörden und bietet Angriffsflächen für Hacker, wie Kritiker und IT-Experten etwa im Umfeld des Chaos Computer Clubs (CCC) betonen. Sie fühlen sich in ihrer Kritik durch eine Datenpanne im französischen System für Online-Ausweise bestätigt.
Zudem bemängeln Gegner, dass die zunehmende Verpflichtung zur Nutzung digitaler Konten („Digital Only“) Personen ohne entsprechendes technisches Know-how oder Ausstattung von Verwaltungsleistungen ausschließen könnte. Die Regierung versucht, diese Bedenken mit dem Ausbau eines Datenschutzcockpits zu kontern, das Nutzern mehr Kontrolle über die Flüsse ihrer personenbezogenen Informationen geben soll.
Parallel dazu arbeitet die Regierung an einer umfassenden Modernisierungsagenda, die über bloße Statusanzeigen hinausgeht. Bis Ende 2026 will sie die Nutzerfreundlichkeit der BundID optimieren und die Anbindung an die europäische EUDI-Wallet schaffen. Ein Kernpunkt der Strategie ist das Once-only-Prinzip im Zuge der Registermodernisierung. Ziel ist es, dass Bürger und Unternehmen Nachweise nicht mehrfach einreichen müssen, da Behörden künftig mit Zustimmung auf bereits vorhandene Daten zugreifen können.
Auch rechtlich stehen weitreichende Änderungen an: So ist geplant, bis Ende 2027 das Regel-Ausnahme-Verhältnis bei Genehmigungen umzukehren. Wo immer möglich, soll künftig eine Genehmigungsfiktion greifen – ein Antrag gilt dann als bewilligt, wenn die Behörde nicht innerhalb einer festgelegten Frist reagiert. Mit diesen ehrgeizigen Plänen will die Exekutive den digitalen Rückstand Deutschlands im EU-Vergleich verkürzen.
(nen)
Künstliche Intelligenz
Teure digitale Spurensuche: Milliardeninvestitionen für die neue IP-Speicherung?
Es ist ein politisches Comeback, das viele Beobachter nach zahlreichen juristischen Niederlagen der vergangenen Jahre kaum noch für möglich gehalten haben. Die Bundesregierung hat diese Woche den Gesetzentwurf zur Einführung einer verpflichtenden IP-Adressspeicherung und zur Weiterentwicklung der Datenerhebung im Strafverfahren auf den Weg gebracht.
Weiterlesen nach der Anzeige
Unter der Führung der schwarz-roten Koalition soll nun Realität werden, was Justiz- und Sicherheitspolitiker seit Langem fordern: Ermittler stünden ihrer Logik zufolge im digitalen Raum nicht mehr vor verschlossenen Türen, wenn flüchtige Internetdaten bereits gelöscht sind. Doch der Preis für diesen neuerlichen Anlauf, dessen Bedarf für die Ermittlungspraxis heftig umkämpft bleibt, ist hoch.
Zwar beziffert der Regierungsentwurf den offiziellen Erfüllungsaufwand für die Wirtschaft formal mit Null. Das federführende Justizministerium räumt aber unter der Rubrik „Weitere Kosten“ ein, dass nicht nur für Firmen erhebliche finanzielle Lasten entstehen. Diese könnten letztlich auch die Verbraucherpreise beeinflussen. Allein für die Bundesnetzagentur plant der Bund mit knapp 34 neuen Stellen und jährlichen Mehrkosten von über 4,2 Millionen Euro, um die Überwachung der neuen Speicherpflichten zu gewährleisten. Dazu kommen sollen einmalige Umstellungskosten bei den Behörden, die sich auf rund 1,2 Millionen Euro belaufen dürften.
Zwischen technischer Notwendigkeit und Kostenfalle
Der Entwurf sieht vor, dass Zugangsanbieter verpflichtet werden, IP-Adressen zusammen mit Portnummern und Zeitstempeln für drei Monate anlasslos zu speichern. Damit soll die Zuordnung eines Anschlussinhabers zu einer Tatzeit ermöglicht werden. Während das Innenministerium die Notwendigkeit dieser Maßnahmen mit dem Kampf gegen Kindesmissbrauch und organisierte Kriminalität begründet, offenbart die Vorlage bei genauerem Hinsehen eine bürokratische Lawine.
Für die Wirtschaft bedeutet die Umsetzung eine große technische Herausforderung. Insbesondere die Speicherung von Portnummern, die durch die Adressknappheit bei IPv4-Anschlüssen mittels Network Address Translation (NAT) nötig wird, gilt als Kostentreiber.
Christoph Sorge von der Universität des Saarlandes weist gegenüber dem Science Media Center (SMC) darauf hin, dass eine längerfristige Protokollierung von Portnummern technisch bislang in der Regel nicht vorgesehen ist. Je nach konkreter Umsetzung könnte das zu detaillierten Nutzungsprofilen und entsprechend hohem Aufwand für die Provider führen. Er bezweifelt auch die Verhältnismäßigkeit der Frist. Das Bundeskriminalamt selbst sei zum Schluss gekommen, dass eine Speicherdauer von zwei bis drei Wochen in den meisten Fällen ausreichend wäre. Die Evidenz für das geforderte Vierteljahr sei dünn.
Weiterlesen nach der Anzeige
Datensicherheit als finanzieller Risikofaktor
Ähnlich kritisch sieht Stefan Schmid von der TU Berlin die technische Seite. Zwar sei die reine Datenspeicherung eine Standardanwendung. Doch der Schutz dieser neuen „Daten-Honeypots“ vor Angriffen und die garantierte, spurenlose Löschung in komplexen Backup-Strukturen seien organisatorisch und finanziell extrem aufwendig. Eine saubere Umsetzung könne viel Zeit in Anspruch nehmen und schaffe neue Risiken durch Fehlkonfigurationen oder Insiderzugriffe. Die Kosten für die notwendigen Hochsicherheitsumgebungen bei den Zugangsanbietern sind im Entwurf bisher kaum valide abgebildet.
Nicht weniger imposant liest sich der personelle Aufwand für die öffentliche Hand. Die Exekutive rechnet allein im Bereich der Bundesnetzagentur mit einem Mehrbedarf von 26 Planstellen für Fachaufgaben sowie weiteren 7,8 Stellen für Querschnittsaufgaben. Diese Aufstockung soll die neuen Aufsichts- und Kontrollbefugnisse absichern. Gleichzeitig hofft der Bund auf Einsparungen bei den Ländern: Durch die effizientere Strafverfolgung wird ein „Minderbedarf“ von rund 1,43 Millionen Euro prognostiziert. Doch diese Summe wirkt angesichts der massiven Investitionen auf Providerseite eher symbolisch.
Zweifel am digitalen Sicherheitsgewinn
Dennis-Kenji Kipker vom Cyberintelligence Institute gibt zu bedenken, dass die Datenvorhaltung allein keine moderne strafprozessuale Ermittlungsarchitektur ersetze. Er moniert, dass die Regierung ausdrücklich auf eine systematische Evaluierung der Maßnahmen verzichtet habe. Ohne eine solche Wirkungsmessung bleibe unklar, ob die enormen Investitionen tatsächlich zu einer signifikant höheren Aufklärungsquote führen oder ob nur Ressourcen gebunden werden, die an anderer Stelle wie der internationalen Rechtshilfe fehlen.
Die rechtliche Flanke bleibt zugleich das größte Sorgenkind. Hannah Ruschemeier von der Uni Osnabrück betont, dass es sich weiterhin um eine anlasslose Speicherung handele, der sich kein Bürger entziehen könne. Sie wittert einen intensiven Grundrechtseingriff mit enormer Streubreite und warnt vor dem Phänomen der schleichenden Ausweitung der Befugnisse auf immer neue Deliktsfelder. Die Professorin verweist auf Studien des Max-Planck-Instituts, die den Nutzen einer solchen Protokollierung für die Strafverfolgung verneint haben.
Dass die Identifikation über IP-Adressen zudem durch VPN-Dienste oder Tor-Netzwerke leicht umgangen werden kann, macht die hohen Investitionen in den Augen vieler Experten noch fragwürdiger. Am Ende müssten Wirtschaft und Staat so Millionen investieren, während technisch versierte Täter längst ihre Spuren verwischen. Die politische Einigung in Berlin mag weitgehend stehen. Doch der Weg durch die höchsten Gerichte in Karlsruhe und Luxemburg dürfte auch für diesen teuren Kompromiss noch lang und steinig werden.
(nen)
Künstliche Intelligenz
SAP wächst mit Cloud – hofft aber erst 2027 auf mehr Tempo
Europas größter Softwarehersteller SAP rechnet trotz seiner gefragten Cloudsoftware in diesem Jahr vorerst mit einem langsameren Geschäftswachstum. Im laufenden Jahr dürfte der Gesamtumsatz währungsbereinigt nur etwa wie 2025 zulegen und erst 2027 stärker wachsen, teilte der Dax-Konzern nach US-Börsenschluss in Walldorf mit.
Weiterlesen nach der Anzeige
Selbst diese Prognose basiert jedoch auf der Annahme, dass sich der Konflikt im Nahen Osten in nächster Zeit entschärft. Im ersten Quartal lief es für SAP indes besser als gedacht.
Treiber waren die Erlöse mit Cloudsoftware
Insgesamt wuchs der Umsatz des Konzerns im Jahresvergleich um sechs Prozent auf knapp 9,6 Milliarden Euro. Treiber waren die Erlöse mit Cloudsoftware, die um 19 Prozent stiegen. Der aus Cloudverträgen in den nächsten zwölf Monaten zu erwartende Umsatz (current cloud backlog – CCB) zog um 20 Prozent auf 21,9 Milliarden Euro Ende März an.
Das um Sondereffekte bereinigte Ergebnis vor Zinsen und Steuern wuchs um 17 Prozent auf fast 2,9 Milliarden Euro. Unter dem Strich stand ein Gewinn von 1,9 Milliarden Euro, ein Anstieg um 8 Prozent.
Konzernchef Christian Klein nannte als besonderen Erfolgstreiber die Dynamik rund um Künstliche Intelligenz bei den Unternehmenskunden. „Wir wachsen deutlich schneller als der Markt, bauen unsere Marktanteile weiter aus und sehen, wie Kunden zunehmend weitere Lösungen aus unserer Suite sowie verstärkt unsere KI-Angebote nutzen.“
Umsatz-Beschleunigung soll erst 2027 beginnen
Weiterlesen nach der Anzeige
Allerdings machte das Management im Quartalsbericht deutlich, dass die positive Entwicklung vom Jahresbeginn nicht ohne Weiteres anhalten dürfte. So werde sich das Wachstum der Clouderlöse im zweiten Quartal voraussichtlich abschwächen. Zudem habe das bereinigte operative Ergebnis im ersten Jahresviertel von einem Rückgang der Kosten für anteilsbasierte Vergütungen profitiert.
Andererseits musste SAP im ersten Quartal mehr als 400 Millionen Euro zahlen, um einen alten Rechtsstreit mit Teradata in den USA wegen der Datenbanktechnik Hana beizulegen. Dies belastete den Barmittelfluss.
Für das Gesamtjahr erwartet Klein nun weiterhin ein währungsbereinigtes Wachstum der Clouderlöse um 23 bis 25 Prozent. Der Gesamtumsatz, der 2025 währungsbereinigt um 11 Prozent zugelegt hatte, soll nun erneut in etwa diesem Maße wachsen. Die zuvor angekündigte Beschleunigung soll erst 2027 beginnen. Dennoch soll das Betriebsergebnis 2026 wie geplant währungsbereinigt um 14 bis 18 Prozent steigen.
(mho)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 2 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Social Mediavor 1 MonatVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
