Connect with us

Künstliche Intelligenz

Missing Link: 40. Jahrestag der Reaktorkatastrophe in Tschernobyl


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Am Sonnabend, 26. April 1986, um 1:20 Uhr ist die Welt noch in Ordnung. Noch für wenige Minuten: In der Zentrale von Block 4 des Kraftwerkes Tschernobyl in der Ukrainischen Sozialistischen Sowjetrepublik bereitet die Nachtschicht einen Test vor. Er soll zeigen, dass der Reaktor auch nach einem Stromausfall sicher ist. Drei Minuten später, um 1:23:44 Uhr (25. April, 23:23:44 Uhr unserer Zeit) explodiert der Reaktor. Es ist der schlimmste Atomunfall in der Geschichte.

Weiterlesen nach der Anzeige

Bei dem Test sollte ein externer Stromausfall simuliert werden. Damit wollte die Kraftwerkmannschaft überprüfen, ob in so einem Fall die nachlaufende Turbine noch genug Energie für die Notkühlung des Reaktors liefern würde, bis die Notstromgeneratoren starten. Eine Minute galt es zu überbrücken – sonst bestünde die Gefahr einer Kernschmelze.




Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Die Simulation begann bereits 24 Stunden vorher, am 25. April um 1 Uhr Ortszeit, mit dem schrittweisen Herunterfahren des Reaktors für die jährliche Überprüfung. Doch weil am Freitagmittag in Kiew Strom benötigt wird, wird das Herunterfahren gestoppt. Der Reaktor läuft zu der Zeit mit halber Kraft.

Um 23:10 Uhr nimmt das Personal das Herunterfahren wieder auf. Etwa eine Stunde später war er bei einem Viertel seiner Leistung angekommen. Doch plötzlich sackte die Leistung schlagartig auf etwa 1 Prozent ab. Grund war eine sogenannte Xenon-Vergiftung.

Weil der Reaktor stundenlang mit halber Kraft lief, hatte sich das Isotop Xenon-135 gebildet. Xenon absorbiert Neutronen und behindert die Kettenreaktion, weshalb die Leistung des Reaktors abfiel. Es dauert etwa ein bis zwei Tage, bis das Isotop zerfallen ist. Erst dann ist der Reaktor wieder betriebsbereit und darf wieder hochgefahren werden.

Knapp eine Stunde vor der Katastrophe, um 0:32 Uhr, trifft die Mannschaft die erste von mehreren Fehlentscheidungen: Um die Leistung des Reaktors wieder hochzufahren, zieht sie einen Teil der Steuerstäbe, mit denen der Reaktor geregelt wird, heraus. Doch was sie beabsichtigt – die Leistung wieder zu steigern – gelingt nicht: Der Reaktor kommt nur auf 7 Prozent. Mit einer Leistung von weniger als 20 Prozent darf er nicht betrieben werden, sondern muss nur heruntergefahren werden. Dennoch fällt die Entscheidung, den Reaktor laufen zu lassen und den Test wie geplant durchzuführen.

Weiterlesen nach der Anzeige

In der nächsten halben Stunde fährt die Bedienmannschaft weitere Steuerstäbe aus dem Reaktor, um ihn zu stabilisieren. Um 1:03 Uhr sind 193 der 211 Steuerstäbe herausgefahren. Die Anlage wird zunehmend instabil, der Druck schwankt. Durch eine Notabschaltung hätte die Katastrophe jetzt noch verhindert werden können. Die automatische Notabschaltung war jedoch 20 Minuten zuvor deaktiviert worden.


Das Ortsschild vor der Katastrophe (Bild:

USFCRFC

)

20 Minuten später nimmt das Schicksal endgültig seinen Lauf: Um 1:23 Uhr ordnet der stellvertretende Chefingenieur an, den Test zu starten. Wie geplant wird der Strom abgeschaltet. Die Pumpen werden jetzt nur noch durch die auslaufende Turbine angetrieben. Dadurch wird weniger Kühlwasser in den Reaktorkern gepumpt. Die Temperatur dort steigt rasch an. Die Welt ist nur noch Sekunden von der Katastrophe entfernt.

Um 1:23:40 Uhr drückt der Schichtleiter den Schalter für die Notabschaltung – es war der Funke an der Zündschnur. Der Knopf AZ-5 sorgte dafür, dass alle Steuerstäbe eingefahren werden. Doch statt die Kettenreaktion zu stoppen, wurde sie wegen eines Konstruktionsfehlers des Reaktors beschleunigt. In Sekundenbruchteilen stieg die Leistung auf das Hundertfache des Nennwerts. Durch den Temperaturanstieg verformten sich die Stäbe und blieben stecken. Bei einer Temperatur von etwa 2000 Grad Celsius schmolzen die Brennelemente. Das Zirkonium in den Hüllen der Brennstäbe reagierte mit dem Wasserdampf, ebenso das Graphit. Große Mengen an Wasserstoff und Kohlenstoffmonoxid wurden freigesetzt.

Es kommt in kurzer Abfolge zu zwei Explosionen, von denen eine den rund 2000 Tonnen schweren Deckel des Reaktors wegsprengt. Im Innern des Reaktors wütet ein Feuer, das riesige Mengen radioaktiven Materials freisetzt. Brennendes, hochradioaktives Graphit wird hinausgeschleudert. Die heiße Luft, die von dem Feuer aufsteigt, befördert die radioaktiven Stoffe hoch in die Atmosphäre.

Die Werksfeuerwehr war in Minuten vor Ort und hatte schon etwa vier Stunden nach den Explosionen die Brände außerhalb des Reaktorgebäudes gelöscht. Drinnen brannte es jedoch weiter. Um das Feuer zu löschen und zudem eine unkontrollierte Kettenreaktion im geschmolzenen Reaktorkern zu verhindern, wurde beschlossen, Blei, Bor, Dolomit, Sand und Lehm in den Reaktor zu schütten.



Source link

Künstliche Intelligenz

Teure digitale Spurensuche: Milliardeninvestitionen für die neue IP-Speicherung?


Es ist ein politisches Comeback, das viele Beobachter nach zahlreichen juristischen Niederlagen der vergangenen Jahre kaum noch für möglich gehalten haben. Die Bundesregierung hat diese Woche den Gesetzentwurf zur Einführung einer verpflichtenden IP-Adressspeicherung und zur Weiterentwicklung der Datenerhebung im Strafverfahren auf den Weg gebracht.

Weiterlesen nach der Anzeige

Unter der Führung der schwarz-roten Koalition soll nun Realität werden, was Justiz- und Sicherheitspolitiker seit Langem fordern: Ermittler stünden ihrer Logik zufolge im digitalen Raum nicht mehr vor verschlossenen Türen, wenn flüchtige Internetdaten bereits gelöscht sind. Doch der Preis für diesen neuerlichen Anlauf, dessen Bedarf für die Ermittlungspraxis heftig umkämpft bleibt, ist hoch.

Zwar beziffert der Regierungsentwurf den offiziellen Erfüllungsaufwand für die Wirtschaft formal mit Null. Das federführende Justizministerium räumt aber unter der Rubrik „Weitere Kosten“ ein, dass nicht nur für Firmen erhebliche finanzielle Lasten entstehen. Diese könnten letztlich auch die Verbraucherpreise beeinflussen. Allein für die Bundesnetzagentur plant der Bund mit knapp 34 neuen Stellen und jährlichen Mehrkosten von über 4,2 Millionen Euro, um die Überwachung der neuen Speicherpflichten zu gewährleisten. Dazu kommen sollen einmalige Umstellungskosten bei den Behörden, die sich auf rund 1,2 Millionen Euro belaufen dürften.

Der Entwurf sieht vor, dass Zugangsanbieter verpflichtet werden, IP-Adressen zusammen mit Portnummern und Zeitstempeln für drei Monate anlasslos zu speichern. Damit soll die Zuordnung eines Anschlussinhabers zu einer Tatzeit ermöglicht werden. Während das Innenministerium die Notwendigkeit dieser Maßnahmen mit dem Kampf gegen Kindesmissbrauch und organisierte Kriminalität begründet, offenbart die Vorlage bei genauerem Hinsehen eine bürokratische Lawine.

Für die Wirtschaft bedeutet die Umsetzung eine große technische Herausforderung. Insbesondere die Speicherung von Portnummern, die durch die Adressknappheit bei IPv4-Anschlüssen mittels Network Address Translation (NAT) nötig wird, gilt als Kostentreiber.

Christoph Sorge von der Universität des Saarlandes weist gegenüber dem Science Media Center (SMC) darauf hin, dass eine längerfristige Protokollierung von Portnummern technisch bislang in der Regel nicht vorgesehen ist. Je nach konkreter Umsetzung könnte das zu detaillierten Nutzungsprofilen und entsprechend hohem Aufwand für die Provider führen. Er bezweifelt auch die Verhältnismäßigkeit der Frist. Das Bundeskriminalamt selbst sei zum Schluss gekommen, dass eine Speicherdauer von zwei bis drei Wochen in den meisten Fällen ausreichend wäre. Die Evidenz für das geforderte Vierteljahr sei dünn.

Weiterlesen nach der Anzeige

Ähnlich kritisch sieht Stefan Schmid von der TU Berlin die technische Seite. Zwar sei die reine Datenspeicherung eine Standardanwendung. Doch der Schutz dieser neuen „Daten-Honeypots“ vor Angriffen und die garantierte, spurenlose Löschung in komplexen Backup-Strukturen seien organisatorisch und finanziell extrem aufwendig. Eine saubere Umsetzung könne viel Zeit in Anspruch nehmen und schaffe neue Risiken durch Fehlkonfigurationen oder Insiderzugriffe. Die Kosten für die notwendigen Hochsicherheitsumgebungen bei den Zugangsanbietern sind im Entwurf bisher kaum valide abgebildet.

Nicht weniger imposant liest sich der personelle Aufwand für die öffentliche Hand. Die Exekutive rechnet allein im Bereich der Bundesnetzagentur mit einem Mehrbedarf von 26 Planstellen für Fachaufgaben sowie weiteren 7,8 Stellen für Querschnittsaufgaben. Diese Aufstockung soll die neuen Aufsichts- und Kontrollbefugnisse absichern. Gleichzeitig hofft der Bund auf Einsparungen bei den Ländern: Durch die effizientere Strafverfolgung wird ein „Minderbedarf“ von rund 1,43 Millionen Euro prognostiziert. Doch diese Summe wirkt angesichts der massiven Investitionen auf Providerseite eher symbolisch.

Dennis-Kenji Kipker vom Cyberintelligence Institute gibt zu bedenken, dass die Datenvorhaltung allein keine moderne strafprozessuale Ermittlungsarchitektur ersetze. Er moniert, dass die Regierung ausdrücklich auf eine systematische Evaluierung der Maßnahmen verzichtet habe. Ohne eine solche Wirkungsmessung bleibe unklar, ob die enormen Investitionen tatsächlich zu einer signifikant höheren Aufklärungsquote führen oder ob nur Ressourcen gebunden werden, die an anderer Stelle wie der internationalen Rechtshilfe fehlen.

Die rechtliche Flanke bleibt zugleich das größte Sorgenkind. Hannah Ruschemeier von der Uni Osnabrück betont, dass es sich weiterhin um eine anlasslose Speicherung handele, der sich kein Bürger entziehen könne. Sie wittert einen intensiven Grundrechtseingriff mit enormer Streubreite und warnt vor dem Phänomen der schleichenden Ausweitung der Befugnisse auf immer neue Deliktsfelder. Die Professorin verweist auf Studien des Max-Planck-Instituts, die den Nutzen einer solchen Protokollierung für die Strafverfolgung verneint haben.

Dass die Identifikation über IP-Adressen zudem durch VPN-Dienste oder Tor-Netzwerke leicht umgangen werden kann, macht die hohen Investitionen in den Augen vieler Experten noch fragwürdiger. Am Ende müssten Wirtschaft und Staat so Millionen investieren, während technisch versierte Täter längst ihre Spuren verwischen. Die politische Einigung in Berlin mag weitgehend stehen. Doch der Weg durch die höchsten Gerichte in Karlsruhe und Luxemburg dürfte auch für diesen teuren Kompromiss noch lang und steinig werden.


(nen)



Source link

Weiterlesen

Künstliche Intelligenz

SAP wächst mit Cloud – hofft aber erst 2027 auf mehr Tempo


Europas größter Softwarehersteller SAP rechnet trotz seiner gefragten Cloudsoftware in diesem Jahr vorerst mit einem langsameren Geschäftswachstum. Im laufenden Jahr dürfte der Gesamtumsatz währungsbereinigt nur etwa wie 2025 zulegen und erst 2027 stärker wachsen, teilte der Dax-Konzern nach US-Börsenschluss in Walldorf mit.

Weiterlesen nach der Anzeige

Selbst diese Prognose basiert jedoch auf der Annahme, dass sich der Konflikt im Nahen Osten in nächster Zeit entschärft. Im ersten Quartal lief es für SAP indes besser als gedacht.

Insgesamt wuchs der Umsatz des Konzerns im Jahresvergleich um sechs Prozent auf knapp 9,6 Milliarden Euro. Treiber waren die Erlöse mit Cloudsoftware, die um 19 Prozent stiegen. Der aus Cloudverträgen in den nächsten zwölf Monaten zu erwartende Umsatz (current cloud backlog – CCB) zog um 20 Prozent auf 21,9 Milliarden Euro Ende März an.

Das um Sondereffekte bereinigte Ergebnis vor Zinsen und Steuern wuchs um 17 Prozent auf fast 2,9 Milliarden Euro. Unter dem Strich stand ein Gewinn von 1,9 Milliarden Euro, ein Anstieg um 8 Prozent.

Konzernchef Christian Klein nannte als besonderen Erfolgstreiber die Dynamik rund um Künstliche Intelligenz bei den Unternehmenskunden. „Wir wachsen deutlich schneller als der Markt, bauen unsere Marktanteile weiter aus und sehen, wie Kunden zunehmend weitere Lösungen aus unserer Suite sowie verstärkt unsere KI-Angebote nutzen.“

Weiterlesen nach der Anzeige

Allerdings machte das Management im Quartalsbericht deutlich, dass die positive Entwicklung vom Jahresbeginn nicht ohne Weiteres anhalten dürfte. So werde sich das Wachstum der Clouderlöse im zweiten Quartal voraussichtlich abschwächen. Zudem habe das bereinigte operative Ergebnis im ersten Jahresviertel von einem Rückgang der Kosten für anteilsbasierte Vergütungen profitiert.

Andererseits musste SAP im ersten Quartal mehr als 400 Millionen Euro zahlen, um einen alten Rechtsstreit mit Teradata in den USA wegen der Datenbanktechnik Hana beizulegen. Dies belastete den Barmittelfluss.

Für das Gesamtjahr erwartet Klein nun weiterhin ein währungsbereinigtes Wachstum der Clouderlöse um 23 bis 25 Prozent. Der Gesamtumsatz, der 2025 währungsbereinigt um 11 Prozent zugelegt hatte, soll nun erneut in etwa diesem Maße wachsen. Die zuvor angekündigte Beschleunigung soll erst 2027 beginnen. Dennoch soll das Betriebsergebnis 2026 wie geplant währungsbereinigt um 14 bis 18 Prozent steigen.


(mho)



Source link

Weiterlesen

Künstliche Intelligenz

Bei Notebooks wird Laden über USB-C jetzt Pflicht


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Seit dem 28. Dezember 2024 sind USB-C-Anschlüsse in der EU als einheitlicher Ladeanschluss für Smartphones, Kopfhörer, Digitalkameras und Tablets Pflicht. Ab dem 28. April 2026 zündet die nächste Stufe der Vereinheitlichung des Ladeanschlusses: Ab diesem Stichtag müssen alle neuen Notebooks, die in der EU verkauft werden, über einen USB-C-Anschluss zum Laden und für den Netzbetrieb verfügen. Es gibt aber Ausnahmen.

Weiterlesen nach der Anzeige

Da die Richtlinie (EU) 2022/2380 schon seit Oktober 2022 bekannt ist, haben die meisten Hersteller ihre Modelle entsprechend umgestellt, sodass sie sich über den USB-C-Anschluss laden lassen. Was mit der Richtlinie ebenso umgesetzt wird, kennt man schon von Smartphones: Hersteller müssen den Geräten künftig keine Netzteile mehr beilegen, um Elektroschrott zu reduzieren und die Umwelt zu schonen. Ob einem Produkt noch ein Netzteil beiliegt oder nicht, muss nach EU-Vorgaben auf der Verpackung über ein Piktogramm festgehalten sein. Ist keines inbegriffen, müssen Nutzerinnen und Nutzer sich selbst darum kümmern, wobei viele ohnehin eines oder mehrere im Haus haben sollten.

Jedoch reicht für das Laden von Notebooks ein einfaches 20-W-Netzteil nicht aus: Für Notebooks sind USB-C-Netzteile je nach Gerätetyp mit 45 bis 100 Watt Leistung notwendig. Mit diesen lassen sich auch Smartphones, Tablets oder Bluetooth-Boxen laden, wenn auch größtenteils nicht mit der vollen gebotenen Leistung, da diese Geräte oftmals eine geringere Ladeleistung unterstützen.

Zusätzlich muss die Verpackung über ein Netzteil-Piktogramm verfügen, das über die vom Gerät erforderliche Ladeleistung informiert. Angegeben wird die Mindest- und Maximalleistung in Watt. Überdies soll die Abkürzung „USB PD“ (USB Power Delivery) auf dem Piktogramm angegeben werden, wenn das Produkt das Schnellladeprotokoll unterstützt. Allerdings müssen auch die Kabel dieses Protokoll unterstützen.

Die EU macht eine Ausnahme bei der Netzteil-Freiheit: Besonders leistungsstarke Modelle wie Gaming-Notebooks oder mobile Workstations können immer noch Ladeanschlüsse mit runden oder mehrpoligen Ports besitzen, da ihre Leistungsaufnahme bisweilen über der liegt, die USB-C hergibt – das sind derzeit maximal 240 W.

Weiterlesen nach der Anzeige

Microsoft macht übrigens ein wenig mit: Der Konzern setzt für Geräte wie Notebooks und Tablets mit Windows 11 strengere Mindestanforderungen für USB-C durch. Alle USB-C-Anschlüsse von Windows-11-Mobilgeräten müssen künftig Daten übertragen können, per USB aufladbar sein, externe Geräte laden und die Ausgabe an externe Bildschirme oder Beamer unterstützen. Dafür passt Microsoft das sogenannte Windows Hardware Compatibility Program (WHCP) an. Dieses Zertifizierungsprogramm ist für alle Hersteller Pflicht, die Windows 11 etwa auf einem Notebook vorinstallieren wollen.

Die nächste Zündstufe der EU-Regelung erfolgt im Jahr 2028: Dann wird die USB-C-Pflicht auf Ladegeräte ausgeweitet. Die neuen Vorschriften der Ökodesign-Verordnung gelten dann für externe Netzteile, die Geräte wie Laptops, Smartphones, WLAN-Router und Computermonitore aufladen oder mit Strom versorgen. Diese Produkte müssen ab 2028 höhere Energieeffizienzstandards erfüllen und interoperabler werden. Das heißt konkret, dass USB-Ladegeräte auf dem EU-Markt mindestens über einen USB-Typ-C-Anschluss verfügen und mit abnehmbaren Kabeln funktionieren müssen. Laut EU-Kommission werden jährlich über 400 Millionen externe Netzteile in der EU verkauft; die Maßnahme soll bis 2035 jährlich rund 3 Prozent des Energieverbrauchs über den Lebenszyklus dieser Geräte einsparen.


(afl)



Source link

Weiterlesen

Beliebt