Künstliche Intelligenz
iX-Workshop: IT-Sicherheit nach ISO 27001 – Herausforderungen und Chancen
Sie planen die Einführung eines Information Security Management Systems (ISMS) nach ISO 27001 oder stehen bereits mitten in der Umsetzung? Im interaktiven iX-Workshop IT-Sicherheit nach ISO 27001 und NIS2-Anforderungen umsetzen erhalten Sie eine fundierte Einführung in die Anforderungen der internationalen Norm und lernen praxisnahe Ansätze für die erfolgreiche Umsetzung im Unternehmen kennen.
Weiterlesen nach der Anzeige
Der Workshop vermittelt Ihnen die zentralen Grundlagen eines ISMS nach ISO 27001 und zeigt, wie Sie diese strukturiert in der Praxis umsetzen können. Dabei werden auch die aktuellen regulatorischen Anforderungen der NIS2-Richtlinie berücksichtigt, sodass Sie beide Themenfelder sinnvoll miteinander verbinden können.
Sie erhalten einen klaren Überblick über Gemeinsamkeiten und Unterschiede von ISO 27001 und dem NIS2-Umsetzungsgesetz (NIS2UmsuCG) und lernen, wie Sie diese Anforderungen bereits in der Planungsphase Ihres ISMS berücksichtigen können.
Das Gelernte praktisch anwenden
Der zweitägige Workshop ist interaktiv aufgebaut und kombiniert theoretische Grundlagen mit praxisnahen Gruppenarbeiten und Diskussionen. Sie erarbeiten zentrale Schritte der ISMS-Einführung, lernen typische Projektphasen kennen und setzen sich mit häufigen Herausforderungen und Fallstricken in der Umsetzung auseinander. Dabei stehen konkrete Aufgaben der Projektplanung, Strukturierung und Implementierung im Mittelpunkt.
Durch den aktiven Austausch in der Gruppe entwickeln Sie ein besseres Verständnis für typische Umsetzungsszenarien und können die Inhalte direkt auf Ihre eigene Organisation übertragen.
|
Juli 01.07. – 02.07.2026 |
Online-Workshop, 09:00 – 12:30 Uhr 10 % Frühbucher-Rabatt bis zum 03. Jun. 2026 |
|
Oktober 06.10. – 07.10.2026 |
Online-Workshop, 09:00 – 12:30 Uhr 10 % Frühbucher-Rabatt bis zum 08. Sep. 2026 |
Von Erfahrungen aus der Praxis lernen
Weiterlesen nach der Anzeige
Sie profitieren von der gemeinsamen Expertise Ihrer Trainer Ann-Kathrin Rechel und Viktor Rechel, beide leitende Cybersicherheitsberater bei der secuvera GmbH. Sie begleiten Unternehmen regelmäßig bei der Einführung und Weiterentwicklung von Informationssicherheitsmanagementsystemen und verfügen über umfassende Erfahrung in der praktischen Umsetzung von ISO-27001- und NIS2-Anforderungen. Im Workshop vermitteln sie praxisnahe Einblicke aus realen Projekten und zeigen, wie sich ISMS-Strukturen effizient, nachvollziehbar und normkonform in Unternehmen etablieren lassen.
Für wen ist dieser Workshop geeignet?
Der Workshop richtet sich an Informationssicherheitsbeauftragte, IT-Mitarbeitende sowie Führungskräfte, die ein ISMS nach ISO 27001 einführen oder weiterentwickeln möchten und dabei auch regulatorische Anforderungen wie NIS2 berücksichtigen müssen.

(ilk)
Künstliche Intelligenz
KI-Modelle gegen klassische Wettervorhersage: Wer liefert die bessere Prognose?
Regnet es am Wochenende oder scheint die Sonne? Instabile Wetterlagen wie jetzt gerade machen die Wettervorhersage besonders unzuverlässig. Wie KI-Modelle hier Abhilfe schaffen – und wo ihre Grenzen liegen.
Weiterlesen nach der Anzeige
Ein langes Mai-Wochenende steht an – eigentlich ideal für Freiluftaktivitäten. Aber wird tatsächlich die Sonne scheinen? Wer diese Frage derzeit mit Wetter-Apps auf dem Smartphone beantwortet, wird oft enttäuscht. KI-Modelle wie Graphcast von Google, Aurora von Microsoft oder Pangu Weather von Huawei versprechen ähnlich gute oder sogar bessere Ergebnisse, die wesentlich schneller berechnet werden.
Was ist der Unterschied zwischen konventionellen Modellen und KI-Modellen? Was taugen die neuen Modelle und wo werden sie eingesetzt? Und können Sie KI-Modelle nutzen, um das lange Wochenende vielleicht doch mit ein wenig mehr Sicherheit zu planen? Wir beantworten die wichtigsten Fragen.
Wie funktionieren Wettervorhersagen?
Konventionelle Wettermodelle beschreiben die zeitliche – also zukünftige – Entwicklung von Druck, Temperatur und Luftfeuchtigkeit ausgehend von aktuell gemessenen Werten mithilfe von physikalischen Gleichungen.
Der britische Mathematiker Lewis Fry Richardson kam bereits Anfang des zwanzigsten Jahrhunderts auf die Idee, dass es möglich sein müsste, mithilfe von physikalischen Gesetzmäßigkeiten das Wetter vorherzusagen. Bis dahin verließen sich die Meteorologen weitgehend auf Erfahrung und Beobachtung und entwickelten empirische Modelle auf der Basis der Entwicklung ähnlicher, bekannter Wetterlagen. Weil es damals aber noch keine Computer gab, musste Richardson seine Berechnungen von Hand durchführen – was länger dauerte als die Reichweite seiner Vorhersage. Außerdem waren die Messdaten, die er in seine Berechnungen steckte, äußerst lückenhaft. Seine Vorhersagen für Luftdruckänderungen lagen also weit neben den tatsächlichen Messungen. Die Arbeiten gelten dennoch als bahnbrechend für die moderne Meteorologie.
Die physikalischen Gleichungen geben an, wie stark sich Größen wie Luftdruck, Temperatur und Luftfeuchtigkeit in Abhängigkeit voneinander ändern – das ergibt miteinander gekoppelte Differenzialgleichungen. Um zu berechnen, wie das Wetter wird, müssen diese Gleichungen numerisch integriert werden. Das passiert an den Knotenpunkten eines räumlichen Gitters in festen Zeitschritten. Wie präzise ein Wettermodell ist, hängt also davon ab, wie klein das Raster ist. Allerdings steigt auch der Rechenaufwand, je engmaschiger das Gitter ist.
Regionale Wettermodelle mit kleinen Gitter-Abständen berechnen daher in der Regel nur kurzfristige Vorhersagen. Das Wettermodell COSMO-DE des Deutschen Wetterdienstes etwa verwendet ein Raster von 2,8 × 2,8 Kilometer mit 50 Höhenschichten. Wolken, die jedoch meist kleiner als solche Zellen sind, müssen daher „parametrisiert“ werden – sie tauchen nur in der Anpassung einzelner Modellparameter auf. Deshalb sind Vorhersagen auch immer dann besonders ungenau, wenn sich in einer größeren Luftströmung kleinräumige Störungen befinden.
Weiterlesen nach der Anzeige
Vorhersagehorizont 14 Tage
Je weiter eine Wettervorhersage in die Zukunft rechnet, desto mehr addieren sich zudem Fehler und Ungenauigkeiten. Ein Vorhersagehorizont von 14 Tagen gilt noch immer als eine Art Schallmauer.
Die Regel, dass Wettervorhersagen nur etwa bis 14 Tage brauchbar sind, geht auf den amerikanischen Mathematiker und Meteorologen Edward Lorenz zurück. Lorenz untersuchte Anfang der 1960er Jahre die Möglichkeiten der numerischen Wettervorhersage in einem stark vereinfachten System – einer sogenannten Konvektionszelle. Das ist ein Luftvolumen, das von unten gleichmäßig erwärmt wird. Die warme Luft steigt auf, kühlt ab und strömt dann wieder nach unten. Dabei entdeckte er, dass schon kleine Ungenauigkeiten in den Anfangswerten nach einiger Zeit große Ungenauigkeiten in der Vorhersage bewirkten. Lorenz vermutete daher, dass auch bei beliebig genau gemessenen Anfangswerten der Zeithorizont der Vorhersage begrenzt sein würde. Die Chaostheorie lieferte später die theoretische Unterfütterung für diesen sogenannten „Schmetterlingseffekt“. Kurz: Wettermodelle sind chaotische Systeme.
Künstliche Intelligenz
Digitale Souveränität: Verfassungsschutz kauft europäische Palantir-Alternative
Der deutsche Inlandsgeheimdienst macht Ernst beim Thema digitale Souveränität: Das Bundesamt für Verfassungsschutz (BfV) hat eine neue Software zur Analyse großer Datenmengen erworben. Nach Informationen von WDR, NDR und Süddeutscher Zeitung fiel die Wahl dabei nicht auf den umstrittenen US-Marktführer Palantir, der seit Jahren massiv in den deutschen Sicherheitsmarkt drängt. Vielmehr habe das französische Unternehmen ChapsVision den Zuschlag erhalten.
Weiterlesen nach der Anzeige
Damit will die Bonner Behörde laut den Berichten gezielt ein Zeichen gegen die technologische Abhängigkeit von US-Anbietern setzen, die vielen Sicherheitsbehörden zunehmend übel aufstößt. BfV-Präsident Sinan Selen deutete diesen Kurs bereits Ende 2025 auf einer internen Konferenz in Berlin an. Er hob damals hervor, für die Sicherheit sei entscheidend, geostrategisch richtige Entscheidungen zu treffen und den europäischen Fokus zu schärfen. Es gelte, die Souveränität zu stärken und Alternativen zu bieten, statt sich in langfristige Abhängigkeiten zu begeben.
Mit dem Kauf des Produkts der Firma ChapsVision, die dem Tech-Unternehmer Olivier Dellenbach gehört, setzt das Amt diese Ankündigung nun in die Praxis um.
Französische KI statt US-Import
Die auserwählte Softwarelösung trägt den Namen ArgonOS und arbeitet mit Künstlicher Intelligenz (KI). Sie ist darauf spezialisiert, riesige Datenmengen zu durchforsten, Informationen aus unterschiedlichen Datenbanken miteinander in Beziehung zu setzen und komplexe Netzwerke sichtbar zu machen.
Neben der klassischen Datenbankanalyse beherrscht das System auch die Recherche in offen zugänglichen Quellen alias Open Source Intelligence (OSINT). In Frankreich wird die Software bereits erfolgreich vom dortigen Inlandsgeheimdienst DGSI eingesetzt. Für den deutschen Markt kooperiert ChapsVision mit dem IT-Dienstleister Rola Security Solutions, der auch in den Polizeilichen Informations- und Analyseverbunds (PIAV) eingebunden ist.
Aus Kreisen des Verfassungsschutzes heißt es der Recherche zufolge, dass die Phase des Machbarkeitsnachweises schon erfolgreich abgeschlossen worden sei. Die Software gelte als einsatzbereit und solle vor allem in der Terrorismusbekämpfung und der Spionageabwehr wertvolle Dienste leisten. Derzeit werde das System allerdings noch in einem rechtlich eng begrenzten Rahmen genutzt, da die volle Ausschöpfung der Analysefunktionen auch von der geplanten Reform des Nachrichtendienstrechts abhänge. Das Bundesinnenministerium (BMI) arbeitet seit geraumer Zeit an einer Novelle, die dem BfV erweiterte Kompetenzen bei der Nutzung von KI und Gesichtserkennung einräumen soll.
Politischer Richtungsstreit im Innenbereich
Weiterlesen nach der Anzeige
Die Entscheidung des BfV sorgt für politischen Zündstoff: Sie legt den Riss innerhalb der Bundesregierung in der Palantir-Frage offen. Die Sicherheitsbehörden selbst und weite Teile der schwarz-roten Koalition drängen auf europäische Lösungen. Bundesinnenminister Alexander Dobrindt (CSU) hält die Tür für den US-Anbieter aber weiter offen. Kritik kommt hier vor allem von den Grünen im Bundestag. Fraktionsvize Konstantin von Notz hält es für sicherheitspolitisch blauäugig, sich von einem Unternehmen wie Palantir abhängig zu machen: Dessen Gründer Peter Thiel sei durch demokratiekritische Aussagen und seine Nähe zur Trump-Administration aufgefallen.
Auch innerhalb der Sicherheitsarchitektur wächst der Widerstand gegen US-Software. Neben dem BfV haben sich zuletzt auch das Bundeskriminalamt und Teile der Bundeswehr skeptisch gegenüber Palantir geäußert. Sie sorgen sich, dass sensible Daten abfließen und die Kontrolle über die kritische Infrastruktur verloren gehe. Bayern und Hessen setzen weiter auf Palantir. In anderen Bundesländern zeichnet sich ein Umdenken ab: Baden-Württemberg diskutiert offen den Ausstieg, auch in Nordrhein-Westfalen steht die Zusammenarbeit auf dem Prüfstand.
Befürworter europäischer Alternativen wie der SPD-Innenpolitiker Sebastian Fiedler sehen in der Entscheidung des BfV einen Meilenstein für die nationale Sicherheitsstrategie. Leistungsfähige Analysewerkzeuge seien unabdingbar, dürften aber nicht die digitale Souveränität gefährden. Die erfolgreiche Implementierung der französischen Software beim Verfassungsschutz könnte so als Blaupause dienen und den Druck aufs BMI erhöhen, eine klare, europaorientierte Beschaffungsstrategie festzulegen.
(mki)
Künstliche Intelligenz
BSI zu Risiko öffentlicher Ladestationen
Werden Elektroautos an öffentlichen Ladestellen geladen, kommt zur Strom- auch eine Datenverbindung. Diese kann Einfallstor für Angriffe auf die Ladestation, das Stromverteilnetz oder dessen Steuersysteme, aber auch das angeschlossene E-Auto sein. Daher hat das Bundesamts für Sicherheit in der Informationstechnik (BSI) die IT-Sicherheit öffentlich zugänglicher Ladenetze untersucht. Ergebnis: Zentrale Normen, darunter UNECE R 155, entsprechen in vielen Bereichen dem Stand der Technik, aber Entwarnung löst das nicht aus.
Weiterlesen nach der Anzeige
Zu möglichen Angriffspunkten an den annähernd 150.000 Normal- und 50.000 Schnellladesäulen in Deutschland zählt beispielsweise ein Bug im Open Charge Point Protocol 2025. Das weit verbreitete Protokoll gilt hinsichtlich Authentifizierung und Session Handling als anfällig und ist uneinheitlich implementiert. „In der praktischen Umsetzung werden jedoch zahlreiche Sicherheitsmechanismen – etwa Transportverschlüsselung, Sperrlisten oder moderne kryptographische Verfahren – häufig nur eingeschränkt oder optional implementiert, teilweise aus Gründen der Abwärtskompatibilität“, heißt es deshalb in dem 65 Seiten starken BSI-Bericht. Die Maßnahmen seien nur „gering verbreitet“, weiterhin würden proprietäre Protokolle verwendet. Es gebe daher den „Bedarf eines grundlegenden Paradigmenwechsels hin zu verpflichtendem Security-by-Design und Security-by-Default.“ Und das nicht erst seit kurzem.
Laut den BSI-Fachleuten ist bislang lediglich ein Ausschnitt des Problems genauer untersucht. „Deutliche Schwachstellen“ gebe es etwa in den Systemen der Ladestationenbetreiber. Und die zentrale Verwaltung der Zertifikate für die Kommunikation und Identifikation der Beteiligten im Ladesystem sei problematisch. „Kompromittierungen einzelner Vertrauensanker können weitreichende Folgen für die gesamte Ladeinfrastruktur und deren Vertrauenswürdigkeit haben“, schreibt die Behörde.
Netzstabilität im schlimmsten Fall gefährdet
Wenn aber Teile des Systems kompromittiert werden und etwa die Ladekommunikation gestört wird, kann das physikalische Folgen haben – am E-Auto, an der Ladestation, oder sogar im Stromnetz. „Ob und in welchem Umfang Schäden wie Bauteilschädigungen oder thermische Überlast auftreten können, hängt dabei wesentlich davon ab, ob die entsprechenden Komponenten eigensicher konzipiert sind und sich selbst gegen Überspannungen oder zu hohe Stromflüsse absichern“, beschreiben die IT-Sicherheitsfachleute das Problem. Sprich: ob sie sich bei Fehlsteuerung notabschalten.
„Falls zeitgleich mehrere oder weitreichende Verbindungen von Angriffen betroffen sind, kann dies im schlimmsten Fall die Netzstabilität gefährden.“ Etwa, wenn das lokale Netz eines Ladehubs gezielt angegriffen würde. Schon lange ist bekannt, dass Botnetze durch koordinierte Beeinflussung des Stromverbrauches Teile des kontinentaleuropäische Stromnetz zusammenbrechen lassen könnten.
Bidirektionalität verstärkt das Problem
Und das Problem wird größer, warnt das BSI: „Durch die Einführung von bidirektionalem Laden wird der Effekt um ein Vielfaches verstärkt.“ Solange das Laden nur unidirektional zum Auto ablief, war das zumindest für die Stromnetze kein direktes Problem. Doch mit skalierender, gezielter oder fehlgeleiteter Einspeise- und Ausspeisesteuerung wächst das Problem.
Weiterlesen nach der Anzeige
Der Verband der Automobilhersteller (VDA) ist sich dessen bewusst: „Durch Plug & Charge und das bidirektionale Laden entstehen neue Anforderungen an sichere Kommunikation, Authentifizierung und Zertifikatsmanagement.“ Jedoch sei IT-Sicherheit bei den Automobilherstellern „konsequent in Entwicklungs- und Produktionsprozesse integriert“, sagte ein Sprecher zu heise online. Entscheidend sei, Sicherheitsstandards interoperabel und entlang der gesamten Wertschöpfungskette umzusetzen. Sprich: Das Problem wird gesehen – aber nicht bei den Autoherstellern.
BDEW-Chefin sieht keinen „Grund für Alarmismus“
Die Strombranche ebenfalls Risiken, aber „keinen Grund für Alarmismus (…) Es hat im Lademarkt nach unserem Kenntnisstand bisher keine gravierenden Sicherheitsvorfälle gegeben, die gegenüber dem BSI meldepflichtig sind“, sagt Kerstin Andreae vom Bundesverband der Energie- und Wasserwirtschaft (BDEW) auf Anfrage heise onlines.
Sie plädiert für klarere Regelungen. Denn durch die unterschiedlichen Eigenschaften von Autos als Produkt mit digitalen Elementen, Ladesäulen als Teil der Energienetze und Autoakkuverbünden als virtuelle Kraftwerke und somit potenzieller Teil Kritischer Infrastruktur greifen ganz unterschiedliche Vorschriften parallel, wie auch das BSI beschreibt. „Für den Hochlauf des Massenmarktes stellt sich daher die Frage, welche nachhaltig tragfähigen, pragmatischen Lösungsansätze im europäischen Binnenmarkt verfolgt werden können“, meint Kerstin Andreae. Sie fordert bessere Abstimmung über die einzelnen Vorschriften hinweg, ohne Sonderwege und Doppelregulierung.
Wären alle Ladesäulen ferngesteuert, kämen 8,5 Gigawatt steuerbare Leistung zusammen – ein Viertel mehr Leistung als vor einem Jahr. Das Bundesverkehrsministerium, das den „Masterplan Ladesäuleninfrastruktur 2030“ verantwortet, hat dazu bislang keine Initiative gezeigt.
(ds)
-
Künstliche Intelligenzvor 3 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 2 MonatenBlade‑Battery 2.0 und Flash-Charger: BYD beschleunigt Laden weiter
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Der beste Luftgütesensor im Test – CO₂, Schadstoffe & Schimmel im Blick
-
Social Mediavor 2 MonatenVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
-
Apps & Mobile Entwicklungvor 2 MonatenMähroboter ohne Begrenzungsdraht für Gärten mit bis zu 300 m²
-
Künstliche Intelligenzvor 2 MonateniPhone Fold Leak: Apple spart sich wohl iPad‑Multitasking
