Connect with us

Künstliche Intelligenz

BSI zur Cybersicherheit: Stabil unsicher


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Vorstellung des sogenannten Lagebilds gehört seit Jahren fest zum Berliner Terminkalender: Traditionell stellen Bundesinnenminister und Präsidentin des Bundesamts für Sicherheit in der Informationstechnik (BSI) dort zum einen den Stand der IT-Sicherheit vor. Und zum anderen eben die Maßnahmen, die gegen die Probleme helfen sollen.

Weiterlesen nach der Anzeige

Die Hauptbotschaft, die Bundesinnenminister Alexander Dobrindt (CSU) diesmal mitgebracht hat: Das BSI und auch seine Präsidentin leisten wichtige Arbeit. „Wir haben Pläne, das BSI deutlich zu stärken“, schildert der Vorgesetzte von BSI-Präsidentin Claudia Plattner. Um 65 Prozent solle der Haushalt der Bonner Behörde im kommenden Jahr anwachsen. Das liegt zum einen an neuen Zuständigkeiten: Mit dem Cyber Resilience Act wird das BSI erstmals eine Marktüberwachungsbehörde.

Künftig soll das BSI die IT-Sicherheit bei vernetzten Produkten auf dem Schirm haben, vom kleinen Consumer-Endgerät bis hin Komponenten, die in kritischen Infrastrukturen genutzt werden. Auch bei jenen wird das BSI 2026 deutlich mehr Zuständigkeiten bekommen – denn mit der anstehenden Verabschiedung des NIS2-Umsetzungsgesetzes werden künftig etwa 30.000 Stellen den erweiterten IT-Sicherheitsvorgaben unterliegen. Prüfkompetenzen, Beratung und auch die Bearbeitung von Sicherheitsvorfällen sollen beim BSI angesiedelt sein. Und auch die Federführung für die Cybersicherheit der Bundesverwaltung, der sogenannte CISO Bund, soll beim BSI beheimatet sein.

Dass die Lage mehr Handeln erfordert, das stellt Bundesinnenminister Alexander Dobrindt klar heraus. Eine Bedrohung liege in „Angriffen staatlich gelenkter Gruppen, die geopolitisch aufgestellt sind und Deutschland ist eines der Topziele im Bereich der Cyberangriffe“, sagte der Innenminister – nach den USA, Indien und Japan sei es das viertrelevanteste Ziel. Und die Bundesverwaltung gibt dabei ein gutes Ziel ab, zeigt der BSI-Lagebericht: „Im aktuellen Berichtszeitraum wird unverändert vereinzelt ‒ in weniger als 10 Prozent der IP-Adressen ‒ Software eingesetzt, die bereits das Ende ihrer Lebensdauer überschritten hat.“ Hier könnte mit der Rolle als CISO auch ein härteres Durchgreifen des BSI möglich werden. „Bitteschön, Frau Plattner“, gibt Minister Alexander Dobrindt die Frage weiter, als er nach Windows 10 in der Bundesverwaltung gefragt wird. Die weist zum einen auf die lebenszeitverlängernden Möglichkeiten hin, aber auch auf die Notwendigkeit für neue Wege.

Insgesamt sei das Updateverhalten deutlich verbesserungsfähig. „Nach wie vor unzureichend geschützte Angriffsflächen“ wie etwa 30.000 verwundbare Microsoft Exchange-Server habe das BSI ausgemacht, berichtet Plattner. Im März 2024 waren es nur 17.000, die dem BSI bekannt waren. Jeden Tag würden 119 neue Schwachstellen der Behörde zur Kenntnis gelangen. Die gute Nachricht aus Sicht von Claudia Plattner: Die Resilienz bei Kritischen Infrastrukturen steigt allmählich an, wenn auch mit viel Luft nach oben. „Wir kommen vorwärts“, sagte die seit Mitte 2023 im Amt befindliche BSI-Präsidentin. Angreifer würden gezielt nach Lücken suchen: „Den Letzten beißen die Hunde.“ Zuletzt habe es immer wieder Probleme mit Software gegeben, die eigentlich für Sicherheit sorgen solle, etwa von VPN-Anbietern.

Weiterlesen nach der Anzeige

Um auch das zu verhindern, will Alexander Dobrindt die Sicherheitsbehörden möglichst früh eingreifen lassen. Ein Hackback sei es nicht, was er plane. Es gehe darum, „neue Befugnisse für die Sicherheitsbehörden“ zu schaffen, „die uns auch ermöglichen, die Infrastruktur von Angreifern vom Netz zu nehmen, zu stören, zu zerstören.“ Dies solle auch dann möglich sein, wenn sich die Angreifer außerhalb der Bundesrepublik befinden. „Das ist kein Hackback“, meint Dobrindt: Es gehe um die Störung und Zerstörung im Zuge der Gefahrenabwehr. Ob das von der dann betroffenen anderen Seite genauso gewertet wird, bleibt bis auf weiteres offen. Da die Zuständigkeit dafür wohl nicht im BSI landen wird, spielt das eher bei anderen Behörden eine unmittelbare Rolle. Allerdings müsste die Bonner Behörde wohl dann mit Reaktionen auf diese „aktive Cyberabwehr“ umgehen.




heise security veranstaltet am 10. Dezember ein Webinar zu NIS-2, das nicht nur erklärt, wer konkret von NIS-2 betroffen ist, sondern auch, was die Richtlinie in der Praxis für ein Unternehmen bedeutet.

Dass die geopolitischen Spannungen bis auf Produktebene Auswirkungen haben, zeichnet der BSI-Bericht noch einmal nach. Darin heißt es etwa, dass „Konzepte zur cybersicheren Umsetzung von Mieterstrommodellen, Energy Sharing, Ladeinfrastrukturen sowie zur Eigenverbrauchsoptimierung und flexiblen Speichernutzung gemeinsam mit der Branche und beteiligten Behörden erarbeitet und nach Stand der Technik umgesetzt werden“ müssten – weil viele einzelne und über die Cloud vernetzte Objekte nicht automatisch dazu führen würden, dass etwas als kritische Infrastruktur eingestuft würde.

Dieses Grundproblem betrifft nicht nur Produkte der Energieversorgung, sondern etwa auch Autos und Sicherheitstechnik wie Videokameras. Eine Zertifizierung allein kann dieses Problem kaum lösen, da viele Produkte regelmäßig – auch im Sinne der IT-Sicherheit – Updates erhalten müssten, wie Claudia Plattner am Vormittag beschreibt:

„Bei vielen Produkten müssen wir gar nicht über Hintertüren, sondern über Vordertüren sprechen.“ Produkte aus China seien dabei verstärkt im Fokus, sagt Plattner. „Dazu kommt, dass der Hersteller diese Daten, die Sie auf diesem Gerät produzieren, auf einem Server sammelt“, mahnt Innenminister Alexander Dobrindt. „Der Zugriff auf diesen kann von unterschiedlicher Stelle möglich sein.“ Wie relevant das sei, sei oft nicht unmittelbar absehbar, sagt Dobrindt, erst in der Zusammenführung ergebe sich daraus ein Problem, etwa beim Schutz kritischer Infrastruktur. „Oftmals ist die boshafte Vermutung, die man haben kann, gar nicht so weit weg von der Realität.“

Was aber die Konsequenz daraus sei? Für Claudia Plattner ist das Konzept der Kontrollschichten maßgeblich, mit denen Zu- und Abfluss von Daten kontrolliert und notfalls auch eine Betriebsfähigkeit unabhängig vom Anbieter sichergestellt werden könne. Es hänge sehr stark von den einzelnen Komponenten ab, weshalb darauf jetzt auch der Fokus liege, schilderte Alexander Dobrindt die aktuelle Herangehensweise, bei kritischen Infrastrukturen könne es etwa in Bereichen zu Positivlisten kommen.

Das weitere Vorgehen soll durch die neuen NIS2-Regeln genauer ausspezifiziert werden, die der Bundestag noch in dieser Woche verabschieden soll. Das aber wiederum wird nur für spezifische, kritische Infrastrukturen gelten. Könne als Konsequenz der Diskussion am Ende auch ein Betriebsverbot, etwa für chinesische Autos stehen? „Nein, damit rechne ich nicht“, sagt Alexander Dobrindt an diesem Morgen in Berlin.

Was das NIS2-Gesetz nur an einer Stelle mit sich bringt, die Opposition jedoch gerne hätte: „Um schwerwiegende Interessenkonflikte zu vermeiden, bleibt es zwingend notwendig, zumindest Teile des BSI endlich unabhängig zu stellen“, fordern Jeanne Dillschneider und Konstantin von Notz von den Grünen. Wie es um die Unabhängigkeit der Behörde an kritischen Stellen ihrer Tätigkeit bestellt ist, wenn politische Wünsche und technische Einschätzungen aufeinanderprallen, darum gab es in der Vergangenheit bereits mehrfach Diskussionen.


(mho)



Source link

Künstliche Intelligenz

80 Prozent der Firmen nutzen KI: Microsoft warnt vor gefährlicher Schatten-KI


Microsoft warnt eindringlich vor dem unkontrollierten Einsatz von autonomen Softwarehelfern mit Künstlicher Intelligenz (KI). In seinem aktuellen „Cyber Pulse Report“, der im Vorfeld der Münchner Sicherheitskonferenz veröffentlicht wurde, stellen Forscher des Softwarekonzerns fest, dass KI-Helfer beim Programmieren bereits in über 80 Prozent der größten Unternehmen (Fortune 500) im Einsatz sind. Die wenigsten Firmen hätten jedoch klare Regeln für die Verwendung der KI. Die rasante Verbreitung birgt unkalkulierbare Risiken. Eine mangelnde Übersicht der Verantwortlichen und eine Schatten-KI in Unternehmen öffneten Tür und Tor für neue Angriffsmethoden.

Weiterlesen nach der Anzeige

Unter Schatten-KI versteht man die Nutzung von Anwendungen Künstlicher Intelligenz durch Mitarbeiter, ohne dass die IT- oder Sicherheitsabteilung des Unternehmens davon weiß oder dies offiziell genehmigt hat. Mitarbeiter verwenden eigenmächtig KI-Tools oder Agenten aus dem Internet, also autonom handelnde Computerprogramme, um ihre Aufgaben schneller zu erledigen, ohne dass jemand in der Firmenhierarchie davon in Kenntnis gesetzt wurde.

Der Microsoft-Bericht warnt eindringlich vor einer wachsenden Diskrepanz zwischen Innovation und Sicherheit. Während die KI-Nutzung explosionsartig wächst, verfügt nicht einmal die Hälfte der Unternehmen (47 Prozent) über spezifische Sicherheitskontrollen für generative KI. Und 29 Prozent der Angestellten nutzen bereits nicht genehmigte KI-Agenten für ihre Arbeit. Dies schaffe blinde Flecken in der Unternehmenssicherheit.

Nach Einschätzung der Microsoft-Experten erhöht sich das Risiko, wenn sich die Unternehmen bei der Einführung der KI-Anwendungen nicht genügend Zeit nehmen. „Die schnelle Bereitstellung von KI-Agenten kann Sicherheits- und Compliance-Kontrollen aushebeln und das Risiko von Schatten-KI erhöhen.“ Böswillige Akteure könnten die Berechtigungen von Agenten ausnutzen und sie zu unbeabsichtigten Doppelagenten machen: „Wie menschliche Mitarbeiter kann auch ein Agent mit zu viel Zugriff – oder falschen Anweisungen – zu einer Schwachstelle werden.“

Die Autoren der Studie betonen, dass es sich nicht um theoretische Risiken handele. Kürzlich hat das Defender-Team von Microsoft eine betrügerische Kampagne entdeckt, bei der mehrere Akteure eine als „Memory Poisoning“ bekannte KI-Angriffstechnik nutzten, um den Speicher von KI-Assistenten – und damit die Ergebnisse – dauerhaft zu manipulieren.

Weiterlesen nach der Anzeige

In dem Report werden mehrere Gegenmaßnahmen empfohlen, um das Risiko beim Einsatz von KI-Anwendungen möglichst gering zu halten. Die Softwarehelfer mit künstlicher Intelligenz sollten nur Zugriff auf die Daten haben, die sie zwingend für die Lösung ihrer Aufgabe benötigen. Außerdem sollten Unternehmen ein zentrales Register einrichten, um zu sehen, welche KI-Agenten im Unternehmen existieren, wem sie gehören und auf welche Daten sie zugreifen. Nicht genehmigte Agenten müssten identifiziert und isoliert werden.

Lesen Sie auch


(fds)



Source link

Weiterlesen

Künstliche Intelligenz

Überraschende Studie: Leben im All vielleicht deutlicher seltener als angenommen


Erst im Oktober 1995 hat die Nasa mit 51 Pegasi b den allerersten Planeten außerhalb unseres Sonnensystems entdeckt, der um einen sonnenähnlichen Stern kreist. Mittlerweile sind über 6.000 Exoplaneten bekannt. Tausende weitere Kandidaten warten auf eine Bestätigung.

Weiterlesen nach der Anzeige

Die Nasa rechnet damit, dass sich Milliarden von Exoplaneten im Universum tummeln. Auf den meisten der Planeten außerhalb unseres Sonnensystems wäre aufgrund extremer Bedingungen kein Leben möglich. Aber 70 der bisher bekannten Exoplaneten bieten habitable Bedingungen, also gute Voraussetzungen für Leben, so wie wir es kennen. Oder doch nicht?

Die Studie eines Forschungsteams um Craig Walton und Maria Schönbächler von der ETH Zürich beschreibt eine neue Grundvoraussetzung für Leben im Universum, die dessen Existenz noch deutlich weniger wahrscheinlich macht als bisher gedacht. Demnach kommt es nämlich nicht nur darauf an, dass moderate Temperaturen herrschen und flüssiges Wasser vorhanden ist.

Wichtig ist den Modellrechnungen der Forscher zufolge zunächst, dass der Planet sein Dasein als flüssige Gesteinskugel beginnt, wie der Standard schreibt. Im Laufe der Zeit sinken dann schwere Elemente wie Eisen ins Zentrum, leichtere Gesteine treiben oben und erstarren zur Kruste.

Damit Leben entstehen kann, müssen die dafür notwendigen chemischen Elemente wie Kohlenstoff, Stickstoff und Sauerstoff während der Formung des Planeten an die Oberfläche wandern. Und zwar – und das ist die neue Erkenntnis des Forschungsteams – nicht einfach irgendwie.

Weiterlesen nach der Anzeige

Entscheidend ist der Mix der Elemente und hierbei vor allem die Menge des Sauerstoffs. Ist davon zu wenig vorhanden, bindet sich das Element Phosphor an das Metall im Kern und verbleibt dort. Kommt zu viel Sauerstoff vor, dann bleibt das Phosphor zwar in den oberen Schichten. Dafür kann dann der Stickstoff leichter in die Atmosphäre entweichen.

Das Problem: Der Korridor für die genau richtige Sauerstoffkonzentration, um Phosphor und Stickstoff auf der Oberfläche eines Planeten zu halten, ist extrem schmal. Die Erde hatte demnach in puncto Entstehung des Lebens einfach viel Glück mit dem Elemente-Mix.

Die Erkenntnisse des Forschungsteams könnten damit für die weitere Suche nach Leben im All von entscheidender Bedeutung sein. Denn auch Planeten, die in einer als habitabel geltenden Zone liegen, könnten für Leben ungeeignet sein.

ETH-Forscher Walton zufolge sollten sich die Bemühungen auf Sonnensysteme konzentrieren, bei denen der Stern unserer Sonne ähnlich ist. Die chemische Zusammensetzung der Sterne lässt nämlich Rückschlüsse auf die Lebensfreundlichkeit des Planetensystems zu, was die vorhandenen Elemente angeht.

Dieser Beitrag ist zuerst auf t3n.de erschienen.


(jle)



Source link

Weiterlesen

Künstliche Intelligenz

21 statt 10 Tonnen Nutzlast: Ariane 6 vor erstem Start mit vier Boostern


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Europas stärkste Trägerrakete soll am Donnerstagabend erstmals in einer Version mit vier Boostern starten und damit noch einmal deutlich leistungsfähiger sein. Daran hat die Europäische Weltraumagentur ESA jetzt erinnert und ergänzt, dass auf dem Flug mit der Bezeichnung VA267 insgesamt 32 Satelliten für Amazons Internetprojekt Leo ins All gebracht werden sollen. Dank der vier Booster kann die dreistufige Trägerrakete dabei nun 21,6 Tonnen Nutzlast in eine niedrige Erdumlaufbahn befördern, in der Konfiguration mit zwei Boostern sind es lediglich 10,3 Tonnen. Während die schon fünfmal zum Einsatz gekommen ist, muss die Leistungsfähigkeit der neuen Variante jetzt erstmals unter realen Flugbedingungen nachgewiesen werden.

Weiterlesen nach der Anzeige


Blueprints der Ariane 6

Blueprints der Ariane 6

Vergleich der Konfigurationen

(Bild: ESA)

Die Ariane 6 ist das Nachfolgemodell der Ariane 5, die seit 1996 im Einsatz war und 2023 zum letzten Mal gestartet ist. Die Arbeiten an der Rakete haben sich unter anderem wegen der Coronapandemie stark verzögert, erst am 9. Juli 2024 hat sie deshalb ihren Jungfernflug absolviert. Wenn sie abhebt, werden zuerst die Booster gezündet, danach die Hauptstufe und zuletzt die Oberstufe. Die Anzahl der Booster und die Länge der Raketenspitze können die Verantwortlichen je nach Mission anpassen. Zuletzt waren am 17. Dezember mit der zweistufigen Variante zwei neue Navigationssatelliten für das Galileo-Netzwerk gestartet worden. Der Start am Donnerstag ist jetzt der erste von insgesamt 18, die Amazon vor vier Jahren für sein Satelliteninternet gebucht hat, das damals noch Project Kuiper hieß.

Die ESA erklärt zudem, dass die Rakete für Start VA267 die bislang höchste Ariane 6 ist. Wenn sie zusammengebaut auf der Startrampe steht, wird sie demnach 62 m hoch sein. 20 m davon entfallen auf die Nutzlastverkleidung, die die 32 Internetsatelliten bis zum Erreichen des Weltraums schützen wird. Die hat einen Durchmesser von 5,4 m und könnte auch „vier aufeinanderstehende Giraffen“ befördern, wie die Weltraumagentur noch schreibt. Der Start von Europas Weltraumbahnhof in Kourou in Französisch-Guayana soll zwischen 17:45 und 18:13 Uhr MEZ am Donnerstag erfolgen; der Hersteller Arianespace plant einen Livestream auf YouTube.


(mho)



Source link

Weiterlesen

Beliebt