Connect with us

Künstliche Intelligenz

Digitale Souveränität: Verfassungsschutz kauft europäische Palantir-Alternative


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Der deutsche Inlandsgeheimdienst macht Ernst beim Thema digitale Souveränität: Das Bundesamt für Verfassungsschutz (BfV) hat eine neue Software zur Analyse großer Datenmengen erworben. Nach Informationen von WDR, NDR und Süddeutscher Zeitung fiel die Wahl dabei nicht auf den umstrittenen US-Marktführer Palantir, der seit Jahren massiv in den deutschen Sicherheitsmarkt drängt. Vielmehr habe das französische Unternehmen ChapsVision den Zuschlag erhalten.

Weiterlesen nach der Anzeige

Damit will die Bonner Behörde laut den Berichten gezielt ein Zeichen gegen die technologische Abhängigkeit von US-Anbietern setzen, die vielen Sicherheitsbehörden zunehmend übel aufstößt. BfV-Präsident Sinan Selen deutete diesen Kurs bereits Ende 2025 auf einer internen Konferenz in Berlin an. Er hob damals hervor, für die Sicherheit sei entscheidend, geostrategisch richtige Entscheidungen zu treffen und den europäischen Fokus zu schärfen. Es gelte, die Souveränität zu stärken und Alternativen zu bieten, statt sich in langfristige Abhängigkeiten zu begeben.

Mit dem Kauf des Produkts der Firma ChapsVision, die dem Tech-Unternehmer Olivier Dellenbach gehört, setzt das Amt diese Ankündigung nun in die Praxis um.

Die auserwählte Softwarelösung trägt den Namen ArgonOS und arbeitet mit Künstlicher Intelligenz (KI). Sie ist darauf spezialisiert, riesige Datenmengen zu durchforsten, Informationen aus unterschiedlichen Datenbanken miteinander in Beziehung zu setzen und komplexe Netzwerke sichtbar zu machen.

Neben der klassischen Datenbankanalyse beherrscht das System auch die Recherche in offen zugänglichen Quellen alias Open Source Intelligence (OSINT). In Frankreich wird die Software bereits erfolgreich vom dortigen Inlandsgeheimdienst DGSI eingesetzt. Für den deutschen Markt kooperiert ChapsVision mit dem IT-Dienstleister Rola Security Solutions, der auch in den Polizeilichen Informations- und Analyseverbunds (PIAV) eingebunden ist.

Aus Kreisen des Verfassungsschutzes heißt es der Recherche zufolge, dass die Phase des Machbarkeitsnachweises schon erfolgreich abgeschlossen worden sei. Die Software gelte als einsatzbereit und solle vor allem in der Terrorismusbekämpfung und der Spionageabwehr wertvolle Dienste leisten. Derzeit werde das System allerdings noch in einem rechtlich eng begrenzten Rahmen genutzt, da die volle Ausschöpfung der Analysefunktionen auch von der geplanten Reform des Nachrichtendienstrechts abhänge. Das Bundesinnenministerium (BMI) arbeitet seit geraumer Zeit an einer Novelle, die dem BfV erweiterte Kompetenzen bei der Nutzung von KI und Gesichtserkennung einräumen soll.

Weiterlesen nach der Anzeige

Die Entscheidung des BfV sorgt für politischen Zündstoff: Sie legt den Riss innerhalb der Bundesregierung in der Palantir-Frage offen. Die Sicherheitsbehörden selbst und weite Teile der schwarz-roten Koalition drängen auf europäische Lösungen. Bundesinnenminister Alexander Dobrindt (CSU) hält die Tür für den US-Anbieter aber weiter offen. Kritik kommt hier vor allem von den Grünen im Bundestag. Fraktionsvize Konstantin von Notz hält es für sicherheitspolitisch blauäugig, sich von einem Unternehmen wie Palantir abhängig zu machen: Dessen Gründer Peter Thiel sei durch demokratiekritische Aussagen und seine Nähe zur Trump-Administration aufgefallen.

Auch innerhalb der Sicherheitsarchitektur wächst der Widerstand gegen US-Software. Neben dem BfV haben sich zuletzt auch das Bundeskriminalamt und Teile der Bundeswehr skeptisch gegenüber Palantir geäußert. Sie sorgen sich, dass sensible Daten abfließen und die Kontrolle über die kritische Infrastruktur verloren gehe. Bayern und Hessen setzen weiter auf Palantir. In anderen Bundesländern zeichnet sich ein Umdenken ab: Baden-Württemberg diskutiert offen den Ausstieg, auch in Nordrhein-Westfalen steht die Zusammenarbeit auf dem Prüfstand.

Befürworter europäischer Alternativen wie der SPD-Innenpolitiker Sebastian Fiedler sehen in der Entscheidung des BfV einen Meilenstein für die nationale Sicherheitsstrategie. Leistungsfähige Analysewerkzeuge seien unabdingbar, dürften aber nicht die digitale Souveränität gefährden. Die erfolgreiche Implementierung der französischen Software beim Verfassungsschutz könnte so als Blaupause dienen und den Druck aufs BMI erhöhen, eine klare, europaorientierte Beschaffungsstrategie festzulegen.


(mki)



Source link

Künstliche Intelligenz

KI-Modelle gegen klassische Wettervorhersage: Wer liefert die bessere Prognose?


Regnet es am Wochenende oder scheint die Sonne? Instabile Wetterlagen wie jetzt gerade machen die Wettervorhersage besonders unzuverlässig. Wie KI-Modelle hier Abhilfe schaffen – und wo ihre Grenzen liegen.

Weiterlesen nach der Anzeige

Ein langes Mai-Wochenende steht an – eigentlich ideal für Freiluftaktivitäten. Aber wird tatsächlich die Sonne scheinen? Wer diese Frage derzeit mit Wetter-Apps auf dem Smartphone beantwortet, wird oft enttäuscht. KI-Modelle wie Graphcast von Google, Aurora von Microsoft oder Pangu Weather von Huawei versprechen ähnlich gute oder sogar bessere Ergebnisse, die wesentlich schneller berechnet werden.

Was ist der Unterschied zwischen konventionellen Modellen und KI-Modellen? Was taugen die neuen Modelle und wo werden sie eingesetzt? Und können Sie KI-Modelle nutzen, um das lange Wochenende vielleicht doch mit ein wenig mehr Sicherheit zu planen? Wir beantworten die wichtigsten Fragen.

Konventionelle Wettermodelle beschreiben die zeitliche – also zukünftige – Entwicklung von Druck, Temperatur und Luftfeuchtigkeit ausgehend von aktuell gemessenen Werten mithilfe von physikalischen Gleichungen.

Der britische Mathematiker Lewis Fry Richardson kam bereits Anfang des zwanzigsten Jahrhunderts auf die Idee, dass es möglich sein müsste, mithilfe von physikalischen Gesetzmäßigkeiten das Wetter vorherzusagen. Bis dahin verließen sich die Meteorologen weitgehend auf Erfahrung und Beobachtung und entwickelten empirische Modelle auf der Basis der Entwicklung ähnlicher, bekannter Wetterlagen. Weil es damals aber noch keine Computer gab, musste Richardson seine Berechnungen von Hand durchführen – was länger dauerte als die Reichweite seiner Vorhersage. Außerdem waren die Messdaten, die er in seine Berechnungen steckte, äußerst lückenhaft. Seine Vorhersagen für Luftdruckänderungen lagen also weit neben den tatsächlichen Messungen. Die Arbeiten gelten dennoch als bahnbrechend für die moderne Meteorologie.

Die physikalischen Gleichungen geben an, wie stark sich Größen wie Luftdruck, Temperatur und Luftfeuchtigkeit in Abhängigkeit voneinander ändern – das ergibt miteinander gekoppelte Differenzialgleichungen. Um zu berechnen, wie das Wetter wird, müssen diese Gleichungen numerisch integriert werden. Das passiert an den Knotenpunkten eines räumlichen Gitters in festen Zeitschritten. Wie präzise ein Wettermodell ist, hängt also davon ab, wie klein das Raster ist. Allerdings steigt auch der Rechenaufwand, je engmaschiger das Gitter ist.

Regionale Wettermodelle mit kleinen Gitter-Abständen berechnen daher in der Regel nur kurzfristige Vorhersagen. Das Wettermodell COSMO-DE des Deutschen Wetterdienstes etwa verwendet ein Raster von 2,8 × 2,8 Kilometer mit 50 Höhenschichten. Wolken, die jedoch meist kleiner als solche Zellen sind, müssen daher „parametrisiert“ werden – sie tauchen nur in der Anpassung einzelner Modellparameter auf. Deshalb sind Vorhersagen auch immer dann besonders ungenau, wenn sich in einer größeren Luftströmung kleinräumige Störungen befinden.

Weiterlesen nach der Anzeige

Je weiter eine Wettervorhersage in die Zukunft rechnet, desto mehr addieren sich zudem Fehler und Ungenauigkeiten. Ein Vorhersagehorizont von 14 Tagen gilt noch immer als eine Art Schallmauer.

Die Regel, dass Wettervorhersagen nur etwa bis 14 Tage brauchbar sind, geht auf den amerikanischen Mathematiker und Meteorologen Edward Lorenz zurück. Lorenz untersuchte Anfang der 1960er Jahre die Möglichkeiten der numerischen Wettervorhersage in einem stark vereinfachten System – einer sogenannten Konvektionszelle. Das ist ein Luftvolumen, das von unten gleichmäßig erwärmt wird. Die warme Luft steigt auf, kühlt ab und strömt dann wieder nach unten. Dabei entdeckte er, dass schon kleine Ungenauigkeiten in den Anfangswerten nach einiger Zeit große Ungenauigkeiten in der Vorhersage bewirkten. Lorenz vermutete daher, dass auch bei beliebig genau gemessenen Anfangswerten der Zeithorizont der Vorhersage begrenzt sein würde. Die Chaostheorie lieferte später die theoretische Unterfütterung für diesen sogenannten „Schmetterlingseffekt“. Kurz: Wettermodelle sind chaotische Systeme.



Source link

Weiterlesen

Künstliche Intelligenz

BSI zu Risiko öffentlicher Ladestationen


Werden Elektroautos an öffentlichen Ladestellen geladen, kommt zur Strom- auch eine Datenverbindung. Diese kann Einfallstor für Angriffe auf die Ladestation, das Stromverteilnetz oder dessen Steuersysteme, aber auch das angeschlossene E-Auto sein. Daher hat das Bundesamts für Sicherheit in der Informationstechnik (BSI) die IT-Sicherheit öffentlich zugänglicher Ladenetze untersucht. Ergebnis: Zentrale Normen, darunter UNECE R 155, entsprechen in vielen Bereichen dem Stand der Technik, aber Entwarnung löst das nicht aus.

Weiterlesen nach der Anzeige

Zu möglichen Angriffspunkten an den annähernd 150.000 Normal- und 50.000 Schnellladesäulen in Deutschland zählt beispielsweise ein Bug im Open Charge Point Protocol 2025. Das weit verbreitete Protokoll gilt hinsichtlich Authentifizierung und Session Handling als anfällig und ist uneinheitlich implementiert. „In der praktischen Umsetzung werden jedoch zahlreiche Sicherheitsmechanismen – etwa Transportverschlüsselung, Sperrlisten oder moderne kryptographische Verfahren – häufig nur eingeschränkt oder optional implementiert, teilweise aus Gründen der Abwärtskompatibilität“, heißt es deshalb in dem 65 Seiten starken BSI-Bericht. Die Maßnahmen seien nur „gering verbreitet“, weiterhin würden proprietäre Protokolle verwendet. Es gebe daher den „Bedarf eines grundlegenden Paradigmenwechsels hin zu verpflichtendem Security-by-Design und Security-by-Default.“ Und das nicht erst seit kurzem.

Laut den BSI-Fachleuten ist bislang lediglich ein Ausschnitt des Problems genauer untersucht. „Deutliche Schwachstellen“ gebe es etwa in den Systemen der Ladestationenbetreiber. Und die zentrale Verwaltung der Zertifikate für die Kommunikation und Identifikation der Beteiligten im Ladesystem sei problematisch. „Kompromittierungen einzelner Vertrauensanker können weitreichende Folgen für die gesamte Ladeinfrastruktur und deren Vertrauenswürdigkeit haben“, schreibt die Behörde.

Wenn aber Teile des Systems kompromittiert werden und etwa die Ladekommunikation gestört wird, kann das physikalische Folgen haben – am E-Auto, an der Ladestation, oder sogar im Stromnetz. „Ob und in welchem Umfang Schäden wie Bauteilschädigungen oder thermische Überlast auftreten können, hängt dabei wesentlich davon ab, ob die entsprechenden Komponenten eigensicher konzipiert sind und sich selbst gegen Überspannungen oder zu hohe Stromflüsse absichern“, beschreiben die IT-Sicherheitsfachleute das Problem. Sprich: ob sie sich bei Fehlsteuerung notabschalten.

„Falls zeitgleich mehrere oder weitreichende Verbindungen von Angriffen betroffen sind, kann dies im schlimmsten Fall die Netzstabilität gefährden.“ Etwa, wenn das lokale Netz eines Ladehubs gezielt angegriffen würde. Schon lange ist bekannt, dass Botnetze durch koordinierte Beeinflussung des Stromverbrauches Teile des kontinentaleuropäische Stromnetz zusammenbrechen lassen könnten.

Und das Problem wird größer, warnt das BSI: „Durch die Einführung von bidirektionalem Laden wird der Effekt um ein Vielfaches verstärkt.“ Solange das Laden nur unidirektional zum Auto ablief, war das zumindest für die Stromnetze kein direktes Problem. Doch mit skalierender, gezielter oder fehlgeleiteter Einspeise- und Ausspeisesteuerung wächst das Problem.

Weiterlesen nach der Anzeige

Der Verband der Automobilhersteller (VDA) ist sich dessen bewusst: „Durch Plug & Charge und das bidirektionale Laden entstehen neue Anforderungen an sichere Kommunikation, Authentifizierung und Zertifikatsmanagement.“ Jedoch sei IT-Sicherheit bei den Automobilherstellern „konsequent in Entwicklungs- und Produktionsprozesse integriert“, sagte ein Sprecher zu heise online. Entscheidend sei, Sicherheitsstandards interoperabel und entlang der gesamten Wertschöpfungskette umzusetzen. Sprich: Das Problem wird gesehen – aber nicht bei den Autoherstellern.

Die Strombranche ebenfalls Risiken, aber „keinen Grund für Alarmismus (…) Es hat im Lademarkt nach unserem Kenntnisstand bisher keine gravierenden Sicherheitsvorfälle gegeben, die gegenüber dem BSI meldepflichtig sind“, sagt Kerstin Andreae vom Bundesverband der Energie- und Wasserwirtschaft (BDEW) auf Anfrage heise onlines.

Sie plädiert für klarere Regelungen. Denn durch die unterschiedlichen Eigenschaften von Autos als Produkt mit digitalen Elementen, Ladesäulen als Teil der Energienetze und Autoakkuverbünden als virtuelle Kraftwerke und somit potenzieller Teil Kritischer Infrastruktur greifen ganz unterschiedliche Vorschriften parallel, wie auch das BSI beschreibt. „Für den Hochlauf des Massenmarktes stellt sich daher die Frage, welche nachhaltig tragfähigen, pragmatischen Lösungsansätze im europäischen Binnenmarkt verfolgt werden können“, meint Kerstin Andreae. Sie fordert bessere Abstimmung über die einzelnen Vorschriften hinweg, ohne Sonderwege und Doppelregulierung.

Wären alle Ladesäulen ferngesteuert, kämen 8,5 Gigawatt steuerbare Leistung zusammen – ein Viertel mehr Leistung als vor einem Jahr. Das Bundesverkehrsministerium, das den „Masterplan Ladesäuleninfrastruktur 2030“ verantwortet, hat dazu bislang keine Initiative gezeigt.


(ds)



Source link

Weiterlesen

Künstliche Intelligenz

Erste Atombombenexplosion der Welt erzeugte ungewöhnlichen Kristall


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Am 16. Juli 1945 wurde in der Wüste des US-Bundesstaates New Mexico die erste Atombombe gezündet. Die immense Hitze der Explosion hat einen neuen Kristall entstehen lassen, wie Forscher aus Italien herausgefunden haben.

Weiterlesen nach der Anzeige

Die Hitze verschmolz Sand und andere Materialien, darunter Kupfer von verdampften Kabeln, zu einer glasartigen, schwach radioaktiven Substanz, die grün oder rot sein kann. Nach dem „Trinity“ genannten Atomtest hat sie den Namen Trinitit bekommen.

Im Innern von Trinitit hat das Team um den Mineralogen Luca Bindi eine neuartige Kristallstruktur entdeckt, ein sogenanntes Clathrat – das ist ein Gitter, in dessen Innerem Atome eingeschlossen sind. Das Kristallgitter in dem Trinitit besteht aus Silizium und hat die Form eines Dodekaeders mit 12 oder eines Tetradekaeders mit 14 Seiten. Darin eingeschlossen sind Kalzium-, Kupfer- und Eisenatome.

„Das ist eine ganz neue Form von Clathratkristallen – so etwas wurde weder in der Natur noch in den Rückständen einer Atomexplosion gefunden“, sagte Bindi dem US-Wissenschaftsmagazin Scientific American. Das Team um den Forscher der Universität von Florenz hat seine Entdeckung in der Fachzeitschrift Proceedings of the National Academy of Sciences (PNAS) veröffentlicht.

Das Material verdankt seine ungewöhnliche Struktur den extremen Bedingungen, unter denen es entstand: Die Ausgangsmaterialien wurden Temperaturen von 1500 Grad Celsius und Drücken im Bereich von mehreren Gigapascal ausgesetzt. Sie verdampften, mischten sich und kühlten in kurzer Zeit ab.

Das alles sei in Sekunden passiert, sodass die Atome keine Zeit hatten, sich in stabilen Strukturen zu organisieren, sagte Bindi. Deshalb habe ein solches Nichtgleichgewichtsmaterial entstehen können. Unter normalen Bedingungen wäre das Clathrat nicht stabil, sondern würde zerfallen.

Weiterlesen nach der Anzeige

Das Team von Bindi hatte 2021 schon eine bemerkenswerte Entdeckung in rotem Trinitit gemacht: Es fand darin einen Quasikristall, der ebenfalls aus Eisen, Silizium, Kupfer und Kalzium besteht. Ein Quasikristall hat in seinem Inneren eine Struktur wie ein Kristall. Anders als bei einem solchen ist sie aber unregelmäßig.

Quasikristalle sind sehr selten. Neben dem von Bindi im Trinitit entdeckten sind nur einige wenige aus Meteoriteneinschlägen bekannt, die ähnlich extreme Bedingungen erzeugen können.


(wpl)



Source link

Weiterlesen

Beliebt