Connect with us

Datenschutz & Sicherheit

Fehlalarm: Sirenengeheul in Halle am Samstag durch „externen Angriff“


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Am Samstagabend des vergangenen Wochenendes kam es in Halle (Saale) offenbar zu einem Auslösen der Sirenen. Dabei handelte es sich um einen Fehlalarm. Der geht mutmaßlich auf einen „externen Angriff“ zurück.

Weiterlesen nach der Anzeige

Darüber hat die Stadt Halle in einer Mitteilung auf ihrer Webseite informiert. „Nach dem Sirenen-Fehlalarm vom Samstagabend gibt es nun erste Erkenntnisse zur Ursache“, erklären die Autoren der Nachricht. Man müsse demnach „mit einer hohen Wahrscheinlichkeit von einem externen Angriff auf das System“ ausgehen. Die Sirenen wurden weder von der Stadt Halle, noch durch das Land Sachsen-Anhalt oder den Bund ausgelöst.

„Die Stadt Halle (Saale) hat die notwendigen Maßnahmen zur Sicherung des Sirenen-Systems ergriffen und Anzeige bei der Polizei erstattet“, führt sie weiter aus. Sie habe zudem die nötigen Maßnahmen zur Sicherung des Sirenen-Systems ergriffen und polizeilich Anzeige erstattet. „Alle Sirenen im Stadtgebiet sind vor äußeren Zugriffen geschützt und alarmfähig“, versichern die Autoren.

Die Webseite www.halle.de der Stadt war am Samstagabend offenbar auch zeitweise nicht erreichbar. Die Zugriffszahlen, ausgelöst durch den Sirenen-Fehlalarm, waren ungewohnt hoch und führten zu einer Überlastung der Server. Einen Überlastungsangriff (DDoS, Distributed Denial of Service) kann die Stadt Halle mit „hoher Wahrscheinlichkeit“ ausschließen. Auch hier hat die Stadt nachgesteuert, „um die Funktionsfähigkeit der Webseite auch bei hohen Zugriffszahlen zu gewährleisten.“

Genauere Details nennt die Stadt Halle nicht. Im Jahr 2018 wurden jedoch etwa Sicherheitslücken in den Notfallalarmsystemen des Herstellers ATI Systems bekannt, die Angreifern das Auslösen von Fehlalarmen erlaubten. Welches System Halle (Saale) einsetzt, ist nicht bekannt, aber derart alte Schwachstellen sollten hoffentlich behoben sein. In Dallas kam es 2017 zu einem ähnlichen Vorfall, bei dem Cyberkriminelle die Alarmsirenen mitten in der Nacht ausgelöst hatten.


(dmk)



Source link

Datenschutz & Sicherheit

Anthropic-CEO nennt Vorgehen des Pentagons „vergeltend und strafend“


Anthropic-Gründer Dario Amodei hat nun öffentlich auf die Einstufung seines Unternehmens als Sicherheitsrisiko durch das US-Verteidigungsministerium reagiert. In einem Interview mit CBS, das spricht er von einem beispiellosen Vorgang: „Diese Einstufung hat es noch nie zuvor bei einem amerikanischen Unternehmen gegeben. Und ich denke, es wurde in einigen ihrer Erklärungen, in ihrer Wortwahl, sehr deutlich, dass dies vergeltend und strafend war“, so Amodei.

Weiterlesen nach der Anzeige

Im Interview, das in Auszügen etwa bei YouTube zu sehen ist, stellte der Anthropic-Chef den Konflikt als Frage amerikanischer Grundwerte dar. Was man getan habe, geschah zum Wohl des Landes und zur Unterstützung der nationalen Sicherheit der USA. Die roten Linien, die Anthropic gezogen habe, seien ebenfalls Ausdruck dieser Werte.

Als das Pentagon mit der Lieferketten-Einstufung und dem Defense Production Act gedroht habe, habe Anthropic lediglich von seinem Recht auf freie Meinungsäußerung Gebrauch gemacht. „Meinungsverschiedenheiten mit der Regierung sind das Amerikanischste auf der Welt“, so Amodei gegenüber CBS.

In einer Mitteilung kündigte das Unternehmen an, die Einstufung als Lieferkettenrisiko gerichtlich anzufechten. Eine solche Einstufung hat zur Folge, dass Unternehmen, die mit dem Pentagon Geschäfte machen wollten, keine Verträge mit Antrophic schließen dürften. Laut dem Antrophic-Statement auf der Unternehmenswebsite sei die Maßnahme rechtlich nicht haltbar und schaffe einen gefährlichen Präzedenzfall für jedes amerikanische Unternehmen, das mit der Regierung verhandelt.

Das Pentagon hatte Anthropic im Juli 2025 einen 200-Millionen-Dollar-Vertrag für die Entwicklung agentischer KI-Arbeitsabläufe zugesagt. In den anschließenden Verhandlungen forderte Anthropic jedoch Leitplanken für zwei konkrete Einsatzbereiche. Öffentlich eskalierte der Streit, als bekannt wurde, dass Anthropic-Technologie bei der US-Militäroperation zur Gefangennahme des venezolanischen Machthabers Nicolás Maduro eingesetzt wurde – in welcher Form genau, wurde nicht offengelegt.

Weiterlesen nach der Anzeige

Wie Amodei in einem parallel veröffentlichten Blogbeitrag auf der Anthropic-Website darlegt, lehnt das Unternehmen den Einsatz von Claude für massenhafte Inlandsüberwachung sowie für vollständig autonome Waffen ab. Bei der Überwachung argumentiert Anthropic, dass KI verstreute, einzeln harmlose Daten automatisiert zu umfassenden Persönlichkeitsprofilen zusammenführen könne – in einem Ausmaß, mit dem die bestehende Gesetzgebung nicht Schritt halte.

Bei autonomen Waffen verweist das Unternehmen darauf, dass heutige KI-Systeme nicht zuverlässig genug seien, um ohne menschliche Kontrolle Ziele auszuwählen und anzugreifen. Anthropic habe dem Pentagon angeboten, gemeinsam an der Verbesserung dieser Zuverlässigkeit zu forschen – das Angebot sei laut Amodei jedoch abgelehnt worden.

Das Pentagon sieht das anders. Laut CBS News erklärte Emil Michael, Technologiechef des Pentagons, das Militär habe Anthropic gegenüber erhebliche Zugeständnisse gemacht. Man müsse dem Militär aber irgendwann zutrauen, verantwortungsvoll zu handeln.

Unterdessen hat OpenAI-Chef Sam Altman auf X bekannt gegeben, dass man mit dem Pentagon eine Vereinbarung getroffen habe. Offenbar springt das Unternehmen also in Anthropics Lücke.

Altman erklärte, zwei der wichtigsten Sicherheitsprinzipien von OpenAI seien das Verbot inländischer Massenüberwachung sowie die menschliche Verantwortung für den Einsatz von Gewalt, einschließlich autonomer Waffensysteme. Laut Altman stimme das Kriegsministerium diesen Grundsätzen zu und wolle sie in Gesetze und Richtlinien aufnehmen.

Was allerdings konkret zwischen OpenAI und dem Pentagon vereinbart wurde, ist noch unklar.


(ssi)



Source link

Weiterlesen

Datenschutz & Sicherheit

OpenAI erhält wohl Pentagon-Auftrag nach Bruch mit Anthropic


Im Streit zwischen dem Pentagon und der KI-Firma Anthropic um die Verwendung von Software mit Künstlicher Intelligenz im US-Militär hat offenbar der Rivale OpenAI den Zuschlag bekommen. In einem Statement auf der Plattform X verkündete OpenAI-Chef Sam Altman, man habe eine Vereinbarung mit dem US-Verteidigungsministerium getroffen. Details blieben dabei zunächst unklar. Die Ankündigung folgt wenige Stunden, nachdem das Pentagon Anthropic wegen der Unstimmigkeiten beim Einsatz von KI als Risiko für die nationale Sicherheit eingestuft hatte.

Weiterlesen nach der Anzeige

ChatGPT-Betreiber OpenAI und die Firma Anthropic wetteifern darum, ihre Software mit Künstlicher Intelligenz in Unternehmen und Behörden unterzubringen.

Nun springt offenbar OpenAI in die Lücke. „Heute Abend haben wir mit dem Kriegsministerium eine Vereinbarung getroffen, unsere Modelle in dessen klassifiziertem Netzwerk einzusetzen“, schrieb Altman bei X. Pentagon-Chef Pete Hegseth repostete das Statement, ebenso wie der ranghohe Beamte Emil Michael.

Altman erläuterte weiter, zwei der wichtigsten Sicherheitsprinzipien von OpenAI seien das Verbot inländischer Massenüberwachung sowie die menschliche Verantwortung für den Einsatz von Gewalt, einschließlich autonomer Waffensysteme. „Das Kriegsministerium stimmt diesen Prinzipien zu, verankert sie in Gesetz und Richtlinien, und wir haben sie in unsere Vereinbarung aufgenommen.“

Weiterlesen nach der Anzeige

Im Kern hatte auch Konkurrent Anthropic auf diese beiden Punkte gepocht. Das Unternehmen wollte ihrem Chef Dario Amodei zufolge als Grenzen für die Verwendung seiner KI-Software im US-Militär durchsetzen, dass die KI der Firma nicht für Massenüberwachung in den USA sowie nicht in komplett autonomen Waffen eingesetzt wird.

Am Freitag eskalierte der Streit: Hegseth ordnete an, Anthropic als „Supply-Chain Risk to National Security“, also als Lieferketten-Risiko für die nationale Sicherheit, einzustufen. Mit sofortiger Wirkung dürften Auftragnehmer, Zulieferer oder Partner des US-Militärs keine Geschäfte mehr mit dem Unternehmen machen, schrieb Hegseth bei X. Anthropic solle dem Verteidigungsministerium noch maximal sechs Monate lang Dienstleistungen bereitstellen, um einen Übergang zu einem „besseren und patriotischeren“ Anbieter zu ermöglichen.

Die Maßnahme erfolge im Zusammenhang mit einer Anweisung von Präsident Donald Trump, wonach alle Bundesbehörden die Nutzung von Anthropic-Technologie einstellen sollen.

Das Verteidigungsministerium will nur mit KI-Firmen zusammenarbeiten, die „jedem legalen Einsatz“ ihrer Software zustimmen. Anthropic hatte jedoch darauf beharrt, dass die von der Firma geforderten Einschränkungen wichtig seien.

So warnte Amodei in einem Blogbeitrag, dass Künstliche Intelligenz es mache, über das Netz verstreute Daten einzelner Menschen in großem Stil automatisiert zu einem ausführlichen Bild ihres Lebens zusammenzusetzen. Und zugleich sei KI noch nicht verlässlich genug, um in vollständig autonomen Waffen eingesetzt zu werden. „Wir werden nicht wissentlich ein Produkt liefern, das Amerikas Krieger und Zivilisten in Gefahr bringt“, so der Anthropic-Chef.

Spannungen zwischen Anthropic und dem Pentagon wurden öffentlich, nachdem bekannt wurde, dass Software der Firma bei der US-Militäroperation zur Gefangennahme des venezolanischen Machthabers Nicolás Maduro eingesetzt wurde. Wofür genau sie dabei verwendet wurde, blieb unklar.

Was die Vereinbarung zwischen dem Pentagon und OpenAI nun im Detail bei den Punkten Massenüberwachung und autonome Waffen vorsieht, blieb zunächst unklar.

In seinem Statement auf X rief OpenAI-Chef Altman das Pentagon zugleich dazu auf, diese gleichen Bedingungen allen KI-Unternehmen anzubieten – „Bedingungen, die unserer Meinung nach jedes Unternehmen akzeptieren sollte“. Man habe den Wunsch nach Deeskalation zum Ausdruck gebracht.

Er erklärte auch, dass OpenAI technische Schutzmaßnahmen entwickeln werde, um sicherzustellen, dass sich die Modelle wie vorgesehen verhielten, was auch dem Wunsch des Ministeriums entspreche. Zudem betonte Altman, das Pentagon habe bei allen Interaktionen tiefen Respekt gezeigt für Sicherheit und den Wunsch, gemeinsam das bestmögliche Ergebnis zu erzielen.

Der Pentagon-Beamte Michael schrieb bei X, wenn es um Leben und Tod der US-Soldaten gehe, sei es im Zeitalter von KI von entscheidender Bedeutung, einen zuverlässigen und beständigen Partner zu haben, der in gutem Glauben handele.


(ssi)



Source link

Weiterlesen

Datenschutz & Sicherheit

Die Woche, in der wir eine Blamage kommen sehen


Liebe Leser:innen,

es gibt Wochen, da zieht sich ein bestimmtes Thema über Tage bei uns durch. Und es gibt andere Wochen, da ist es nur ein Fragment, das kurz aufblitzt und hängen bleibt.

In dieser Woche war es ein Fragment. Konkret: eine Antwort des sächsischen Innenministeriums.

Das Haus von Armin Schuster (CDU) will den biometrischen Abgleich von Gesichtern und Stimmen mit Internetdaten erlauben. Eine Polizeigesetznovelle soll den Weg dafür ebnen.

Schuster begründet die neuen Befugnisse damit, dass sich „eine Blamage“ wie bei der RAF-Terro­ristin Daniela Klette nicht wiederholen dürfe. Klette war über Jahre untergetaucht, Hinweise auf ihren Aufenthaltsort hatten dann zwei Journalisten mit Hilfe der umstrittenen Ge­sichtersuchmaschine PimEyes gefunden.

Allerdings steht Schuster vor hohen Hürden. Denn für einen biometrischen Abgleich braucht sein Ministerium eigentlich eine sehr, sehr große biometrische Datenbank. Eine solche anzulegen oder zu nutzen, verbietet aber die KI-Verordnung der EU – „und zwar ausnahmslos“, wie die Nichtregierungsorganisation AlgorithmWatch in einem Gutachten festgestellt hat.

Das sächsische Innenministerium ficht das nicht an. Man werde Tools verwenden, „die sich der grundsätzlichen Datenbankstruktur des Internets bedienen und keine polizeieigene Datenbank für alle Informationen des Internets erstellen“. Außerdem fokussiere sich die geplante Novelle „auf den anlassbezogenen Auftragsbereich der Gefahrenabwehr“.

Ein biometrischer Abgleich ohne Referenzdatenbank? Das geht effektiv nicht, sagt nicht nur AlgorithmWatch, sondern schreiben auch die Wissenschaftlichen Dienste des Deutschen Bundestages in ihrem kürzlich veröffentlichten Gutachten.

Und Gefahrenabwehr wird als Argument wohl kaum ausreichen, um die KI-Verordnung auszuhebeln, falls das sächsische Innenministerium etwas derartiges plant. Eine abschließende Entscheidung über deren Auslegung obliege dem Europäischen Gerichtshof, schreiben vorausahnend die Wissenschaftlichen Dienste des Bundestages.

Ich bin gespannt, wie die Geschichte weitergeht – und wer sich am Ende wie blamiert. Haben wir hier etwas missverstanden? Hat das Ministerium die Sachlage intern noch nicht ausreichend geklärt? Oder sind das Anzeichen eines Schusterschen Trumpismus, der Expertise und rechtsstaatliche Prinzipien einfach mal über Bord wirft?

Habt ein frühlingshaftes Wochenende

Daniel

Wir sind communityfinanziert

Unterstütze auch Du unsere Arbeit mit einer Spende.



Source link

Weiterlesen

Beliebt