Datenschutz & Sicherheit
Sicherheitsupdates: IBM App Connect Enterprise Container und MQ sind verwundbar
Angreifer können an mehreren Sicherheitslücken in IBM App Connect Enterprise Container und MQ ansetzen und so Systeme attackieren. Bislang gibt es keine Berichte zu Attacken. Admins sollten aber nicht zu lange zögern und die Sicherheitsupdates zeitnah installieren, um ihre Instanzen vor möglichen Attacken zu schützen.
DoS-Attacken vorstellbar
IBMs Integrationssoftwareangebot Connect Enterprise Container zum Zusammenfügen von Geschäftsinformationen aus unterschiedlichen Anwendungen ist über mehrere DoS-Schwachstellen (CVE-2025-47935 „hoch„, CVE-2025-47944 „hoch„, CVE-2025-48997 „hoch„) attackierbar. Die Lücken betreffen die Node.js-Middleware Multer. Daran können Angreifer unter anderem mit präparierten Multi-Part-Upload-Anfragen ansetzen. Die Verarbeitung der Anfragen führt zu einem Crash.
Außerdem können Angreifer an einer weiteren Sicherheitslücke (CVE-2025-48387 „hoch„) ansetzen, um sich Schreibzugriffe in einem bestimmten Kontext zu verschaffen. Die Entwickler geben in einer Sicherheitsmeldung an, dass dagegen die folgenden Versionen von IBM App Connect Enterprise Container abgesichert sind:
Weitere Gefahren
IBMs Middlewaresoftware MQ ist über mehrere mit dem Bedrohungsgrad „mittel“ eingestufte Sicherheitslücken angreifbar. So können Angreifer etwa auf nicht näher beschriebenen Wegen DoS-Attacken ausführen (CVE-2025-3631, CVE-2025-3631) oder aufgrund von Fehlern bei der Überprüfung von Zertifikaten die Authentifizierung umgehen (CVE-2025-33181). Gegen die geschilderten Attacken sind die Versionen 9.3.0.30, 9.4.0.12 und 9.4.3 gerüstet.
(des)
Datenschutz & Sicherheit
Google und Sparkassen starten Altersverifikationssystem
Google startet in Deutschland zusammen mit den Sparkassen ein Pilotprojekt für ein Altersverifikationssystem. Es basiert unter anderem auf Google Wallet, wobei die Sparkasse für die Altersverifikation verantwortlich zeichnet. Es soll unkompliziert ermöglichen, im Netz oder bei Einkäufen einen Altersnachweis zu erbringen – das Ganze auch noch datensparsam.
Google arbeitet bereits länger an einer digitalen Identität (DI), die persönliche Informationen in der Google Wallet speichert und selektiv freigeben kann. Anstatt wie beim Vorzeigen eines Ausweises alle Informationen wie Name, Adresse und weitere persönliche Daten zu teilen, erhalten anfragende Stellen so tatsächlich nur das Geburtsdatum zur Altersprüfung, erörtert Google. Mitte Juni hat Google ein Altersverifikations-Tool für Europa angekündigt, welches die hiesigen Besonderheiten berücksichtigt.
Basis: Credential Manager für Android
Google liefert mit der Credential Manager API eine sichere Möglichkeit, um Identitätsinformationen einschließlich des Alters zu teilen. Webseiten und Apps können dieses Tool nutzen, um etwa die Mobil-Wallet oder digitale Altersverifikations-App abzufragen – und erhalten ausschließlich die nötige Altersinformation, bekräftigt Google. Das soll eine der größten Herausforderungen der universellen Altersverifikation knacken. In einigen Bundesstaaten der USA und in Großbritannien können Interessierte ihre IDs bereits in der Google Wallet ablegen und damit ihr Alter nachweisen, verkündete Google Ende April.
Auf der Konferenz „Global Digital Collaboration Conference“ in Genf hat die Sparkasse nun die Zusammenarbeit mit Google angekündigt. Die Sparkasse mit ihren rund 50 Millionen Kunden stellt den Altersnachweis aus. Der lässt sich dann mittels der Credential Manager API von Google unter Android und mit Chrome bei Apps und Webseiten mit einem Klick einfach freigeben. Kinder und Jugendliche lassen sich so vor ungeeigneten Inhalten schützen.
Weitere Details bleiben derzeit noch unklar. Das Projekt soll in den kommenden Monaten in die Pilotphase gehen. Wie genau der Altersnachweis der Sparkasse gegenüber den Google-Systemen aussieht, ist noch nicht bekannt. Aktuell lassen sich Sparkassenkarten nicht zur Google Wallet hinzufügen – das wäre ein Weg, wie sich die Volljährigkeit belegen ließe. Bislang können sich Sparkassenkundinnen und -kunden damit behelfen, ein Paypal-Konto in der Google Wallet zu hinterlegen und darüber mit der Wallet zu zahlen.
Die Pflicht zur Alterskontrolle ist in Europa ein zunehmend drängenderes Thema, da die EU und einige Mitgliedsstaaten auf eine strengere Umsetzung aus Jugendschutzgründen pochen – unter anderem werden klare Altersgrenzen und Alterskontrollen für die Nutzung von Social-Media-Angeboten gefordert. Der gestiegene Druck in der EU führte im Juni bereits zu einem mehrwöchigen Rückzug der Anbieters Aylo aus Frankreich, der große Porno-Portale wie Pornhub betreibt. Die Franzosen behalfen sich in ihrer Not mit der vermehrten Nutzung von VPN-Diensten zur Verschleierung ihrer Geo-IP.
(dmk)
Datenschutz & Sicherheit
Internationaler Strafgerichtshof erneut von ausgefeilter Cyberattacke betroffen
Der Internationale Strafgerichtshof (IStGH) ist wieder Ziel einer Cyberattacke geworden. Die in Den Haag sitzende Institution sprach am Montag von einem „neuen, komplexen und gezielten Cybersicherheitsvorfall“. Dieser sei Ende voriger Woche entdeckt und mittlerweile eingedämmt worden. Interne „Warn- und Reaktionsmechanismen“ hätten funktioniert. Derzeit erfolge „eine gerichtsweite Folgenabschätzung“, heißt es weiter. Es würden Maßnahmen ergriffen, um die Auswirkungen des Angriffs abzuschwächen.
Weitere Details etwa über kompromittierte Daten oder Konten hat der IStGH, der vor 23 Jahren mit der Ratifizierung des sogenannten römischen Statuts durch über 60 Staaten offiziell eingerichtet wurde, bislang nicht bekannt gegeben. Der Gerichtshof war bereits 2023 ins Visier eines damals als „beispiellos“ bezeichneten Cyberangriffs geraten. Im Anschluss verdichteten sich Hinweise, dass es sich dabei um einen Versuch handelte, Spionage zu betreiben und den Auftrag der Einrichtung zu untergraben. Diese erhöhte im Anschluss die eigenen IT-Sicherheitsmaßnahmen. Potenzielle Täter wurden bislang nicht genannt.
Haftbefehle gegen Netanjahu, Putin & Co.
Der IStGH sorgte in den vergangenen Jahren wiederholt für Schlagzeilen. So erließ er Haftbefehle gegen den israelischen Regierungschef Benjamin Netanjahu, den damaligen israelischen Verteidigungsminister Joav Gallant sowie mehrere Anführer der Hamas. Ihnen werden mutmaßliche Verbrechen gegen die Menschlichkeit und Kriegsverbrechen im Gaza-Krieg zur Last gelegt. Auch gegen den russischen Präsidenten Wladimir Putin liegt ein Haftbefehl vor. Einer der Vorwürfe gegen ihn: unrechtmäßige Verschleppung ukrainischer Kinder.
Jüngst sorgte die Meldung für Aufsehen, dass der IStGH-Chefankläger Karim Khan nach US-Sanktionen von seinem Microsoft-basierten E-Mail-Konto ausgeschlossen wurde. Der Softwareriese behauptet, von ihm ergriffene Maßnahmen hätten „in keiner Weise die Einstellung der Dienste für den IStGH“ umfasst. Die Open Source Business Alliance (OSBA) sprach trotzdem von einem Weckruf für digitale Souveränität.
(dahe)
Datenschutz & Sicherheit
„Wir brauchen mehr kritische Debatten und zivilgesellschaftliches Engagement“
Drohnen, die von sogenannter Künstlicher Intelligenz gesteuert werden, gewinnen an Bedeutung. Gerade der Ukrainekrieg dient als Testfeld für neue militärische KI-Anwendungen. Sie ermöglichen nicht nur technologische Fortschritte, sondern werfen auch grundlegende ethische und geopolitische Fragen auf.
Jens Hälterlein ist Technik- und Wissenschaftsforscher an der Universität Paderborn. Er forscht im Projekt Meaningful Human Control zur Regulierung autonomer Waffensysteme. Ein Fokus seiner Arbeit liegt auf Drohnenschwärmen und bestehenden Ansätzen zur ethischen Regulierung KI-basierter Militärtechnologien. Wir haben mit ihm über die Auswirkungen von KI-Anwendungen im Krieg gesprochen.
netzpolitik.org: In Ihrer Forschung beschäftigen sie sich intensiv mit der Entwicklung und dem Einsatz von KI im militärischen Kontext. Der Ukrainekrieg wird zunehmend als „Experimentierfeld“ für militärische KI-Anwendungen beschrieben. Wie schauen Sie auf diese Entwicklung?
Jens Hälterlein: Der Krieg in der Ukraine ermöglicht es – wie im Prinzip jeder Krieg –, neue militärische Entwicklungen unter realen Einsatzbedingungen zu testen. Für die Entwicklung militärischer KI-Anwendungen besteht ein weiterer Vorteil darin, dass auf den Schlachtfeldern der Ukraine große Mengen an Trainingsdaten erzeugt werden. Sie sind für maschinelle Lernprozesse notwendig. Daraus ergeben sich ganz neue Möglichkeiten. Die Ukraine wurde daher auch als „Living Lab“ für militärische KI bezeichnet, also eine Art „Reallabor“.
Nicht ohne Grund hat das US-amerikanische Unternehmen Palantir seine Datenanalyse-Software gleich zu Beginn des Krieges der Ukraine angeboten. Obwohl diese Software zuvor nur für wirtschaftliche und polizeiliche Analysen genutzt wurde, stellte sie schon nach kurzer Zeit ein zentrales Element für die Entscheidungsfindungsprozesse des ukrainischen Militärs dar.
Daten verhelfen der KI zum Druchbruch
netzpolitik.org: Zu Beginn des Ukrainekrieges spielten KI-Systeme bei Drohnen offenbar eine eher unterstützende Rolle. Das verändert sich aus Ihrer Sicht. Können Sie die technologischen Fortschritte und ihre Bedeutung genauer erläutern?
Jens Hälterlein: Am Anfang des Ukrainekrieges wurden die eingesetzten Drohnen noch größtenteils ferngesteuert. KI hat nur in einigen sogenannten „nicht-kritischen“ Funktionen eine Rolle gespielt, beispielsweise im Sinne eines Autopiloten. Das ändert sich derzeit aber anscheinend. Sowohl die Systeme ukrainischer Start-ups als auch die dort eingesetzten westlichen Systeme entsprechen zunehmend dem, was in der internationalen Debatte als tödliche Autonome Waffensysteme (LAWS) bezeichnet wird. Damit sind Systeme gemeint, die kritische Funktionen – also Zielfindung, Zielauswahl und Angriff – ohne menschliches Zutun vollziehen können.
Die in diesen Waffensystemen verwendeten Hardwarekomponenten und Algorithmen sind im Prinzip nicht neu. Aber lange Zeit wurden militärische Innovationen in diesem Bereich durch einen Mangel an Daten ausgebremst. Das ist vergleichbar mit der Entwicklung von Gesichtserkennungssystemen, die erst durch die massenhafte Verfügbarkeit von gelabelten Fotos in sozialen Medien einen Durchbruch erfahren haben.
netzpolitik.org: Über die russischen Systeme, wie etwa die neue Variante der Lancet-Kamikaze-Drohne, ist weit weniger bekannt.
Jens Hälterlein: Im Prinzip sind wir bei allen Kriegsparteien auf die Aussagen von Militärs und Waffenherstellern angewiesen. Und die sind natürlich grundsätzlich mit Vorsicht zu genießen, ganz gleich, ob es sich um westliche oder nicht-westliche Akteure handelt. Seit dem Krieg ist unsere Informationslage zu russischen Systemen allerdings noch eingeschränkter als zuvor. Aber da eine russische KI beziehungsweise eine russische KI-basierte Kampfdrohne grundsätzlich ähnlich funktioniert wie eine US-amerikanische oder eine deutsche sollten auch der jeweilige Kontext ähnlich sein. Auch auf russischer Seite werden diese Waffensysteme daher wohl autonomer werden. Und mit diesem Anspruch wird ja auch das neue Modell der Lancet-Drohne beworben.
Blindes Vertrauen
netzpolitik.org: Wenn militärische KI-Systeme und Autonome Waffensysteme in einem Konflikt wie in der Ukraine getestet werden, wirft dies ethische oder politische Fragen auf. Welche sind das aus Ihrer Sicht?
Jens Hälterlein: Es gibt zahlreiche Probleme. Zum einen ist militärische KI – wie jede KI – notorisch fehleranfällig und vorurteilsbehaftet. Fehler und Vorurteile können hier aber tödliche Folgen haben. Ein System könnte etwa Zivilisten als Kombattanten identifizieren, weil es Daten fehlinterpretiert oder weil es für die Unterscheidung relevante Faktoren übersieht.
Zum anderen droht es durch den Einsatz hochkomplexer Systeme zu einer Verantwortungsdiffusion zu kommen. Formal muss zwar immer ein Mensch als Letztinstanz zustimmen, wenn es zur Tötung von Menschen kommen kann. Allerdings können Bediener*innen nicht im Detail nachvollziehen, wie ein KI-basiertes System seinen Output erzeugt hat. Gleichzeitig kommen sie nicht umhin, auf dessen Basis Entscheidungen zu treffen, und das meist unter Zeitdruck. Auch deshalb könnten sie dazu tendieren, dem Output der Systeme nahezu blind zu vertrauen, was sie angesichts der Fehleranfälligkeit dieser Systeme jedoch keineswegs tun sollten.
Kriegstreiber KI
netzpolitik.org: Ein weiteres Risiko ist die globale Verbreitung dieser Technologien. Wie realistisch ist es, dass in Zukunft immer mehr Staaten autonome Waffensysteme einsetzen – möglicherweise auch im Globalen Süden?
Jens Hälterlein: Drohnen sind wesentlich preisgünstiger als Kampfjets. Gerade kleine Drohnen mit relativ kurzer Flugzeit und geringer Nutzlast sind nicht teuer. In der Ukraine werden sogar kommerzielle Modelle, die wenige hundert Euro kosten, verwendet. Sie werden quasi „in Heimarbeit“ mit Granaten und anderen Kampfmitteln bestückt.
Teuer wird es vor allem dann, wenn besondere Softwarekomponenten entwickelt werden. Aber auch diese Kosten sind kaum mit den Gesamtkosten für die Entwicklung der F-35 oder des Future Combat Air Systems vergleichbar. Es ist also davon auszugehen, dass Finanzen einen zunehmend geringen Faktor bei der globalen Verbreitung KI-basierter Militärtechnologien darstellen. Das türkische Unternehmen Baykar hat beispielsweise seine KI-Kampfdrohe Bayraktar TB2 eben nicht nur in die Ukraine exportiert, sondern auch in zahlreiche afrikanische und asiatische Staaten, wo sie bereits in mehreren Kriegen zum Einsatz gekommen ist.

Unzureichende Regulierung
netzpolitik.org: Mit Blick auf die politische Regulierung von autonomen Waffensystemen und KI-Drohnen sagen Sie, dass wir zunehmend vor vollendete Tatsachen gestellt werden. Gibt es überhaupt noch Chancen auf international verbindliche Regeln?
Jens Hälterlein: Da sehe ich leider wenig Grund zu Optimismus. Im Rahmen der UN-Rüstungskontrolle gibt es seit mehr als zehn Jahren Bemühungen, verbindliche Regulierungen für LAW zu erwirken – bisher ohne Erfolg. Und zwar in erster Linie deshalb, weil solche Regulierungen nicht im Interesse der Nationen liegen, die LAWS entwickeln, einsetzen oder es in Zukunft beabsichtigen. Das sind neben den militärischen Großmächten USA, Großbritannien, Russland und China auch militärische Exportnationen wie Israel, die Türkei und Deutschland.
Deutschland hat sich zwar zusammen mit Frankreich für ein Verbot sogenannter vollautonomer Waffensystemen ausgesprochen. Gleichzeitig aber soll der Einsatz von sogenannten teilautonomen Waffensystemen erlaubt sein. Wenn aber für deren Einstufung bereits ausreichen soll, dass ein Mensch dem Output des Systems final zustimmen muss, halte ich diesen Ansatz aus den genannten Gründen für ungenügend.
Ethik ist kein Ersatz für Recht
netzpolitik.org: Was muss aus Ihrer Sicht passieren, um die unkontrollierte Verbreitung und den Missbrauch solcher Technologien noch zu verhindern?
Jens Hälterlein: Eine Patentlösung habe ich leider nicht. Es benötigt mehr kritische Debatten und zivilgesellschaftliches Engagement. Außerdem müssen wir stärker die Perspektiven der Opfer solcher Technologien in den Blick nehmen. Aber letzten Endes dürften die gegenwärtige globale Polarisierung und Militarisierung ein Klima erzeugen, in dem für Waffenkontrolle wenig Raum ist. Das sehen wir derzeit auch im Bereich der Regulierung von Atomwaffen.
Was aus meiner Perspektive definitiv keine ausreichende Lösung darstellt, ist die Ethik. Mittlerweile gibt es in eine ganze Reihe von Militärstrategien – vor allem westlicher Staaten -, die ein freiwilliges Bekenntnis zum Leitbild eines verantwortungsvollen, erklärbaren und verlässlichen Einsatzes von KI vorsehen. Es ist aber weiterhin unklar, wie die ethischen Prinzipien im Kontext von LAWS eingehalten sowie umgesetzt und kontrolliert werden können.
Vor allem aber sollte Ethik nicht an die Stelle des Rechts treten. Genau diese Gefahr besteht aber. Wir sehen aktuell eine Delegitimierung etablierter internationaler Rechtsnormen seitens westlicher Staaten. Gleichzeitig beziehen sie sich auf Konzepte wie die „regelbasierte internationale Ordnung“, die sich je nach Interessenlage mit Inhalt füllen lassen. In diesem Kontext sollten wir auch die Rhetorik einer „Responsible AI in the Military Domain“ verstehen. Ethik wirkt hier eher ermöglichend als einschränkend.
Erika Dornbusch hat Politikwissenschaften studiert, einige Monate in Syrien gelebt und dort hauptsächlich über den IS geschrieben. Zurzeit arbeitet sie im Bevölkerungsschutz, kommt mit Ordnung jedoch schlechter als mit Chaos zurecht.
-
Online Marketing & SEOvor 3 Wochen
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Apps & Mobile Entwicklungvor 3 Wochen
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
UX/UI & Webdesignvor 3 Wochen
Philip Bürli › PAGE online
-
Social Mediavor 3 Wochen
Aktuelle Trends, Studien und Statistiken
-
Social Mediavor 2 Wochen
LinkedIn Feature-Update 2025: Aktuelle Neuigkeiten
-
Online Marketing & SEOvor 3 Wochen
#WantaFanta: Warum Fanta und Nico Santos der Gen Z Wünsche erfüllen
-
Social Mediavor 3 Wochen
“Wir haben doch nichts zu erzählen…” – 3 Tricks für neue Social Media Content Ideen
-
Online Marketing & SEOvor 3 Wochen
Influencer Marketing: Warum Influencer Vertrauen verlieren und klassische Medien gewinnen