Connect with us

Künstliche Intelligenz

39C3: Vom interessanten Rechtsverständnis des „Wurstkönigs“ bei Palantir & mehr


Beim Einsatz automatisierter Datenanalyse durch die Polizei geraten nach Einschätzung der Gesellschaft für Freiheitsrechte (GFF) zunehmend unbeteiligte Menschen ins Visier der Sicherheitsbehörden. „In Polizeidatenbanken landen Menschen ganz schön schnell“, sagte Franziska Görlitz von der GFF. Darunter auch Whistleblower und Zeigen. Würden diese Daten zusammengeführt und analysiert, könnten „Menschen allein durch so ein Tool ins Visier rutschen“.

Weiterlesen nach der Anzeige

Besonders problematisch seien komplexe Analyse-Systeme wie Palantir Gotham. „Das ist keine Datenabgleich-Möglichkeit, sondern da geht es wirklich um extrem komplexe Predicted-Policing- beziehungsweise Voraussage- und Analysesysteme“, so Görlitz. Die Nachvollziehbarkeit der Ergebnisse gehe dabei verloren: „Dann stellt sich am Ende die Frage: Ist der Computer jetzt zu dem Ergebnis gekommen, dass da eine Verbindung besteht oder dass die Person gefährlich sein könnte?“

Kritisch hervorgehoben wurde in diesem Zusammenhang primär Bayern. Dort habe die Staatsregierung unter Ministerpräsident Markus Söder eine Vorreiterrolle beim Einsatz von Palantir eingenommen und früh Fakten geschaffen – inklusive Tests mit Echtdaten, noch bevor eine tragfähige Rechtsgrundlage bestand. Kurz sprach dabei von einem „interessanten Rechtsverständnis“ des „Wurstkönigs“ – gemeint ist der bayerische Ministerpräsident Markus Söder. Bayern habe damit eine Tür geöffnet, über die auch andere Bundesländer leichter einsteigen könnten, etwa über Rahmenverträge, ohne eigene Ausschreibungen durchführen zu müssen.

Die haben wirklich monatelang Echtdaten von richtigen Menschen aus Bayern und weiteren Bundesländern. In vielen Polizei-internen Datenbanken lande man auch, wenn man mit dem Bundesland nicht viel zu tun habe. Nichtmal der Bayerische Datenschutzbeauftragte Thomas Petri sei informiert worden. Er habe erst aus der Presse darüber erfahren.

Das Bundesverfassungsgericht habe 2023 zwar klargestellt, dass automatisierte Datenanalysen grundsätzlich möglich seien, zugleich aber strenge Maßstäbe gesetzt. „Je weitergehend die Analyse, desto strenger müssen die Voraussetzungen sein“, betonte Görlitz. In Hessen, Nordrhein-Westfalen und Bayern seien diese Vorgaben aus Sicht der GFF weiterhin nicht eingehalten, weshalb mehrere Verfassungsbeschwerden anhängig sind.

Weiterlesen nach der Anzeige

Kritik gibt es zudem an der wachsenden Abhängigkeit von privaten Anbietern. „Wenn man sich abhängig macht von Software-Tools von anderen Staaten oder von privaten Unternehmen, dann droht, dass man die dann halt auch braucht für die eigene Arbeit“, warnte Görlitz. Übergangslösungen würden schnell zur Dauerlösung: „Wenn man das Tool erst mal hat und dafür wahnsinnig viel Geld ausgibt, wie viel Anreiz besteht dann, sich um eine Eigenentwicklung zu kümmern?“ Preise könnten aufgrund der Abhängigkeiten ebenfalls schnell angehoben werden.

Aus Sicht der GFF unterschätzt die Politik die Tragweite massiv. „Massenhafte Datenanalysen gerade durch künstliche Intelligenz sind fehlerbehaftet und führen zu diskriminierenden Ergebnissen – sie sind deswegen eine große Gefahr für die Grundrechte.“

Abschließend verwies Kurz auf eine Recherche des Schweizer Magazins Republik, die detailliert zeigte, wie Palantir sich „über Jahre an die Behörden herangewanzt hat“ und welche technologischen, geopolitischen, juristischen und ethischen Risiken damit verbunden sind. Besonders hervorgehoben wurde ein öffentlich zugänglicher Bericht der Schweizer Armee, dessen Gutachter ausdrücklich empfehlen, „auf Lösungen des Unternehmens Palantir zu verzichten“.

Bemerkenswert sei zudem Palantirs Reaktion: Erstmals habe der Konzern in einem Blogbleitrag auf die Kritik reagiert, sich als „missverstanden“ dargestellt und ausgewählten Akteuren Gespräche angeboten – „mit NDA“, wie Konstanze betonte. Gleichzeitig habe Palantir sich im Sommer auch aktiv an Landes- und Bundesinnenministerien gewandt, um erneut für seine Produkte zu werben. Für Konstanze zeigt das: Die öffentliche Debatte wirkt – und zwingt den Konzern zumindest punktuell aus seiner bisherigen Kommunikationsverweigerung heraus.


(mack)



Source link

Künstliche Intelligenz

Bahn-Sicherheitsgipfel: Forderungen nach mehr Zweierteams und Bodycam-Einsatz


Vor dem von der Deutschen Bahn für heute in Berlin angesetzten Sicherheitsgipfel hat Nordrhein-Westfalen ein Maßnahmenpaket vorgeschlagen und Forderungen an den Bund aufgestellt. Demnach soll der Einsatz von Zweierteams bei den Zugbegleitern ausgebaut werden. Für das Tragen von Bodycams im ÖPNV, bislang auf freiwilliger Basis, soll die Bundesregierung Rechtssicherheit schaffen. Die Technik zur Alarmierung und Verfolgung von Tätern soll ausgebaut und die Videoüberwachung soll noch effektiver eingesetzt werden. Ausgeweitet werden soll auch der zum Schutz von Fahrgästen und Zugpersonal eingesetzte Einsatz von Sicherheitsteams.

Weiterlesen nach der Anzeige

Anfang Februar hatte es in Rheinland-Pfalz bei einer Ticketkontrolle einen Angriff auf einen Zugbegleiter der Deutschen Bahn gegeben. Der 36-Jährige war zwei Tage später an seinen schweren Verletzungen gestorben. Die Bahn hat daraufhin die Bundesregierung, die Bundespolizei, Vertreter der Bahnbranche, die Länder und Aufgabenträger für den Regionalverkehr sowie die Gewerkschaften zu einem Sicherheitsgipfel eingeladen.

„Die Aggressivität und die Tonlage ist bei Auseinandersetzungen in Bussen und Bahnen härter geworden. Das empfinden viele Menschen so, und deshalb löst die Gewalttat in Rheinland-Pfalz auch so viele grundsätzliche Fragen aus. Die Fahrgäste fühlen sich in manchen Situationen subjektiv nicht sicher und wir müssen sie und unser Bahnpersonal besser schützen“, sagte NRW-Verkehrsminister Oliver Krischer (Grüne).

Der NRW-Verkehrsminister hatte sich in der Woche mit Vertretern von Deutscher Bahn, Aufgabenträgern, Verkehrsunternehmen und der Bundespolizei an einen Tisch gesetzt. Dabei habe Einigkeit geherrscht, dass zwar landesweit ein leichter, aber kein extremer Anstieg von Gewalttaten zu verzeichnen sei. Das subjektive Bedrohungsgefühl bei vielen Menschen sei unabhängig von den Zahlen aber gewachsen, teilte das NRW-Verkehrsministerium mit.

Mehr zum Thema Deutsche Bahn


(fpi)



Source link

Weiterlesen

Künstliche Intelligenz

Cisco erweitert AgenticOps mit KI für Netzwerk und Security


Auf der Cisco Live in Amsterdam hat der Netzwerkausrüster am Dienstag die nächste Ausbaustufe seines AgenticOps-Modells vorgestellt. Das im letzten Jahr eingeführte Konzept setzt auf KI-Agenten, die IT-Infrastruktur kontinuierlich beobachten, Probleme eigenständig diagnostizieren und nach Bestätigung Maßnahmen einleiten. Die neuen Funktionen erstrecken sich nun über Campus-, Rechenzentrums-, Service-Provider- und Security-Umgebungen.

Weiterlesen nach der Anzeige

Im Pressegespräch beschrieb DJ Sampath, SVP AI Software and Platform bei Cisco, das grundlegende Skalierungsproblem: „Man kann Systeme, die mit Agenten-Geschwindigkeit laufen, nicht mit Betriebsmodellen auf menschlicher Geschwindigkeit managen.“ Bislang arbeiteten IT-Teams meist Alarm-getrieben mit statischen Dashboards. In einer Welt, in der KI-Agenten als neuartige Workloads der Kunden hohe Infrastrukturanforderungen stellen, skaliere dieses Modell laut Sampath nicht mehr.

Für Campus-, Branch- und Industrienetzwerke sollen daher drei neue Kernfunktionen Abhilfe schaffen. Beim autonomen Troubleshooting validieren Agenten im Störungsfall mehrere Hypothesen gleichzeitig und führen deterministische Korrekturen aus – Cisco wirbt hier mit einer Präzision auf CCIE-Niveau, um die mittlere Reparaturzeit auf Minuten zu drücken. Parallel dazu überwacht die Continuous Optimization Erfahrungsmetriken wie Verbindungszeit, Kapazität und Roaming, um Parameter wie WLAN-Frequenzen oder QoS eigenständig anzupassen, noch bevor Nutzer Beeinträchtigungen bemerken. Ergänzend prüft die Trusted Validation geplante Netzwerkänderungen automatisch gegen Live-Topologien und Telemetriedaten, wobei Deep-Reasoning-Techniken auch komplexe Aufgaben wie Compliance-Checks übernehmen sollen.

Über den Cisco AI Assistant können Administratoren darüber hinaus eigene Workflows erstellen, um wiederholbare Automatisierungen an bestimmte Bedingungen zu knüpfen. Die Einführung dieser Funktionen für Campus und Branch startet noch im Februar 2026.

Für Rechenzentrums-Netzwerke integriert Cisco AgenticOps in Nexus One. Strategisch dient Nexus One dabei als Klammer, um die verschiedenen Fabrics (Hyperfabric, VXLAN, ACI) zu vereinen und nach oben hin operationalisierbar zu machen. Früherkennung und intelligente Ereigniskorrelation sollen hier präskriptive Empfehlungen liefern. Die Verfügbarkeit ist jedoch erst für Juni 2026 geplant. Im Service-Provider-Bereich soll Crosswork AI herstellerübergreifende Netzwerkprobleme diagnostizieren – dieses Feature befindet sich vorerst in einer Beta-Phase.

Ein wesentlicher Treiber für den Einsatz von Agenten in der Security ist laut Cisco die massive Zunahme externer KI-Aktivitäten. Wenn Dienste wie OpenAI oder autonome Agenten von Drittanbietern unvorhersehbare Prozessketten und Traffic-Muster generieren, entsteht ein variables System, das mit statischen Regeln kaum noch beherrschbar ist. Technisch begegnet Cisco dem mit KI-Agenten in der Security Cloud Control. Sie analysieren Traffic, Kapazität und Konfigurationen.

Weiterlesen nach der Anzeige

Dabei sollen die Agenten proaktiv Zero-Trust-Lücken in sensiblen Anwendungen identifizieren und direkt One-Click-Lösungsvorschläge unterbreiten. Für das Troubleshooting verspricht der Hersteller, dass die KI Performance-Fresser wie sogenannte Elephant Flows inklusive Kontextanalyse selbstständig erkennt. Ergänzend prüft die Funktion Continuous Compliance das Regelwerk der Firewall fortlaufend auf Abweichungen von Standards wie PCI-DSS. Raj Chopra, SVP & Chief Product Officer, Security, betonte im Pressegespräch, dass es das Ziel sei, Security-Teams vom reaktiven Feuerlöschen zu einer kontinuierlichen Optimierung zu führen. Die allgemeine Verfügbarkeit dieser Funktionen ist für Mai 2026 geplant.

Spannend ist der Ansatz bei der Observability-Tochter Splunk: Das neue AI Agent Monitoring (verfügbar ab 25. Februar) visualisiert und überwacht die KI-Agenten selbst. Es kontrolliert Performance, Kosten und Verhalten der autonomen Helfer. In Zukunft soll dies mit Cisco AI Defense gekoppelt werden, um KI-spezifische Risiken wie Halluzinationen, Datenlecks oder Prompt Injection in den Agenten zu erkennen.

Technisches Fundament ist Ciscos Cross-Domain-Telemetrie. Signale aus Networking, ThousandEyes, Firewalls und Splunk fließen zusammen. DJ Sampath nannte drei Pfeiler für das System: Echte Systemdaten statt Zusammenfassungen als Basis für die KI-Logik (Reasoning), ein Ensemble spezialisierter Modelle mit eingebetteten Runbooks sowie Agenten, die sich domänenübergreifend gegenseitig validieren.

Der Mensch bleibt dabei explizit „in the loop“. Governance sei „by Design“ eingebaut, so Cisco. Die Agenten sollen erst eskalieren, wenn menschliches Urteil gefragt ist – ein Paradigmenwechsel vom „Arbeit erledigen“ zum „Ergebnisse beaufsichtigen“.

Weitere Informationen zu den Updates finden sich bei Cisco.


(fo)



Source link

Weiterlesen

Künstliche Intelligenz

xAI: Unternehmensaustritte und Pläne für Satellitenfabrik auf dem Mond


Bei xAI ist derzeit viel im Umbruch. Wie Medien berichten, haben sechs der ursprünglich zwölf Gründer des KI-Startups von Elon Musk das Unternehmen verlassen. Nun folgt eine laut Musk nötige Umstrukturierung.

Weiterlesen nach der Anzeige

Am vergangenen Montag gab xAI Co-Gründer Yuhuai Wu über X bekannt, sich aus dem Unternehmen zurückzuziehen. Gründe für seinen Austritt gab Wu derweil nicht bekannt. Einen Tag später verkündete Jimmy Ba, ebenfalls Co-Gründer von xAI und Musk direkt unterstellt, seinen Posten aufzugeben. Auch Ba teilte keine Gründe für den Rücktritt mit.

Schon zuvor haben wichtige Personen der Gründungsriege von xAI das Unternehmen verlassen. Kyle Kosic, Co-Gründer und ehemaliger Leiter des Infrastrukturbereichs, wechselte Mitte 2024 zu OpenAI. Vergangenes Jahr gingen mit Christian Szegedy, Igor Babuschkin und Greg Yang gleich drei weitere Schlüsselfiguren von xAI.

Musk hatte die Gründung von xAI im Juli 2023 bekannt gegeben. Für das zwölfköpfige Gründungsteam des KI-Startups waren damals profilierte Ingenieure und KI-Wissenschaftler von OpenAI, Google, Microsoft und Tesla rekrutiert worden.

Dass die Hälfte der Gründungsriege xAI inzwischen verlassen hat, deklariert Musk nun als notwendige Umstrukturierung des Unternehmens. Bei einer unternehmensweiten Mitarbeiterversammlung am vergangenen Dienstag sprach er davon, dass xAI mittlerweile eine Größe erreicht habe, die eine Neuorganisation zwingend erfordert, um die Effektivität des Unternehmens weiter steigern zu können.

In einem X-Post machte Musk nochmals deutlich, dass die Abgänge bei xAI keinesfalls freiwillig erfolgten. „Wenn ein Unternehmen wächst, insbesondere so schnell wie xAI, muss sich die Struktur wie bei jedem lebenden Organismus weiterentwickeln. Dies erforderte leider die Trennung von einigen Mitarbeitern“, schrieb er auf X.

Weiterlesen nach der Anzeige

Offen bleibt, ob Musks Darstellung zutrifft. Das Narrativ der strategischen Umstrukturierungen bei xAI dürfte indes nicht ohne Kalkül verbreitet worden sein – Musks KI-Unternehmen befindet sich derzeit in einer kritischen Phase.

Erst vergangene Woche hatte Musk die Übernahme von xAI durch SpaceX, sein Raumfahrtunternehmen, angekündigt. Die Fusion beider Unternehmen zum jetzigen Zeitpunkt scheint wohlüberlegt, plant SpaceX doch, noch dieses Jahr an die Börse zu gehen. Dafür will der US-Milliardär möglichst viele seiner Unternehmen unter ein Dach bringen.

Im Rahmen der Übernahme von xAI durch SpaceX hatte Musk zudem Pläne von im Weltall stationierten Datenzentren bekannt gemacht. Sein Vorhaben, Millionen von Satelliten in den erdnahen Orbit zu bringen, um die Energie für KI-Rechenzentren extraterrestrisch mittels Sonnenenergie zu gewinnen, bekräftigte Musk in der Betriebsversammlung von xAI am Dienstag.

Vielmehr noch entwarf der US-Milliärdar die Vision einer auf dem Mond stationierten Fabrik für Satelliten. Die Satelliten will Musk mit einem Massebeschleuniger, einer Art elektromagnetischem Katapult, vom Mond aus starten. Eine solche Satelliteninfrastruktur soll Musk zufolge in der Lage sein, einen erheblichen Teil der gesamten Sonnenenergie nutzbar zu machen.

Zuletzt hatte es Kritik am Hauptprodukt von xAI, dem Chatbot Grok, gegeben. Zahlreiche Menschen hatten die Bildgenerierungsfunktion des Chatbots benutzt, um strafbewehrte, nicht einvernehmliche Nacktbilder von Frauen und Minderjährigen sowie mutmaßlich geschlechtsspezifische Gewaltdarstellungen zu generieren. Innerhalb von wenigen Tagen waren so Millionen sexualisierender Deepfakes entstanden, die meisten öffentlich einsehbar auf dem X-Account von Grok.

Ende Januar hatte die EU-Kommission deshalb ein weiteres Verfahren gegen X eingeleitet, diesmal unter dem Digital Services Act. X habe vor der Integration des KI-Angebots von Grok keine Risikofolgenabschätzung vorgenommen, erklärte die Kommission.

Einem Medienbericht der Washington Post zufolge könnten die Deepfakes zudem absichtlich generiert worden sein, um die Popularität von X zu steigern. Das legen Dokumente und Aussagen von früheren Mitarbeitern von xAI nahe, die der US-Tageszeitung vorliegen.


(rah)



Source link

Weiterlesen

Beliebt