Künstliche Intelligenz
Nach Bruch mit Anthropic: Pentagon schließt KI-Deal offenbar mit OpenAI
Im Streit zwischen dem Pentagon und der KI-Firma Anthropic um die Verwendung von Software mit Künstlicher Intelligenz im US-Militär hat offenbar der Rivale OpenAI den Zuschlag bekommen. In einem Statement auf der Plattform X verkündete OpenAI-Chef Sam Altman, man habe eine Vereinbarung mit dem US-Verteidigungsministerium getroffen. Details blieben dabei zunächst unklar. Die Ankündigung folgt wenige Stunden, nachdem das Pentagon Anthropic wegen der Unstimmigkeiten beim Einsatz von KI als Risiko für die nationale Sicherheit eingestuft hatte.
Weiterlesen nach der Anzeige
ChatGPT-Betreiber OpenAI und die Firma Anthropic wetteifern darum, ihre Software mit Künstlicher Intelligenz in Unternehmen und Behörden unterzubringen.
Altman spricht von wichtigen Sicherheitsprinzipien
Nun springt offenbar OpenAI in die Lücke. „Heute Abend haben wir mit dem Kriegsministerium eine Vereinbarung getroffen, unsere Modelle in dessen klassifiziertem Netzwerk einzusetzen“, schrieb Altman bei X. Pentagon-Chef Pete Hegseth repostete das Statement, ebenso wie der ranghohe Beamte Emil Michael.
Altman erläuterte weiter, zwei der wichtigsten Sicherheitsprinzipien von OpenAI seien das Verbot inländischer Massenüberwachung sowie die menschliche Verantwortung für den Einsatz von Gewalt, einschließlich autonomer Waffensysteme. „Das Kriegsministerium stimmt diesen Prinzipien zu, verankert sie in Gesetz und Richtlinien, und wir haben sie in unsere Vereinbarung aufgenommen.“
Streit zwischen Pentagon und Anthropic eskalierte
Weiterlesen nach der Anzeige
Im Kern hatte auch Konkurrent Anthropic auf diese beiden Punkte gepocht. Das Unternehmen wollte ihrem Chef Dario Amodei zufolge als Grenzen für die Verwendung seiner KI-Software im US-Militär durchsetzen, dass die KI der Firma nicht für Massenüberwachung in den USA sowie nicht in komplett autonomen Waffen eingesetzt wird.
Am Freitag eskalierte der Streit: Hegseth ordnete an, Anthropic als „Supply-Chain Risk to National Security“, also als Lieferketten-Risiko für die nationale Sicherheit, einzustufen. Mit sofortiger Wirkung dürften Auftragnehmer, Zulieferer oder Partner des US-Militärs keine Geschäfte mehr mit dem Unternehmen machen, schrieb Hegseth bei X. Anthropic solle dem Verteidigungsministerium noch maximal sechs Monate lang Dienstleistungen bereitstellen, um einen Übergang zu einem „besseren und patriotischeren“ Anbieter zu ermöglichen.
Die Maßnahme erfolge im Zusammenhang mit einer Anweisung von Präsident Donald Trump, wonach alle Bundesbehörden die Nutzung von Anthropic-Technologie einstellen sollen.
Anthropic: KI nicht verlässlich für autonome Waffen
Das Verteidigungsministerium will nur mit KI-Firmen zusammenarbeiten, die „jedem legalen Einsatz“ ihrer Software zustimmen. Anthropic hatte jedoch darauf beharrt, dass die von der Firma geforderten Einschränkungen wichtig seien.
So warnte Amodei in einem Blogbeitrag, dass Künstliche Intelligenz es mache, über das Netz verstreute Daten einzelner Menschen in großem Stil automatisiert zu einem ausführlichen Bild ihres Lebens zusammenzusetzen. Und zugleich sei KI noch nicht verlässlich genug, um in vollständig autonomen Waffen eingesetzt zu werden. „Wir werden nicht wissentlich ein Produkt liefern, das Amerikas Krieger und Zivilisten in Gefahr bringt“, so der Anthropic-Chef.
Spannungen zwischen Anthropic und dem Pentagon wurden öffentlich, nachdem bekannt wurde, dass Software der Firma bei der US-Militäroperation zur Gefangennahme des venezolanischen Machthabers Nicolás Maduro eingesetzt wurde. Wofür genau sie dabei verwendet wurde, blieb unklar.
Details des OpenAI-Deals nicht klar
Was die Vereinbarung zwischen dem Pentagon und OpenAI nun im Detail bei den Punkten Massenüberwachung und autonome Waffen vorsieht, blieb zunächst unklar.
In seinem Statement auf X rief OpenAI-Chef Altman das Pentagon zugleich dazu auf, diese gleichen Bedingungen allen KI-Unternehmen anzubieten – „Bedingungen, die unserer Meinung nach jedes Unternehmen akzeptieren sollte“. Man habe den Wunsch nach Deeskalation zum Ausdruck gebracht.
Er erklärte auch, dass OpenAI technische Schutzmaßnahmen entwickeln werde, um sicherzustellen, dass sich die Modelle wie vorgesehen verhielten, was auch dem Wunsch des Ministeriums entspreche. Zudem betonte Altman, das Pentagon habe bei allen Interaktionen tiefen Respekt gezeigt für Sicherheit und den Wunsch, gemeinsam das bestmögliche Ergebnis zu erzielen.
Der Pentagon-Beamte Michael schrieb bei X, wenn es um Leben und Tod der US-Soldaten gehe, sei es im Zeitalter von KI von entscheidender Bedeutung, einen zuverlässigen und beständigen Partner zu haben, der in gutem Glauben handele.
(ssi)
Künstliche Intelligenz
iX-Workshop: Azure OpenAI – Schritt für Schritt zur sicheren KI-Anwendung
Im Workshop Hands-on Azure OpenAI: Schritt für Schritt zur sicheren KI-Anwendung bauen Sie eine komplette Azure-OpenAI-Umgebung – sicher, automatisiert und praxisnah. Sie lernen Architektur, Deployment, Security, Netzwerkisolation und Azure Dynamic Sessions kennen und bringen eine containerisierte KI-App mit Azure-OpenAI-Backend an den Start.
Weiterlesen nach der Anzeige
Hands-on statt PowerPoint
Der Workshop folgt einem durchgängigen Live-Beispiel: Nach einer kompakten Einführung zu Azure OpenAI und den wichtigsten Unterschieden zum OpenAI-SaaS deployen Sie zuerst manuell eine vollständige Azure-Umgebung und automatisieren sie anschließend mit Infrastructure-as-Code über Bicep oder OpenTofu.
|
April 15.04.2026 |
Online-Workshop, 09:00 – 17:30 Uhr 10 % Frühbucher-Rabatt bis zum 18. Mrz. 2026 |
|
September 21.09.2026 |
Online-Workshop, 09:00 – 17:30 Uhr 10 % Frühbucher-Rabatt bis zum 24. Aug. 2026 |
Im Sicherheitsblock konfigurieren Sie RBAC, Managed Identities und Content Filtering, isolieren das Netzwerk über VNets und Private Endpoints und setzen Azure Dynamic Sessions für kurzlebige, isolierte Codeausführung ein. Abschließend läuft die containerisierte Node.js/Next.js-App über durch einen Private Endpoint gesicherte Azure-OpenAI-Instanz.
Der Workshop richtet sich an Softwareentwickler, DevOps-Engineers und Tech Leads, die lernen möchten, wie sich KI-Modelle sicher in Azure-Workloads integrieren und betreiben lassen oder bereits Azure nutzen und Cloud-seitige Sicherheits- und Netzwerkmechanismen praktisch anwenden wollen.
Ihr Trainer Rainer Stropek ist Experte für Softwareentwicklung, Softwarearchitektur und Cloud Computing. Mit seinem Team hat er die preisgekrönte SaaS-Zeiterfassung „time cockpit“ entwickelt.

(ilk)
Künstliche Intelligenz
Update 26.3.1 für visionOS behebt Fehler
Besitzer des Apple-Headsets Vision Pro sollten einen Blick in die Systemeinstellungen werfen: Dort steht seit Donnerstagabend visionOS 26.3.1 zum Download bereit. Die Aktualisierung ist ein reines Bugfix-Update, das einen speziellen Fehler behebt. Es erscheint rund zwei Wochen nach visionOS 26.3, das unter anderem wichtige sicherheitsrelevante Verbesserungen lieferte.
Weiterlesen nach der Anzeige
Apple-TV-App flackerte – aber nur bei Sport
Für visionOS 26.3.1 führt Apple genau einen Fix auf: Bei Verwendung der Multiview-Funktion in der Apple-TV-Anwendung kam es zu einem störenden Flackern. Mit Multiview ist es möglich, Sportereignisse aus verschiedenen Perspektiven zu betrachten und diese auch zu wechseln. Was genau zu dem Fehler führte, ist unklar. Nach dem Update soll das Bild wieder normal sein.
Die Aktualisierung von visionOS wird wie erwähnt über die Systemeinstellungen im Bereich Aktualisierung angestoßen. Nach Download und Installationsvorbereitung erscheint der Hinweis, dass man das Headset zur Installation absetzen muss. Danach kann man auf dem außenliegenden EyeSight-Display einen Fortschrittsbalken sehen. Ist die Aktualisierung durchgelaufen, erscheint das Apple-Logo und das Headset startet neu.
Dringend updaten, falls noch nicht geschehen
Nutzer sollten visionOS 26.3.1 zum Anlass nehmen, ihre Vision Pro zu aktualisieren, sollten sie noch bei visionOS 26.2 oder noch älteren Versionen steckengeblieben sein. Mit visionOS 26.3 wurden Fehler behoben, die in iOS bereits durch staatliche Malware ausgenutzt wurden, um iPhones zu übernehmen. Berichte über direkte Angriffe auf das Apple-Headset gibt es aber nicht. Da die Software intern auf dem aufbaut, was in iOS, iPadOS und macOS steckt, ist visionOS in vielen Fällen aber auch von den dort aufgefundenen Sicherheitslücken betroffen, schließlich handelt es sich um einen vollwertigen Computer.
Die Vision Pro kostet mindestens 3699 Euro in der kleinsten Version. Apple hatte sie im vergangenen Herbst mit dem neueren M5-Chip ausgerüstet, sonst aber nur wenige Änderungen an der Hardware vorgenommen. Das Headset wird nur über Apples eigene Ladengeschäfte und den Apple Online Store vertrieben.
Weiterlesen nach der Anzeige
(bsc)
Künstliche Intelligenz
iX-Workshop: GenAI für Security – Auditierbare GRC-Assistenten und SOC-Reporting
Generative KI kann Security-, GRC- und SOC-Prozesse effizient, nachvollziehbar und lokal unterstützen – etwa indem sie Richtlinienfragen evidenzbasiert beantwortet oder strukturierte Lageberichte erstellt und so fundierte Entscheidungen vorbereitet.
Weiterlesen nach der Anzeige
Im Workshop Generative KI in der Security-Praxis – Governance-konforme Use Cases für GRC und SOC erfahren Sie, wie Sie generative KI praxisnah und kontrolliert in der IT-Sicherheit einsetzen – ohne tief in Programmierung oder Data Science einzusteigen. Sie entwickeln zwei belastbare Referenzimplementierungen als Grundlage für den Einsatz im eigenen Unternehmen:
GRC-Assistenten und einem SOC-Reporting implementieren
Ein GRC-Assistent mit Quellenpflicht beantwortet Richtlinien- und ISMS-Fragen auf Basis Ihrer Dokumente und referenziert alle Aussagen transparent. Ergänzend entsteht ein SOC-Reporting-Generator, der Rohdaten in strukturierte technische Reports und Management-Zusammenfassungen überführt – inklusive Risikobewertung und klarer Handlungsempfehlungen.
Dafür installieren Sie ein lokales GenAI-System, richten Workspaces ein, konfigurieren Suche und Retrieval Augmented Generation (RAG) und testen systematisch das Modellverhalten, inklusive typischer Fehlerbilder und geeigneter Guardrails.
|
Mai 12.05. – 13.05.2026 |
Online-Workshop, 09:00 – 17:00 Uhr 10 % Frühbucher-Rabatt bis zum 12. Apr. 2026 |
|
Juli 28.07. – 29.07.2026 |
Online-Workshop, 09:00 – 17:00 Uhr 10 % Frühbucher-Rabatt bis zum 28. Jun. 2026 |
Sie schließen den Workshop mit konkreten Werkzeugen und einem klaren Umsetzungsplan ab: Prompt-Vorlagen, Checklisten, Governance-Steckbrief und einem 30/60/90-Tage-Plan für den strukturierten Übergang in den produktiven Betrieb.
Der Workshop richtet sich an CISOs, Security-Verantwortliche, GRC-Teams und SOC-Analysten, insbesondere in Organisationen mit hohen Datenschutz- und Compliance-Anforderungen oder No-Cloud-Vorgaben.
Weiterlesen nach der Anzeige
Trainer ist Marcel Küppers, Founder und Geschäftsführer der Cycademy. Er verfügt über langjährige Erfahrung vom Ethical Hacker bis zum CISO und ist spezialisiert auf die praxisnahe Vermittlung moderner Cybersecurity-Kompetenzen für Fach- und Führungskräfte.

(ilk)
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 3 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 1 Woche
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Künstliche Intelligenzvor 3 MonatenDigital Health: „Den meisten ist nicht klar, wie existenziell IT‑Sicherheit ist“
