Künstliche Intelligenz
Streit von Anthropic und DOD: Seinen Standpunkt muss man sich leisten können
Der Streit zwischen Anthropic und dem US-amerikanischen Department of Defense (DOD) ist von Doppelzüngigkeit und Intrigen geprägt.
Weiterlesen nach der Anzeige
In der letzten Februarwoche forderte der US-Kriegsminister Pete Hegseth, dass Anthropic die Schutzmaßnahmen seiner großen Sprachmodelle (LLMs) für militärische Einsatzzwecke deaktiviere oder dem DOD uneingeschränkte Modelle ausliefere. Diese Guardrails sollen unter anderem den Einsatz in Systemen zum autonomen Töten und für die Massenüberwachung von US-Bürgern verhindern. Anthropic weigerte sich. Die US-Regierung begann reflexhaft zu schimpfen und drohte unter anderem mit dem Defense Production Act, einem Gesetz, mit dem die Regierung die Produktion von kriegswichtigen Gütern priorisieren kann.

Philipp Steevens ist seit 2022 bei iX. Er betreut vornehmlich Artikel aus den Bereichen Data Science und KI und kümmert sich um den LinkedIn-Auftritt des Magazins.
Seinen Standpunkt kann sich der LLM-Anbieter anscheinend leisten: Das Pilotprojekt mit dem DOD sollte einen finanziellen Deckel von 200 Millionen US-Dollar haben, während sich der hochgerechnete Jahresumsatz der Firma auf 14 Milliarden US-Dollar beläuft. Rückendeckung bekam Anthropic dabei auch von OpenAI-CEO Sam Altman, der die Standhaftigkeit in einer Fernsehsendung lobte.
In typischer Trump-Manier folgte eine wütende Regierungserklärung in Tweet-Form. Der US-Präsident forderte darin alle Regierungsbehörden auf, die Anthropic-Modelle rauszuwerfen. Frist: sechs Monate. Außerdem erklärte er den KI-Anbieter zum Lieferkettenrisiko. Dieses Prädikat blieb bisher ausländischen Firmen wie Huawei vorbehalten.
OpenAI und xAI sind zur Stelle
In diesem Drama untergegangen ist eine Studie des King’s College in London. Die Forscher zeigten, dass LLMs in Planspielen zu Konfliktsituationen in 95 Prozent der Fälle zu Atomwaffen als Eskalationsmittel griffen. Die Studie in Kombination mit Anthropics Herstellerangaben, dass die eigene Technik für autonome Waffensysteme nicht bereit ist, sollte dem gesunden Menschenverstand ausreichen. Den vermisst man aber spätestens seit Trump II schmerzlich in der US-Regierung.
Weiterlesen nach der Anzeige
Aber zu Trumps Glück gibt es noch Anbieter, die sich für nichts zu schade sind. Während OpenAI-Boss Altman bei CNBC Anthropics Haltung lobte, schloss er im Hintergrund einen Deal mit dem DOD – im Grunde zu den gleichen Konditionen wie Anthropic. Denn auch hier sind Massenüberwachung von US-Staatsbürgern und autonomes Töten zumindest laut den öffentlich bekannten Informationen ausgeschlossen. Damit einher ging eine kleine Spende des OpenAI-Mitgründers Greg Brockman in Höhe von 25 Millionen US-Dollar an die Lobbygruppe von Trump. Auf die nachfolgende Kritik reagierte Altman mit den üblichen Krokodilstränen und einem Schlingerkurs bei den vermeintlichen Vertragsdetails.
Zusätzlich soll auch Grok, das LLM von Elon Musks Unternehmen xAI, für die wichtigen Aufgaben der Massenüberwachung und des autonomen Tötens zum Einsatz kommen. Das Tool ist so unreguliert, dass sich damit problemlos Darstellungen sexuellen Missbrauchs von Kindern erzeugen ließen. Wenn also die Modelle chronischer Lügner und solche für lockere Missbrauchsdarstellungen zukünftig Einfluss auf die Militärnetzwerke und Kriegssysteme der USA haben, kann nichts mehr schiefgehen.
Anthropic ist das neue Huawei
Kurzfristig gewann das Marketing von Anthropic, das edelmütig die ethischen Werte des Unternehmens verteidigt hat. In den Folgetagen zog Claude in den App-Stores an den Konkurrenten ChatGPT und Gemini vorbei. Wie sich allerdings die Einstufung als Lieferkettenrisiko auswirkt, ist ungewiss. Müssen jetzt alle Firmen, die Verträge mit US-Verteidigungseinrichtungen haben, Anthropic komplett aus ihrer Lieferkette verbannen?
Microsoft sieht das offenbar nicht so. Ein Sprecher erklärte Business Insider, die Prüfung durch Juristen habe ergeben, dass man seinen Kunden weiterhin Anthropic-Produkte über die eigenen Plattformen anbieten könne. Ausnahme sei lediglich das Verteidigungsministerium. Bei Projekten außerhalb des Verteidigungssektors könne Microsoft hingegen mit Anthropic zusammenarbeiten. Wie Reuters schreibt, bezweifelten Juristen ohnehin, dass die Trump-Regierung die nötigen Befugnisse hat, die Nutzung von Anthropic etwa bei Rüstungsunternehmen zu untersagen.
Das heißt natürlich nicht, dass Firmen wie Lockheed Martin nicht trotzdem Trumps Social-Media-Erguss folgen und den Bannhammer gegen Anthropic schwingen. Aber die Modelle des Anbieters gelten derzeit als die absolute Marktspitze, auch wenn Claude Opus nach wie vor die höchsten Betriebskosten erzeugt. Und Anthropics LLMs scheinen für die US-Kriegsbemühungen im Iran zentral zu sein. Es bleibt also spannend, ob sich die Erklärung zum nationalen Risiko tatsächlich auf die Geschäfte von Anthropic auswirkt.
Dieser Kommentar ist das Editorial der iX 04/2026, die am 20. März 2026 erscheint.
(pst)
Künstliche Intelligenz
Last Call: Digitale Souveränität – Cloud, KI und Security krisensicher machen
Clouddienste, KI-Systeme und Kommunikationsplattformen stammen überwiegend von wenigen internationalen Anbietern – Daten fließen dabei oft unkontrolliert ab. Im Classroom Digitale Souveränität in der Praxis – Cloud, KI und Security krisensicher gestalten zeigt unser Experte Manuel „HonkHase“ Atug, wie man Abhängigkeiten systematisch identifiziert und Risiken bewertet. Teilnehmerinnen und Teilnehmer erlernen konkrete Strategien, um ihre digitale Selbstbestimmung zurückzugewinnen und sich dabei aus Kostenfallen zu befreien.
Weiterlesen nach der Anzeige
Zunächst erhalten Teilnehmende einen umfassenden Überblick zur politischen Weltlage. Unser Experte ordnet dabei ein, welchen Einfluss diese auf digitale Souveränität und Abhängigkeiten in der IT hat. Er geht auf die Rolle der Big-Tech-Konzerne ein und wie man sich mit Derisking statt Decoupling absichert, ohne direkt alle Arbeitsgewohnheiten ändern zu müssen. Im weiteren Verlauf stehen souveräne Optionen für die Cloud- und KI-Nutzung im Fokus, um die teils gravierenden Risiken in der täglichen Nutzung zu umgehen, insbesondere den Kontrollverlust über die eigenen Daten und potenziell eskalierende Kosten. Mit einem Schutz vor Vendor-Lock-in und einer durchdachten Exitstrategie für den Notfall macht man sich weniger angreifbar und setzt Cloud und KI souverän ein.
Souveränität als Sicherheitsvorteil
Auch zahlreiche Kommunikationsmittel stehen unter der Kontrolle weniger mächtiger Konzerne. Hier bietet die klassische E-Mail als dezentrales Medium ohne Plattformbindung entscheidende Vorteile, die wiederum durch Clouddienste zunehmend untergraben werden, etwa Microsoft 365. Selbiges gilt für die meisten Office-Rechner, die Windows einsetzen und somit ebenfalls von Microsoft abhängen. Hier bieten Linux und Open-Source-Software Auswege aus der Abhängigkeit, die den kommerziellen Lösungen in vielen Bereichen ebenbürtig sind und weit kalkulierbarere Kosten verursachen.

Bereits ab dem zweiten Classroom oder einem Classroom und drei Videokursen rechnet sich unser Professional Pass mit Zugriff auf den gesamten heise academy Campus!
Abschließend widmet sich unser Experte dem Thema Security und erklärt, welche entscheidenden Vorteile digitale Souveränität bietet. Er stellt Open-Source-Sicherheitswerkzeuge vor und zeigt, was eine wirklich souveräne IT-Infrastruktur ausmacht – von der Datenverarbeitung ausschließlich in der EU bis hin zur vollständigen Einhaltung europäischer Gesetzgebung als Sicherheitsvorteil. Die Termine des Classrooms lauten:
- 11.05.26: Digitale Souveränität verstehen – Abhängigkeiten erkennen und strategisch handeln
- 18.05.26: Cloud und KI souverän nutzen – Risiken erkennen, Strategien entwickeln
- 01.06.26: Unabhängige Kommunikation im Unternehmen – dezentrale Alternativen für Social Media, Messenger, E-Mail und Suchmaschinen
- 08.06.26: Open-Source-Lösungen und freie Standards – Praxisstrategien für Office-Alternativen, Browser und mehr
- 15.06.26: IT-Sicherheit durch digitale Souveränität – Herstellerunabhängigkeit mit Open Source
Praxis- und Expertenwissen – live und für später
Weiterlesen nach der Anzeige
Die Sessions haben eine Laufzeit von jeweils vier Stunden und finden von 9 bis 13 Uhr statt. Alle Teilnehmenden können sich nicht nur auf viel Praxis und Interaktion freuen, sondern haben auch die Möglichkeit, das Gelernte mit allen Aufzeichnungen und Materialien im Nachgang zu wiederholen und zu vertiefen. Fragen werden direkt im Live-Chat beantwortet und Teilnehmende können sich untereinander zum Thema austauschen. Der nachträgliche Zugang zu den Videos und Übungsmaterialien ist inklusive.
Weitere Informationen und Tickets finden Interessierte auf der Website des Classrooms.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
(cbo)
Künstliche Intelligenz
Visual Studio Code 1.117: Unternehmenskunden können eigene LLM-Keys nutzen
Visual Studio Code 1.117 steht zum Download bereit. Das neue Release von Microsofts Sourcecode-Editor erweitert die KI-Fähigkeiten des Chats, bringt ein experimentelles neues Chat-Rendering und aktualisiert die App „Visual Studio Code Agents“, die derzeit nur Teilnehmende des Insider-Programms verwenden können.
Weiterlesen nach der Anzeige
Flexiblere LLM-Anbindung für Business- und Enterprise-Kunden
Nutzerinnen und Nutzer von GitHub Copilot in einer Business- oder Enterprise-Edition können nun ihre eigenen API-Keys für Sprachmodelle einsetzen, bekannt als „Bring your own language model key (BYOK)“. Somit lassen sich Anbieter wie OpenRouter, Ollama, Google oder OpenAI einbinden, um deren Large Language Models im VS-Code-Chat zu nutzen.
Standardmäßig deaktiviert, können Admins BYOK mit der „Bring Your Own Language Model Key“-Richtlinie in den Copilot-Richtlinieneinstellungen aktivieren. Dabei können sie festlegen, welche Modellanbieter in ihrem Unternehmen zulässig sind. Anschließend können Organisationsmitglieder Modelle von integrierten Anbietern direkt in VS Code auswählen oder Extensions von Anbietern aus dem Visual Studio Code Marketplace installieren.
Die Vorteile liegen nicht nur in der größeren Modellauswahl, die über die integrierten Modelle hinausgeht, sondern auch darin, dass die integrierten Modelle dann nicht den Standard-Rate-Limits unterliegen. Dabei ist zu beachten, dass sich die „mitgebrachten“ Modelle lediglich auf den Chat auswirken, nicht auf Inline-Vorschläge oder andere KI-gestützte Features in VS Code.
Experimentelle und Insider-Features
Weiterlesen nach der Anzeige
Als ein experimentelles Feature kann der VS-Code-Chat nun inkrementell rendern. Dadurch sollen die Chat-Antworten flüssiger und natürlicher wirken. Die Inhalte erscheinen blockweise mit optionalen Animationen, etwa fade, blur oder slide.
Darüber hinaus hat die App „Visual Studio Code Agents“ ein Update erhalten. Diese befindet sich noch im Preview-Status und ist VS-Code-Insidern vorbehalten. Die App bietet eine Agent-native Umgebung, in der sich parallele Sessions über Repos hinweg ausführen, Diffs inline betrachten und mehrschrittige Coding-Aufgaben durchführen lassen. Im neuen Release können Entwicklerinnen und Entwickler Sub-Sessions aus aktuellen Sessions erstellen. Neben weiteren Updates wurde auch die User Experience in der App überarbeitet.
Die offizielle Ankündigung informiert über diese und weitere neue Features in Visual Studio Code 1.117.
(mai)
Künstliche Intelligenz
Webanalyse ohne Google: Umami 3.1 bringt Replays und eigene Dashboards
Mit Version 3.1.0 erhält die Open-Source-Webanalyse Umami mehrere größere Funktionen für Auswertung, Debugging und Performance-Monitoring. Im Mittelpunkt stehen frei konfigurierbare Dashboards namens „Boards“ sowie Session Replays, mit denen sich echte Nutzersitzungen nachvollziehen lassen. Hinzu kommen ein integriertes Tracking der Core Web Vitals, deutlich erweiterte Filter- und Segmentfunktionen sowie überarbeitete Sharing-Optionen. Außerdem schließt das Release mehrere Sicherheitslücken, führt Schema-Migrationen aus und hebt die Mindestanforderungen an die Plattform an.
Weiterlesen nach der Anzeige
Umami ist eine datenschutzfreundliche, selbst hostbare Alternative zu klassischen Webanalyse-Diensten wie Google Analytics. Die Software erfasst Seitenaufrufe und Events ohne Third-Party-Tracking und richtet sich vor allem an Entwickler und Unternehmen, die ihre Analyse selbst kontrollieren wollen.
Die neuen Boards bringen ein flexibles Dashboard-System. Anwender stellen Auswertungen aus Diagrammen, Tabellen und Kennzahlen in einem frei gestaltbaren Raster zusammen. Einzelne Komponenten lassen sich verschiedenen Websites zuordnen, live anpassen und anschließend im Team teilen oder duplizieren. Damit nähert sich Umami funktional spezialisierten Monitoring- und BI-Tools an. Ein Marketing-Team kann so etwa ein Board für Kampagnenkennzahlen pflegen, während das Produktteam parallel eines für Feature-Nutzung und Conversions führt.
Ebenfalls neu ist Session Replay. Die Funktion spielt reale Nutzersitzungen im Browser nach und basiert auf der Bibliothek rrweb. Session Replay zeichnet Klicks, Scrollbewegungen und Eingaben auf. Über konfigurierbare Maskierungsstufen lassen sich sensible Inhalte ausblenden. Die Aufzeichnungen sind pro Besuch segmentiert und nach Events filterbar. Das hilft etwa dabei, Abbrüche in Formularen oder Checkout-Prozessen zu analysieren.
Performance-Monitoring und feinere Auswertungen
Im Bereich Performance erfasst Umami nun die Core Web Vitals direkt im Browser der Besucher, darunter Largest Contentful Paint (LCP), Interaction to Next Paint (INP), Cumulative Layout Shift (CLS), First Contentful Paint (FCP) und Time to First Byte (TTFB). Eine überarbeitete Performance-Ansicht stellt die Werte dar und bewertet sie anhand gängiger Schwellenwerte. So lässt sich zum Beispiel erkennen, ob blockierendes JavaScript Interaktionen auf Mobilgeräten verzögert.
Auch die Filter- und Segmentlogik wächst spürbar. Neu sind ODER-Verknüpfungen zwischen Bedingungen, Regex-Operatoren und Mehrfachauswahl bei Vergleichsoperatoren. UTM-Parameter stehen jetzt systemweit zur Verfügung. Damit lassen sich komplexere Auswertungen formulieren, etwa Nutzersegmente über mehrere Kampagnen oder Regionen hinweg. Funnels unterstützen außerdem Filter auf Event-Eigenschaften pro Schritt sowie Wildcards in Zieldefinitionen.
Die überarbeitete Share-Funktion erlaubt eine feinere Steuerung freigegebener Inhalte. Einzelne Bereiche wie Übersichten oder Events lassen sich ein- oder ausblenden, Share-Links können einen Namen erhalten. Die Darstellung ist vollständig für Mobilgeräte optimiert.
Weiterlesen nach der Anzeige
Administration, Internationalisierung und kleinere Verbesserungen
Weitere Neuerungen sind unter anderem die zusätzliche Filterdimension „Distinct ID“, eine flexible Zeitaggregation nach Stunde, Tag oder Monat, ein Download für Berichte sowie Performance-Optimierungen durch Pagination-Limits und Cache-Control-Header. Hinzu kommen Geolocation-Header für EdgeOne und zusätzliche Konfigurationsoptionen über Umgebungsvariablen.
Im Administrationsbereich wechselt Umami von react-intl zu next-intl und liefert vollständige Übersetzungen für 51 Sprachen. Mit „react-zen“ führt das Projekt zudem ein einheitliches Design-System ein und überarbeitet die Navigation. Die Teamfunktionen sind nun konsolidiert und um eine Redis-basierte Feature-Steuerung ergänzt.
Sicherheit, Migrationen und Bugfixes
Auf der Sicherheitsseite schließt das Release IDOR-Schwachstellen in Berichten und Segmenten und schränkt Share-Tokens stärker ein. Zusätzlich aktualisiert es mehrere Abhängigkeiten mit bekannten Lücken.
Für die neuen Funktionen führt Umami automatisch Schema-Migrationen aus, etwa für Boards, Session Replay und die Sharing-Mechanismen. Die Mindestanforderung steigt auf Node.js 22, weil das Release auf Prisma 7 setzt.
Daneben behebt Version 3.1.0 zahlreiche Bugs, vor allem bei der PostgreSQL-Kompatibilität, in SQL-Abfragen, bei der Zeitzonenverarbeitung sowie im Tracker und in der Oberfläche. Details zu allen Änderungen finden sich in den Release Notes auf der GitHub-Projektseite von Umami. Version 3.0 erschien im November 2025 und fügte in Umami neue Tracking-Features hinzu.
(fo)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 1 MonatCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 2 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Social Mediavor 1 MonatVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
