Apps & Mobile Entwicklung
Massenüberwachung und autonome Waffen: Anthropic widersetzt sich dem Ultimatum des Pentagon
Das amerikanische Department of War will, dass Anthropic sämtliche Sicherheitsrichtlinien in den Modellen entfernt, die der KI-Entwickler dem Militär bereitstellt. Trotz weitreichenden Drohungen widersetzt sich Anthropic weiterhin den Forderungen.
Streitpunkte sind die Massenüberwachung im Inland sowie autonome Waffen. Anthropic-Chef Dario Amodei erklärt in einer aktuellen Stellungnahme, dass man dem Militär nicht vorschreiben will, welche Aufträge es mit der KI-Technologie erfüllt. Ausschließen will man aber Tätigkeiten, bei denen die Sicherheit und Zuverlässigkeit nicht gewährleistet werden könne.
Das gilt insbesondere für autonome Waffen. Aktuelle KI-Systeme würden nicht zuverlässig genug arbeiten und wären laut Amodei damit ein Risiko für Zivilisten und US-Soldaten.
Dass die Modelle für rechtmäßige Geheimdienstoperationen eingesetzt werden, unterstütze Anthropic grundsätzlich. Bei der Massenüberwachung im Inland wären die Systeme aber nicht mit demokratischen Werten vereinbar, weil diese deutlich mehr Analyse-Möglichkeiten bei den Datenbergen bieten, die US-Dienste ohnehin sammeln.
Womit das Pentagon droht
Interessant wird nun, wie das Pentagon reagiert. Wie Axios berichtete, hat der amerikanische Kriegsminister Peter Hegseth Anthropic eine Frist bis heute eingeräumt. Er will Zugang zu den Modellen ohne Restriktionen, das Militär soll selbst über den Einsatzzweck bestimmen – auch wenn man offiziell erklärt, dass die von Anthropic genannten Punkte überhaupt nicht vorgesehen seien.
Sollte Anthropic sich verweigern, stehen folgende Konsequenzen im Raum:
- Das Pentagon entfernt die Claude-Modelle aus den Systemen des Kriegsministeriums.
- Anthropic wird als Lieferketten-Risiko eingestuft.
- Man will die Aufhebung der Sicherheitsrichtlinien mit dem Defense Production Act erzwingen.
Gravierend für Anthropic ist vor allem die Einstufung als Lieferketten-Risiko. Bis dato nutzen US-Behörden dieses Verfahren für chinesische Netzwerk-Ausrüster wie Huawei, um so zu verhindern, dass die entsprechenden Komponenten in kritischer Infrastruktur verbaut werden. Für den russischen Antiviren-Hersteller Kaspersky Labs wurde ebenfalls so eine Warnung ausgesprochen.
Bei Anthropic wäre es das erste Mal, dass ein amerikanisches Unternehmen als Lieferketten-Risiko klassifiziert wird. Die Konsequenzen in der Praxis sind: Nicht nur das US-Militär verzichtet auf Claude-Modelle. Auch wer mit dem US-Militär kooperiert, darf keine Anthropic-Produkte – zumindest bei den entsprechenden Aufträgen – nutzen.
Nicht völlig klar ist, welche Auswirkungen so eine Einstufung auf Cloud-Konzerne wie Google und Amazon hat, die beide Dienstleistungen für das Militär betreiben. Die Rechenzentren-Kapazitäten so aufzuteilen, dass Anthropic-Produkte und Pentagon-Dienste strikt getrennt sind, dürfte aber ein komplexes und damit teures Unterfangen sein.
Claude wurde bei Manduro-Entführung verwendet
Dass der bestehende Deal zwischen Anthropic und dem Kriegsministerium hinfällig sein könnte, ist für das KI-Unternehmen eher verkraftbar. Der Deal hat einen Wert von 200 Millionen US-Dollar, der prognostizierte Umsatz für 2026 liegt hingegen bei 18 Milliarden US-Dollar.
Wie Hard Fork analysiert, könnte man so eine Summe als Marketingkosten verbuchen. Immerhin sendet Anthropic damit die Botschaft, im Gegensatz zur Konkurrenz wie Google und OpenAI bestimmte Fähigkeiten nicht anzubieten, wenn die ethisch oder rechtlich fragwürdig sind. Relevant dürfte daher vor allem die Frage sein, ob das Pentagon Anthropic als Lieferketten-Risiko einstuft.
Generell hat das US-Militär Interesse an den Claude-Modellen. Zum Einsatz gekommen sind diese laut einem Bericht des Wall Street Journals bereits bei der Entführung des venezolanischen Präsidenten Nicolás Maduro. Das erfolgte laut dem Axios-Bericht im Rahmen einer Partnerschaft mit Palantir. Verwendet wurden die Claude-Modelle demnach aber vor allem für bürokratische Aufgaben.
Apps & Mobile Entwicklung
CoWoS-Nachfolger kommt später: TSMCs Pilotlinie für CoPoS wird erst 2028 fertig – für Produkte in 2030+

TSMC bestätigte erstmals, eine Pilotlinie für CoPoS als neuen Packaging-Standard zu bauen. Aber bis zur Markteinführung wird es lange dauern, womit das Unternehmen auch Gerüchten begegnet, die zuletzt eine schnelle Adaption durch Nvidia vermutet hatten. Zwischen Wunsch und Realität liegen demnach wohl doch gewaltige Aufgaben.
CoWoS steht für „Chips on Wafer on Substrat“. Es ist die aktuelle Packaging-Technologie von TSMC, mit denen Nvidia, AMD und viele weitere Firmen, beispielsweise GPU-Dies zusammen mit HBM auf einem Package vereinen und so erst den nutzbaren KI-Beschleuniger hervorbringen. CoWoS hat dabei schon einige Entwicklungsstufen durchgemacht und ist stetig gewachsen, sprich der Interposer ist größer geworden, um noch mehr Chips aufzunehmen
Doch der Ruf nach noch mehr Leistung braucht nun neue Ansätze. Diese suchen die Unternehmen gemeinsam auch beim Packaging. TSMC brachte unter anderem SoW-X ins Spiel, ein System auf einem Wafer. Für gewisse Zwecke funktioniert das auch, an einem klassischen rechteckigen oder quadratischen Substrat scheint in Zukunft aber dennoch kein Vorbeikommen zu sein. Die nächste Stufe heißt deshalb CoPoS.
CoPoS steht für „Chips on Panel on Substrat“. Panel bezieht sich in dem Fall auf die Fertigung der passenden und viel größeren Substrate, die nun nicht mehr von einem runden Wafer bezogen werden, sondern einem rechteckigen Panel. Auch in anderen Bereichen soll das Panel-level Packaging (PLP) gegenüber dem Wafer-level Packaging (WLP) in Zukunft an manchen Stellen Vorrang erhalten, es verspricht nämlich eine höhere Wirtschaftlichkeit – unter anderem beim zukünftigen Glas-Substrat. Dort war bereits von Größen bis zu 600 × 600 mm die Rede, CoPoS geht also in eine ähnliche Richtung.
TSMC bestätigt CoPoS-Entwicklung mit langen Zeiten
Im Rahmen des Quartalsberichts bestätigte TSMC erstmals ganz öffentlich eine Produktionslinie für CoPoS zu bauen. Damit fängt das Unternehmen aber erst im zweiten Halbjahr dieses Jahres an, im kommenden Jahr soll die Einrichtung dann ausgerüstet werden und die Erprobung beginnen. Das Ziel ist es, diese eventuell ab 2028 dann in den Status „Bereit zur Serienproduktion“ überführen zu können. Dafür würde aber eine echte Packaging-Fabrik ausgerüstet werden müssen, ein Start in Serie wäre so frühestens ab Ende 2029 absehbar, mit Produkten für das Jahr 2030. Und all dies würde vor allem gegenüber CoWoS auf so vergleichbar winzigem Niveau passieren, dass es zu Beginn ein echtes Nischenprodukt ist und auch noch längere Zeit bleibt.
Zuvor muss dabei aber auch ersten Problemen begegnet werden, denn die Umsetzung für eine Großserie scheint demnach nicht so leicht zu sein, berichtet DigiTimes aus Asien dazu. Die größeren Chips/Packages haben demnach Probleme mit „uniformity“ und „warpage“ – exakt dies wurde unter anderem aber auch schon als Grund bei Nvidias riesigem Rubin-Ultra-Die genannt, sodass es hier eventuell ein neues Packaging braucht.
An CoWoS ist deshalb wohl im nächsten Jahrzehnt kaum ein vorbeikommen – für die nächsten zwei Jahre ist es aber schon wieder nahezu ausgebucht, also so, wie die letzten fünf Jahre bereits. Die nächste Stufe umfasst weitere Verbesserungen, ein mittels SoIC gestapelte Chip wie beispielsweise ein Ryzen X3D kann nun auch noch mittels CoWoS auf einem Interposer platziert werden. Dies eröffnet neue Möglichkeiten für kommende Generationen an Chips. In der kommenden Woche beim TSMC Technology Symposium 2026 dürfte das Unternehmen auch diesen Punkt als Thema eröffnen.
Apps & Mobile Entwicklung
AMD-Aktie auf Rekordniveau: Angebliche Instinct-MI450-Nutzung bei Anthropic beflügelt

Anthropic sucht per Stellenausschreibung Personal, dass sich neben Nvidias CUDA auch mit ROCm auskennt, also dem AMD-Gegenstück von CUDA. Dieses eine Wort und weitere, zum Teil darauf basierende Gerüchte haben gereicht, dass AMDs Aktie an der Börse reagiert und zum Rekord angesetzt hat.
In der schnelllebigen AI-Zeit kann schon ein Gerücht für deutliche Aktienbewegungen sorgen. Zuletzt schaffte das die Meldung, dass Nvidia einen PC-Hersteller übernehmen könnte. Nun war AMD an der Reihe, diesmal gepaart mit der Meldung, dass Instinct MI450 bei Anthropic unterkommen könnten. Da dieses Gerücht nahezu parallel zur Stellenausschreibung aufkam, ging es für die Aktie entsprechend aufwärts, die erstmals bei über 278 US-Dollar lag.
Rückhalt bekommt der gute Ausblick bei AMD aber auch durch die bereits in dieser Woche veröffentlichten Quartalsberichte von ASML und den sehr guten Zahlen von TSMC. Denn beide sehen kein Ende des KI-Booms, im Gegenteil. Die Aussichten der Unternehmen, die für die Fertigung der Chips von AMD & Co nötig sind, sehen sehr gut aus, was darauf hindeutet, dass die Kundschaft eine entsprechende Nachfrage geäußert hat.
Bei AMD beginnt in diesem Jahr das Zeitalter der Rackscale-Architektur. Helios ist die erste Verschmelzung von Zen-6-Venice-Server-Prozessoren mit Instinct-MI450-AI-Beschleunigern in einem großen Rack. In schneller Folge sollen in den kommenden Jahren weitere Produkte folgen. MI500 mit noch mehr HBM4e und einem darauf angepassten Prozessor Verano – hier erstmals mit von AMD kürzlich bestätigtem SOCAMM2-Speicher – soll neben der Leistung auch die Effizienz im Fokus haben.
Bei Anthropic dürfte auch das Helios-Rack im Gespräch sein, da es explizit auf Hyperscaler und AI ausgelegt ist. Pro Rack kommen 72 MI455X zum Einsatz, die für 2,9 ExaFLOPS an KI-Leistung sorgen sollen. Die Epyc-Prozessoren der nächsten Generation kommen zusammen auf 4.600 Kerne und die 31 TB an HBM4 sollen vereint für 43 TB/s Durchsatz sorgen. Die offizielle Vorstellung dieser Systeme und aller Bauteile wird im Rahmen des Events AMD Advancing AI 2026 ab 22. Juli erwartet.
Apps & Mobile Entwicklung
DeepL: Echtzeit-Sprachübersetzung mit Voice-to-Voice nun Realität

Das KI-Übersetzungstool DeepL hat mit DeepL Voice-to-Voice eine neue Produktreihe vorgestellt, die eine Sprachübersetzung in Echtzeit per mündlicher Kommunikation ermöglicht. Der Einsatz ist insbesondere in virtuellen Meetings vorgesehen, sodass Teams weltweit mühelos über Sprachbarrieren hinweg zusammenarbeiten können sollen.
Kommunikation ohne menschlichen Übersetzer
Gespräche in unterschiedlichen Sprachen sollen damit künftig vollständig ohne Dolmetscher auskommen. DeepL Voice-to-Voice ermöglicht es, ganz natürlich in der eigenen Sprache zu sprechen, während das Gesagte beim Empfänger präzise übersetzt wird. Laut CEO Jarek Kutylowski kombiniert DeepL hierfür die bekannten eigenen Sprachmodelle mit der ebenfalls eigenen, bewährten KI-Übersetzungstechnologie, um insbesondere Unternehmen eine barrierefreie Kommunikation zu ermöglichen.
Die neue Technologie fußt dabei auf fünf zentralen Eckpfeilern:
- Voice for Meetings soll eine Echtzeit-Übersetzung auf Plattformen wie Microsoft Teams und Zoom ermöglichen, wobei Teilnehmer in ihrer Muttersprache sprechen, während die Empfänger die Inhalte in ihrer jeweils gewählten Sprache hören. Das Early-Access-Programm soll im Juni dieses Jahres starten, eine Registrierung ist ab sofort möglich.
- Voice for Conversations richtet sich primär an den mobilen Einsatz, geht jedoch darüber hinaus und soll eine plattformübergreifende Übersetzung bieten, insbesondere für Szenarien, in denen die Installation von Apps nicht praktikabel oder zulässig ist.
- Mit Gruppenkonversationen will DeepL den mehrsprachigen Austausch in Trainings, Coachings und Workshops erleichtern, indem Teilnehmer per QR-Code direkt dem Gespräch beitreten und dank Multi-Device-Zugang gleichzeitig Echtzeit-Übersetzungen empfangen können. Diese Funktion soll ab dem 30. April verfügbar sein.
- Darüber hinaus ermöglicht die Voice-to-Voice-API Unternehmen, die Sprachübersetzung direkt in interne Anwendungen sowie kundenorientierte Tools zu integrieren; hier hat das Early-Access-Programm bereits begonnen, eine Registrierung ist weiterhin möglich.
- Ergänzend sollen neue Optimierungsfunktionen sicherstellen, dass spezifische Terminologie wie Branchenbegriffe, Produktnamen oder Eigennamen auch bei schneller oder technischer Sprache präzise erkannt und entsprechend verarbeitet, also bei Bedarf nicht übersetzt werden. Bestehende DeepL-Glossare werden dafür in DeepL Voice integriert, um eine einheitliche Terminologie über alle Gespräche hinweg zu gewährleisten. Diese Funktion soll ab dem 7. Mai verfügbar sein.
Großes Sprachpaket bereits zum Start vorhanden
DeepL richtet die neue Technologie auch auf eine einfache Zugänglichkeit für kleinere Teams aus. Das Self-Service-Modell erlaubt es Unternehmen, die Lösung im Rahmen eines kostenlosen Testzeitraums unmittelbar zu implementieren und zu erproben, bevor der Einsatz ausgeweitet wird. Zum Start von Voice-to-Voice wird bereits eine breite Auswahl an Sprachen unterstützt, darunter alle 24 offiziellen EU-Sprachen sowie Arabisch, Bengalisch, Hebräisch, Norwegisch, Tagalog, Thailändisch und Vietnamesisch. Insgesamt soll DeepL Voice zum Start mehr als 40 Sprachen abdecken.
DeepL will komplette Infrastruktur für Übersetzungen erschaffen
Parallel zum Launch von Voice-to-Voice entwickelt DeepL sein Kernprodukt, das nach eigenen Angaben weltweit von über 200.000 Teams sowie Millionen von Einzelnutzern genutzt wird, zur nächsten Generation der Übersetzungsplattform weiter. Ziel ist der Aufbau einer End-to-End-Übersetzungsinfrastruktur für moderne Unternehmen. Damit sollen Ineffizienzen klassischer Übersetzungsmanagements beseitigt werden, die nach Ansicht des Unternehmens häufig auf langsamen, starren und manuellen Prozessen beruhen und entsprechend hohe Kosten verursachen. „Globale Unternehmen haben heute kein reines Übersetzungsproblem mehr; sie haben ein strukturelles Problem im Betriebsablauf. Heutige Sprachlösungen lassen sich oft nicht schnell genug skalieren und bremsen so das Wachstum“, erklärt Jarek Kutylowski das Vorhaben.
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 1 MonatCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenInterview: Massiver Anstieg der AU‑Fälle nicht durch die Telefon‑AU erklärbar
-
Künstliche Intelligenzvor 2 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Entwickler, wacht auf – oder verliert euren Job

