Künstliche Intelligenz
Künstliche Intelligenz: Ringen um Regeln für KI-Einsatz im Krieg
Mit einer nicht mehrheitsfähigen Liste von Empfehlungen für die politische Regulierung des militärischen Einsatzes von Künstlicher Intelligenz ist am Donnerstag im spanischen A Coruña die dritte „Responsible AI in the Military Domain“-Konferenz (REAIM) zu Ende gegangen.
Weiterlesen nach der Anzeige
Regierungen müssen die Risiken des militärischen Einsatzes von KI detaillierter bewerten, heißt es in den Empfehlungen, die von nur 35 der 80 vertretenen Staaten, darunter Deutschland, unterzeichnet wurden. Entscheidungsprozesse müssten so dokumentiert werden, dass die Verantwortung für den Einsatz automatisierter Waffensysteme nachvollziehbar bleibt. Großmächte wie die USA und China haben das Abschlussdokument nicht unterzeichnet.
„Human in the Loop“ überholt
Die Regel, dass grundsätzlich ein Mensch und nicht die Maschine eine Waffe auslösen müsse („Human in the Loop“), sei überholt, betonte Jeroen van der Vlugt, CIO des niederländischen Verteidigungsministeriums. „Das stimmt schon bei konventionellen Waffensystemen heute nicht mehr.“ Regulierungen müssten Verantwortlichkeit über die gesamte Befehlskette und die Lebensdauer von KI-Waffensystemen klar definieren.
Im Rahmen der mit 1200 Teilnehmern und über 80 Delegationen gut besuchten Konferenz gaben UN-Vertreter den Startschuss für die Entwicklung eines Katalogs freiwilliger Maßnahmen für die zuliefernde KI-Branche.
Im vergangenen Jahr hatte die auf Initiative der Niederländer gegründete „Global Commission REAIM“ einige Richtlinien für Staaten, Militärs und Industrie erarbeitet. Diese Bemühungen, ganz konkrete Schritte für den Einsatz von KI in militärischen Zusammenhängen zu erarbeiten, finden sich in Teilen auch im Abschlussbericht der Konferenz 2026 wieder („Pathways to Action“).
Internationales Recht wahren
Die nationale Politik der Staaten müsse internationales Recht einhalten und garantieren, lautet eine der Empfehlungen. Militärs sollten Entscheidungsprozesse beim Einsatz automatisierter Waffen dokumentieren, um Verantwortlichkeit später zweifelsfrei feststellen zu können. Zudem seien Risikobewertungen der Systeme vor dem operativen Einsatz notwendig.
Weiterlesen nach der Anzeige
Auch Datenbanken mit möglichen Risiken und Nebenwirkungen von Systemen hielt die Kommission für sinnvoll. Eine Vertreterin des spanischen National Cryptologic Centers verwies in A Coruña auf nicht unerhebliche Manipulationsrisiken, etwa die „Vergiftung“ von Datensätzen, die zu falschen Aufklärungsergebnissen führen können.
Bemerkenswert am Bericht der Kommission ist die lange Liste der KI-Systeme, die bei Streitkräften verschiedener Länder bereits im Einsatz sind. Sie reicht von der KI-unterstützten Entscheidungshilfe FELIX bei der NATO über Forschungsprogramme zur Verkürzung der Entwicklungszeiten für Kampfflieger bis zu operativ eingesetzten KI-Systemen: etwa Maven Smart von Palantir (NATO), das auf LLAMA beruhende LLM ChatBIT (China) und autonome Streubomben der Marke Harpy (Israel).
Diplomatie hinkt der Realität hinterher
Die lange Beispielliste illustriert, wie weit diplomatische Versuche, gemeinsame Normen zu schaffen, hinter der Realität militärischer KI-Anwendungen zurück geblieben sind. Statt auf internationale Abkommen zu hoffen, konzentriert man sich bei REAIM auf gemeinsame Definitionen und Risikoabschätzung. Vielleicht könnte man sich auf eine Datenbank zu Vorfällen mit KI-Militärsystemen einigen, so eine Hoffnung.
Eine harte rote Linie gelte es aber festzulegen, mahnte eine Vertreterin der Global Commission REAIM, Denise Garcia: die Nutzung von KI bei Entscheidungen im Einsatz von Nuklearwaffen müsse geächtet werden. Für automatisierte, tödliche Waffensysteme müsse es verbindliche internationale Regeln geben. Von der EU erhofft sich die Wissenschaftlerin „eine gemeinsame Position“ in anstehenden Gesprächen zu einem möglichen völkerrechtlichen Vertrag bei der UN.
„Neue internationale Gesetze zu autonomen Waffensystemen sind auf jeden Fall machbar“, erklärt eine Sprecherin der Initiative „Stop Killer Robots“ auf Anfrage von heise online. Die Vereinten Nationen könnten dabei auf Ergebnissen der UN-Arbeitsgruppe zu tödlichen autonomen Waffen aufbauen. „Man muss jetzt einfach den nächsten Schritt gehen.“
(vbr)
Künstliche Intelligenz
KI-Update kompakt: Telekom-Rechenzentrum, Meta, Roboter, Super-Bowl-Werbung
Telekom-Rechenzentrum soll deutsche KI-Leistung um die Hälfte steigern
Weiterlesen nach der Anzeige
Die Telekom hat in München ihr größtes KI-Rechenzentrum eröffnet. Mit 10.000 Nvidia-Beschleunigern und zwölf Megawatt installierter Serverleistung ist es eines der stärksten in Deutschland, bleibt aber weit hinter US-Anlagen zurück, die bereits mehrere hundert Megawatt erreichen. Das Rechenzentrum kostete rund eine Milliarde Euro, finanziert ohne öffentliche Subventionen. Es wurde in ein altes unterirdisches Gebäude im Tucherpark hinter dem Englischen Garten gebaut und nutzt den nahen Eisbach zur Kühlung.
Das Projekt dient als Bewerbung für die European AI Gigafactories, große KI-Rechenzentren mit EU-Förderung. Zur Eröffnung kamen Vizekanzler Lars Klingbeil, Bayerns Ministerpräsident Markus Söder und weitere Politiker. Die Telekom hofft, dass die öffentliche Hand eine Grundlast bucht, etwa für Verwaltungsaufgaben. In Deutschland sind derzeit KI-Rechenzentren für mehr als 25 Milliarden Euro in Bau und Planung.

Medienwächter warnen vor KI-Zusammenfassungen
Die deutsche Medienaufsicht hat Verwaltungsverfahren gegen Google und Perplexity eingeleitet. Die Medienanstalt Berlin-Brandenburg und die Landesanstalt für Medien in Nordrhein-Westfalen wollen klären, ob algorithmisch generierte Antworten wie Googles AI Overviews die öffentliche Meinungsbildung manipulieren oder verengen. Im Kern steht die Sorge um mediale Vielfalt und die Frage, wer für KI-generierte Inhalte journalistisch und rechtlich verantwortlich ist.
Die rechtliche Basis bildet der Digital Services Act der EU. Er verpflichtet große Plattformen, systemische Risiken für Meinungsfreiheit und Medienpluralismus vorab zu prüfen und zu minimieren. Die Verfahren markieren den Beginn einer Debatte, ob Suchmaschinen neutrale Vermittler bleiben oder zu Super-Redaktionen werden, die strengerer Aufsicht unterliegen.
Meta knüpft Mitarbeiterleistung an KI-Nutzung
Weiterlesen nach der Anzeige
Meta führt ein neues Tool zur Leistungsbewertung ein, das die Nutzung von KI besonders belohnt. Das System namens Checkpoint wertet bis zu 200 Datenpunkte aus, etwa wie viele Codezeilen mit KI-Hilfe programmiert wurden oder wie viele Fehler im Code entstanden. Wer einen hohen Score erreicht, kann Gehaltsboni von bis zu 200 Prozent erhalten. Meta betont, Checkpoint sei kein Aktivitätstracker, sondern ein Instrument zur Ermittlung der Effizienz.
Mitarbeitende können nun neben den eigenen Llama-Modellen auch Gemini 3, GPT-5 und andere KI-Modelle nutzen. Meta spekuliert auf enorme Effizienzsteigerungen durch KI und hat bereits begonnen, sogenannte Low Performer zu entlassen. Auch in der KI-Abteilung und der Metaverse-Sparte gab es zuletzt massiven Personalabbau.
Meta meldet Fortschritte bei neuem KI-Modell nach turbulenten Monaten
Meta hat das Vortraining seines neuen KI-Modells mit dem Codenamen Avocado abgeschlossen. Laut einem internen Dokument übertrifft es bereits die besten frei verfügbaren Basismodelle und kann bei Wissen, visueller Wahrnehmung und mehrsprachiger Leistung mit führenden fertig trainierten Modellen mithalten. Zudem arbeitet Avocado zehnmal effizienter als Maverick und hundertmal effizienter als Behemoth.
Meta hatte im vergangenen Jahr erhebliche Probleme mit Llama 4. Die Veröffentlichung wurde mehrfach verschoben, das Unternehmen manipulierte Benchmarks und Entwickler zeigten sich enttäuscht von der Leistung. Meta baute daraufhin seine KI-Abteilung um. Laut Gerüchten will sich das Unternehmen mit Avocado vom bisherigen Open-Source-Ansatz der Llama-Modelle abwenden. Für 2026 plant Meta Investitionen zwischen 115 und 135 Milliarden Dollar in seine KI-Infrastruktur, 73 Prozent mehr als 2025.
Alphabet kündigt Rekordinvestitionen in KI-Cloud an
Alphabet hat Umsatz und Gewinne sowohl im vierten Quartal 2025 als auch im gesamten Jahr gesteigert. Der Jahresumsatz wuchs um 15 Prozent auf 402,84 Milliarden Dollar. Für 2026 kündigte CEO Sundar Pichai Investitionen zwischen 175 und 185 Milliarden Dollar an, praktisch eine Verdopplung gegenüber dem Vorjahr. Das meiste Geld soll in KI-Computing-Kapazitäten für Google DeepMind und die Cloud-Infrastruktur fließen.
Googles KI-App Gemini zählt mittlerweile mehr als 750 Millionen Nutzer, 100 Millionen mehr als im letzten Quartal. Pichai betonte wachsende Effizienz: Durch Modelloptimierungen und Nutzungsverbesserungen konnte Google die Gemini-Servicekosten pro Einheit bis 2025 um 78 Prozent senken.

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.
Amazon mit ungebremstem Wachstum und extremen KI-Investitionen
Amazon hat mit seinen Quartalszahlen die Erwartungen der Analysten übertroffen. Der Konzern profitiert vom wachsenden Handelsgeschäft und der hohen Nachfrage nach Cloud-Kapazitäten aufgrund Künstlicher Intelligenz. Deshalb erhöht Amazon seine Investitionen um mehr als 50 Prozent gegenüber 2025 auf rund 200 Milliarden Dollar.
CEO Andy Jassy sieht wegweisende Möglichkeiten in KI, Chips, Robotik und Satelliten im niedrigen Orbit. Der überwiegende Teil des Kapitals ist für Rechenzentren und andere Infrastrukturen vorgesehen. Jassy erwartet eine starke langfristige Rendite auf das investierte Kapital.
Warum auch große Sprachmodelle von einem Nickerchen profitieren
Forschende des Universitätsklinikums Freiburg und der Universität Genf haben gezeigt, dass ein kurzes Nickerchen einen synaptischen Reset bewirkt, der dem Gehirn hilft, neue Eindrücke besser zu verarbeiten und zu speichern. Solche Mechanismen könnten auch die Performance von großen Sprachmodellen verbessern. Große Sprachmodelle sind normalerweise vergesslich: Sie können in einem laufenden Chat aus Beispielen lernen, aber nach Ende der Session sind diese Lernfortschritte wieder weg.
Künstlicher Schlaf soll kontinuierliches Lernen ermöglichen. Die Idee: Eine Offline-Phase, in der das Modell Informationen aus der Aktivitätsphase nochmal überarbeitet und neu verarbeitet. Eine Technik namens Sleep Replay Consolidation spielt dem neuronalen Netz in der Schlafphase den Input aus der Wachphase nochmal vor, aber mit einem anderen Trainingsmechanismus. Neuere Ansätze nutzen zwei neuronale Netze: Ein kleineres Modell lernt während des Tages die wesentlichen Dinge und erzeugt synthetische Daten, die dem großen Sprachmodell in der Schlafphase zur Feinabstimmung vorgespielt werden. Die Ergebnisse sind vielversprechend, das Ganze ist aber noch in einer starken Forschungsphase.
Anthropic und OpenAI veröffentlichen neue Modelle
Innerhalb weniger Stunden haben Anthropic und OpenAI neue Spitzenmodelle für Programmierer vorgestellt. Beide Unternehmen beanspruchen die Führung bei den wichtigsten Leistungstests. Anthropic veröffentlichte Claude Opus 4.6, das erstmals bis zu eine Million Token verarbeiten kann. Das entspricht etwa 750.000 Wörtern oder mehreren umfangreichen Büchern.
Laut Anthropic stellt das Modell einen deutlichen Sprung im Umgang mit dem sogenannten Context Rot dar, bei dem Ergebnisse ungenauer werden, je mehr Text ein Modell verarbeiten muss.
OpenAI konterte mit GPT-5.3-Codex, das 25 Prozent schneller als sein Vorgänger ist und weniger Rechenkapazität verbraucht. Im agentischen Coding-Benchmark Terminal-Bench 2.0 übertrifft es Opus 4.6 um zwölf Prozentpunkte.
Laut OpenAI half das Modell bei seiner eigenen Entstehung mit: Das Team nutzte frühe Versionen, um Fehler im Training zu finden. Gleichzeitig stuft OpenAI das Modell erstmals mit einem hohen Cybersicherheitsrisiko ein, auch wenn es bisher keinen sicheren Beweis für konkrete Gefahren gebe. Anthropics Opus 4.6 ist bei indirekten Prompt Injections sogar leicht anfälliger als sein Vorgänger. Beide Modelle stehen zunächst nur zahlenden Nutzern zur Verfügung.
Anthropic stichelt mit Super-Bowl-Werbung gegen OpenAI
Anthropic will beim Super Bowl damit werben, dass die hauseigene KI Claude keine Werbung einblendet. In den Werbeclips sind jeweils zwei Personen zu sehen, die eine KI-Konversation darstellen. Die Antworten klingen erst hilfreich, dann kommt plötzlich Werbung. Der eingeblendete Text erklärt: Werbung kommt in KI, aber nicht bei Claude. Jeder, der sich auskennt, versteht, dass es um OpenAI geht, das seit Wochen daran arbeitet, in ChatGPT Werbung anzuzeigen.
OpenAI-Chef Sam Altman reagierte angefasst auf dem Kurznachrichtendienst X. Er behauptet, er habe darüber gelacht, aber Anthropic sei unfair. OpenAI habe nicht vor, Werbung direkt in ChatGPT-Antworten zu schalten, sondern anders. Altman argumentiert, nur so könne man KI-Werkzeuge auch Menschen anbieten, die kein Abo bezahlen können. Anthropic biete nur ein teures Werkzeug für reiche Leute an, während OpenAI das für die große Masse anbieten wolle.
KI soll Produktionskosten für Filme und Serien senken
Amazon hat im August eine Abteilung gegründet, die spezialisierte KI-Werkzeuge für die Film- und Serienproduktion entwickelt. Ausgewählte Industriepartner werden die Software ab März im Rahmen eines geschlossenen Betaprogramms ausprobieren. Erste Ergebnisse werden voraussichtlich im Mai veröffentlicht. Das bei den Amazon MGM Studios angesiedelte AI Studio steht unter der Leitung von Albert Cheng. Das Team ist klein und besteht primär aus Produktentwicklern und Wissenschaftlern.
Die KI-Werkzeuge sollen die Effizienz steigern, nicht menschliche Kreativität ersetzen. Als Beispiel verweist Amazon auf das Bibelepos House of David. In der zweiten Staffel kombinierte Regisseur Jon Erwin reale Aufnahmen mit KI-generierten Inhalten. Dieses hybride Verfahren ermöglichte längere Kampfszenen bei geringerem Budget.

(igr)
Künstliche Intelligenz
BMW und Viasat zeigen Satelliten-Direktfunk im Auto
Was Smartphones schon können, soll künftig auch in Autos funktionieren: die Kommunikation über Satelliten statt über Mobilfunk. Neuere Handys von Apple, Google und Samsung greifen bereits auf Satellitenkommunikation zurück, wenn kein klassischer Mobilfunkempfang besteht. Die Technik erlaubt Anwendungsfälle, wie das Verschicken von Nachrichten oder des Standorts. In Notsituationen kann das Leben retten.
Weiterlesen nach der Anzeige
Seit einiger Zeit zeigt auch die Automobilbranche Interesse an der Technik. Nach einem Unfall in abgelegenen Regionen ohne Mobilfunkempfang könnte ein Auto mit Satellitenkommunikation selbstständig einen Notruf absetzen. Das brächte einen Sicherheitsgewinn gegenüber Smartphones mit Satellitenkommunikation: Die Insassen könnten nach einem Unfall nicht mehr bei Bewusstsein sein oder innerhalb des Fahrzeugs erst gar keinen Satellitenempfang haben. Das Auto hat hingegen seine Antennen außen angebracht, kennt seinen Standort und weiß über die Airbagsteuerung und andere Sensoren, wie schwer der Unfall war und wie viele Personen an Bord sind.
Um Kommunikationsdienste ins Auto zu bringen, haben namhafte PKW- und Chiphersteller wie unter anderem BMW und Qualcomm schon vor rund zehn Jahren die 5G Automotive Association (5GAA) gegründet, die in Sacramento, Kalifornien, die Konferenz „Advancing Connected Mobility“ ausgerichtet hat. Dort zeigte BMW in dieser Woche zusammen mit dem Satellitenbetreiber Viasat eine Demonstration einer Satellitenkommunikation, bei der ein Sprachanruf über Satellit getätigt wurde. In fernerer Zukunft wären neben Telefonie auch noch andere Anwendungen denkbar, etwa eine Mauterfassung oder Warnungen in Echtzeit vor Gefahren auf der Route. Hierzu hatte die 5GAA bereits vergangenes Jahr in Paris demonstriert, wie die „Vehicle-to-Everything“-Kommunikation beziehungsweise „Car-to-Car Communication“ (C2X) satellitengestützt funktionieren könnte.
(spo)
Künstliche Intelligenz
Bebauungsplan für NTT-Rechenzentrum in Nierstein steht
Das Projekt des geplanten großen Rechenzentrums in Nierstein nimmt Form an. Inzwischen ist die planungsrechtliche Grundlage für die Entwicklung des Campus geschaffen, wie der japanische Telekommunikationskonzern Nippon Telegraph and Telephone Global Data Centers (NTT) auf Anfrage in Frankfurt mitteilte.
Weiterlesen nach der Anzeige
Der Bebauungsplan für das Areal einer früheren US-Kaserne in der rheinhessischen Gemeinde sei am 28. Januar in Kraft getreten, die für das Vorhaben nötige Änderung des Flächennutzungsplans schon eine Woche vorher. Die Pläne seien rechtsverbindlich und bildeten die Basis für die weiteren Genehmigungs- und Umsetzungsmaßnahmen, heißt es von NTT weiter. Im Verlauf des Frühjahrs will das Unternehmen den Bauantrag einreichen. Rund ein Jahr später sei mit einer Baugenehmigung zu rechnen.
Nur mit erneuerbaren Energien
Der Stadtrat des rheinhessischen Nierstein hatte den Bebauungsplan im Dezember einstimmig beschlossen, im selben Monat gab es vom Verbandsgemeinderat der Verbandsgemeinde Rhein-Selz grünes Licht für den Flächennutzungsplan. Niersteins Stadtbürgermeister Jochen Schmitt (FWG) hatte im Dezember betont, das Projekt auf einer bislang ungenutzten Konversionsfläche eröffne der gesamten Region neue Perspektiven.
NTT plant bei dem Rechenzentrum eine Leistungsaufnahme von rund 482 Megawatt. Durch das Projekt würde Nierstein einer der größten Rechenzentrum-Standorte in Europa, es könnten rund 400 neue Arbeitsplätze bei NTT Data entstehen. Auf dem Gelände in Nierstein sollen auch eine Photovoltaik-Anlage und ein Windpark gebaut werden. NTT will die gesamte Energie für die Anlage aus erneuerbaren Quellen beziehen, auch durch Power Purchasing Agreements (PPAs). Die Kommunen wollen die Abwärme des Rechenzentrums ihrerseits nutzen.
Drittgrößtes Rechenzentrum Europas
Zur Nutzung der Anlage machte NTT Data bisher keine Angaben. Aufgrund der hohen Leistungsaufnahme ist zu vermuten, dass mit „Frankfurt 6“ vor allem KI-Dienstleistungen erbracht werden sollen. Das neue Rechenzentrum wäre nach Fertigstellung das drittgrößte in Europa, hinter Start Campus Sines DC in Portugal (1,2 GW) und einem in Stockholm von Brookfield geplanten Rechenzentrum (750 MW). Zum Vergleich: Das in dieser Woche eingeweihte Rechenzentrum „KI-Fabrik“ der Telekom in München kommt derzeit auf 12 Megawatt, ein Ausbau auf 20 Megawatt ist geplant.
Weiterlesen nach der Anzeige
Aufgrund der Größe des Projekts wird sich die komplette Entwicklung des Campus über einen Zeitraum von etwa zehn Jahren erstrecken, der Bau soll 2027 begonnen werden und der erste Teilbetrieb 2029. NTT Data gilt als einer der großen Anbieter von Rechenzentren und kommt auf weltweit mehr als 150 Zentren. In Deutschland hat das japanische Unternehmen Rechenzentren im Raum Frankfurt, wo mit De-Cix einer der weltweit größten Internetknotenpunkte ist, in Berlin, München, Hamburg und Bonn. Der NTT-Konzern hat nach eigenen Angaben weltweit mehr als 330.000 Mitarbeiter.
(nie)
-
Entwicklung & Codevor 3 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 1 MonatSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Apps & Mobile Entwicklungvor 2 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Apps & Mobile Entwicklungvor 2 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Künstliche Intelligenzvor 3 MonatenWeiter billig Tanken und Heizen: Koalition will CO₂-Preis für 2027 nicht erhöhen
