Künstliche Intelligenz
Claude Code geleakt: Milliarden für KI-Sicherheit, null für Softwarehygiene
Es klingt nach dem nächsten großen Skandal: Über 500.000 Zeilen Quellcode von Anthropics CLI-Tool Claude Code tauchen öffentlich auf. Die Security-Community horcht auf, Wettbewerber reiben sich die Hände, Kommentatoren wittern den nächsten Beweis, dass KI eh an allem schuld ist. Doch wer genauer hinschaut, findet keine ausgeklügelte Attacke, keinen Zero-Day-Exploit, nicht einmal Social Engineering. Sondern schlicht eine Source Map im npm-Paket, die da nicht hingehörte. Also bloß ein vergessener Schalter in der Build-Pipeline. System scheint hier nur die Schludrigkeit zu haben.
Weiterlesen nach der Anzeige

Moritz Förster schreibt seit 2012 für die iX und heise online. Er betreut neben dem iX-Channel den Bereich Arbeitsplatz.
Debug-Artefakte im Produktions-Build – ein Klassiker
Source Maps sind nützliche Helfer in der Entwicklung. Sie bilden kompilierten Code zurück auf den lesbaren Quelltext – unverzichtbar beim Debuggen, fatal in der Produktion. Dass sie im fertigen Paket landen, passiert nicht durch einen raffinierten Angriff oder eine ausgerastete KI. Es passiert, weil niemand den Build-Prozess sauber konfiguriert hat. Oder weil die Konfiguration irgendwann still und leise überschrieben wurde. Oder weil schlicht niemand nachgeschaut hat.
Entwickler kennen das Muster. Es ist die vergessene .env-Datei im Git-Repository. Das Docker-Image mit eingebetteten Credentials. Die Debug-API, die seit Monaten offensteht, weil sie ja „nur intern“ ist. Genau das ist Prozessversagen.
Niemand fühlt sich zuständig
Moderne Build-Pipelines sind überaus komplex. Bundler, Transpiler, Minifier, Packager – jeder Schritt erzeugt Artefakte, jeder Schritt kann Dinge durchreichen, die nicht nach draußen gehören. Die Verantwortung dafür verteilt sich auf ein Tohuwabohu an Tools, Konfigurationsdateien und Teams. Am Ende fühlt sich niemand zuständig. „Die Pipeline macht das schon“ ist aktuell einer der gefährlichsten Sätze in der Softwareentwicklung.
Weiterlesen nach der Anzeige
Bei klassischen Projekten geht das meistens noch gut. Die Artefakte sind langweilig, der Schaden überschaubar. Bei einem KI-Tool wie Claude Code sieht das anders aus. Hier stecken im Code nicht nur Implementierungsdetails, sondern Architekturentscheidungen, Feature-Flags für unveröffentlichte Funktionen und die komplette Orchestrierungslogik eines agentischen Systems. Wer das lesen kann – und das kann jeder mit npm und etwas Geduld –, bekommt eine Blaupause frei Haus.
Tempo schlägt Sorgfalt
KI-Unternehmen stehen unter enormem Innovationsdruck. Releases folgen in kurzen Zyklen, Features müssen raus, bevor der Wettbewerber sie zeigt. In diesem Tempo bleiben Sicherheits-Gates auf der Strecke. Nicht aus Schlampigkeit oder gar Böswilligkeit, sondern aus Pragmatismus. Die nächste Demo zählt mehr als das nächste Audit.
Das Ergebnis: Tools, die tief in lokale Entwicklungsumgebungen eingreifen, Code lesen, schreiben und ausführen, werden mit derselben Release-Disziplin behandelt wie ein Frontend-Widget. Dass das schiefgeht, ist keine Überraschung. Es ist nur eine Frage der Zeit.
Bekannte Fehler, neue Dimension
Der aktuelle Vorfall wirkt nicht wie ein völlig isolierter Ausrutscher: Medienberichten zufolge ist es bereits die zweite unbeabsichtigte Offenlegung rund um Claude Code in etwas mehr als einem Jahr. Ganz allgemein kennt die Branche das Problem schon lange. OWASP listet „Cryptographic Failures“ (vormals Sensitive Data Exposure) seit Ewigkeiten in den Top Ten. Trotzdem passiert es immer wieder – nur dass die Konsequenzen wachsen.
Denn ein geleakter Quellcode ist hier mehr als ein PR-Problem. Er zeigt Wettbewerbern, wie Anthropic agentische Workflows orchestriert. Er zeigt Angreifern, wo die Logik Annahmen macht, die man ausnutzen kann. Er zeigt der Öffentlichkeit, dass ein Unternehmen, das Milliarden für KI-Sicherheit einwirbt, bei grundlegender Softwarehygiene patzt.
Firewalls helfen nicht gegen Schlamperei
Der Reflex nach solchen Vorfällen ist vorhersehbar: mehr Security-Tools, mehr Monitoring, mehr Abwehr nach außen. Aber gegen was genau? Hier gab es keinen Angreifer, den man hätte aufhalten können. Keine Firewall der Welt schützt vor einem falsch konfigurierten Build-Skript.
Was helfen würde, ist weniger spektakulär: automatisierte Prüfungen, die vor jedem Release den Paketinhalt scannen. Klare Verantwortlichkeiten im Build-Prozess. Vier-Augen-Prinzip bei Releases sensibler Tools. Alles Dinge, die in der klassischen Softwareentwicklung längst Standard sein sollten – und die offenbar auch bei einem der bestfinanzierten KI-Unternehmen der Welt nicht zuverlässig greifen.
Der eigentliche Weckruf
Und genau weil der eigentlich etablierte Prozess das Problem ist, sollte dieser Vorfall mehr beunruhigen als ein aufsehenerregender KI-Hack. Gegen die in der IT-Branche an vielen Stellen vorherrschende Nachlässigkeit hilft nur Disziplin – und die lässt sich bekanntlich schlecht skalieren.
(fo)
Künstliche Intelligenz
Lichtschwertkampf LudoSport ausprobiert: Trainieren wie ein Padawan
Ein Mann und eine Frau stehen sich in einem Ring gegenüber. Sie trägt eine schwarze Tunika, er ein braunes Hemd und weite Hosen. In ihren Händen: Schwerter mit leuchtender Klinge, seins blau, ihres rot. Elegant springen sie umeinander herum, schwingen ihre Waffen und die Klingen aus Kunststoff prallen mit einem Vvoom-Sound aufeinander.
Das ist keine Szene aus dem neuesten Star-Wars-Film, sondern ein gewöhnlicher Freitagabend in Hannover. Hier beim Sportverein Hannover 96 trainiert jede Woche ein Team LudoSport – besser bekannt als Lichtschwertkampf. Was auf den ersten Blick scheint wie ein Scherz von Star-Wars-Fans, ist ein eigenständiger Sport mit Regeln, Verein und Meisterschaft.
- Die Gründungsmeister von LudoSport nahmen Elemente aus verschiedenen Kampf- und Fechtdisziplinen und passten sie auf Lichtschwerter an.
- LudoSport steht in keinem offiziellen Zusammenhang mit Star Wars und ist ein eigenständiger Sport mit Regeln und einer Meisterschaft.
- Die speziell für den Sport designten Schwerter leuchten, machen Geräusche und reagieren auf Gesten.
Wie schwer ist es tatsächlich, ein Lichtschwert zu schwingen? Um das herauszufinden, haben wir das Hannoversche LudoSport-Team bei einem Training besucht – mit Notizblock, Kamera und der leisen Hoffnung, am Ende des Abends nicht völlig blamiert aus der Halle zu gehen.
Das war die Leseprobe unseres heise-Plus-Artikels „Lichtschwertkampf LudoSport ausprobiert: Trainieren wie ein Padawan“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
data2day 2026 setzt Schwerpunkte auf Datenprodukte, Agentic AI und Governance
Vom 7. bis 8. Oktober 2026 versammelt die data2day in Köln Data Scientists, Data Engineers und Datenteams. Das nun veröffentlichte Programm setzt unter anderem Schwerpunkte bei agentischen KI-Systemen, Datenkontrakten und moderner Lakehouse-Architektur. Die seit 2014 von iX und dpunkt.verlag organisierte Konferenz richtet sich dabei an Data Scientists, Data Engineers, Datenanalystinnen, Softwareentwickler und Teamleiterinnen. Das zweitägige Vortragsprogramm bietet sowohl Einsteiger:innen in Data Science und Machine Learning als auch Fortgeschrittenen, die sich mit Architekturen, Prozessen und Vorgehensmodellen befassen, eine breite Auswahl. Vorgeschaltet ist am 6. Oktober ein Workshop-Tag, an dem Simon Harrer von Entropy Data ein ganztägiges Seminar zu „Datenkontrakten in der Praxis“ leitet.
Weiterlesen nach der Anzeige
Agentic AI, LLMs und Evaluation als roter Faden
Das Programm zeigt, wie stark generative und agentische KI inzwischen in den Datenalltag vordringen. Matthias Niehoff von codecentric widmet sich dem „Agentic Data Engineering“ und der Frage, wie Agenten Datenpipelines bauen und reparieren können. Max Vieweg und Denise Hartmann (inovex) zeigen, wie sich Agenten-Loops systematisch tracen und evaluieren lassen.
Auch Sprachmodelle stehen mehrfach im Fokus: Björn Buchhold (CID) vergleicht Text2SQL-Ansätze von Frontier Models über Open Weights bis Fine-Tuning, und Kaan Duran (E.ON Digital Technology) erläutert, wie LLMs zur Verbesserung von Features im Machine Learning eingesetzt werden. Tobias Otte (viadee) stellt einen Semantic Layer als Brücke zwischen LLMs und Datenplattformen vor. Jan Trienes und Matthias Richter (inovex) erklären, wie sich generative KI systematisch evaluieren lässt. Sicherheits- und Zugriffsfragen kommen ebenfalls zur Sprache: Sohan Maheshwar (AuthZed) diskutiert, wie sich verhindern lässt, dass KI-Agenten auf nicht autorisierte Daten zugreifen.
Datenarchitektur, Datenqualität und Datenprodukte
Ein zweiter Themenblock dreht sich um Architektur und Datenmanagement. Sönke Liebau (Stackable) ordnet Datenkataloge als Kontrollinstanz im offenen Data Lakehouse ein, sein Kollege Florian Müller führt durch moderne Datenformate vom Microservice bis zum ML-Modell. Franz Wöllert (Heidelberger Druckmaschinen) berichtet unter dem Titel „Open Table Formats in the Wild – Reloaded“ über Erfahrungen mit Iceberg und verwandten Technologien. Andreas Buckenhofer (Adam Riese) zeigt, wie sich klassische Sternschemata und DWH-Modernisierung mit einem Cloud Lakehouse verbinden lassen. Matthias Niehoff (codecentric) und Nicolas Renkamp (Merck KGaA) gehen gemeinsam der Frage nach, ob ein Data Stack ohne Lock-in realistisch ist.
Datenqualität und Vertrauen ziehen sich durch mehrere Vorträge: Danilo Brajovic (Fraunhofer IPA) behandelt Methoden, Tools und blinde Flecken bei Datenqualität für ML, Felix Theodor (Otto Group one.O) beschreibt den Weg von handgefertigten Fixtures zu KI-generierten Testsuiten. Daria Haselhoff und Markus Nutz (METRO Markets) schildern den Aufbau stabiler Datenmodelle und -produkte. Jochen Christ (Entropy Data) argumentiert in seinem Vortrag „Data Contracts: Es geht um Vertrauen“ für vertraglich abgesicherte Datenbeziehungen.
Beim Thema Datenprodukte plädieren Ramona Casasola-Greiner und Matthias Böck (pub.tech) für Product Thinking statt reiner Use-Case-Logik. Nikolai Hofschulz (AUDI) betont die Rolle der Semantik beim Erschließen von Daten, Marc Schubert (adorsys) stellt einen föderierten Semantic Layer vor, der KPIs verknüpft, statt vereinheitlicht. Evgeniya Alekseeva (Daikin Europe) analysiert Erfolgs- und Misserfolgsfaktoren von Data-Governance-Initiativen.
Weiterlesen nach der Anzeige
Recht, Praxisberichte und industrielle Anwendungen
Industrielle und produktnahe Erfahrungsberichte runden das Programm ab. Christian Haack und Björn Wendland (ControlExpert) stellen Conformal Prediction für zuverlässige KI bei Informationsextraktion und Kostenschätzung vor. Nikita Golovko (Siemens) beschreibt einen domänengetriebenen Pfad zu industrieller KI. Eva Feigl (Forterro Deutschland Abas) diskutiert, warum Daten allein nicht reichen und welche Rolle Metriken, A/B-Tests und Produkterfolg spielen. Konstantin Hopf und Deniz Oruç Çelik (TU Chemnitz) beleuchten das Spannungsfeld zwischen Data-Science-Handwerk und Management-Erwartungen. Den rechtlichen Rahmenbedingungen widmet sich unter anderem Joerg Heidrich (Heise Medien). Er erläutert, wie sich KI im Unternehmen rechtssicher entwickeln lässt.

Jetzt zum Frühbucherpreis registrieren
Ab sofort können sich Interessierte bis zum 13. August für die data2day zum Frühbucherpreis von 1099 Euro (alle Preise zzgl. 19 % MwSt.) registrieren. Das reguläre Ticket kostet danach 1199 Euro. Die ganztägigen Workshops am Tag vor der Konferenz bieten Interessierten die Gelegenheit, ihr Know-how zu vertiefen. Sie lassen sich einzeln für 649 Euro oder im Kombiticket mit Rabatt für 1699 Euro buchen. Studierende, Schülerinnen und Schüler erhalten auf Anfrage vergünstigte Tickets – für Gruppen ab drei Personen ist eine Rabattstaffel im Ticketshop hinterlegt.
Wer über den Fortgang der Konferenz auf dem Laufenden bleiben möchte, kann den data2day-Newsletter abonnieren oder den Organisatoren auf LinkedIn folgen – der Hashtag lautet data2day.
(map)
Künstliche Intelligenz
Bericht: So soll die neue Siri-App aussehen – samt echtem Chatbot
Apples Sprachassistenzsystem Siri steht mit iOS 27 vor größeren Umbaumaßnahmen. Apple wollte den Funktionsumfang eigentlich schon vor gut zwei Jahren verbessern, konnte das aber bislang nicht umsetzen. Nun steht einem Bloomberg-Bericht zufolge eine kleine Revolution an: Apple will in Anlehnung an ChatGPT, Claude und Co., erstmals eine eigene Siri-App herausbringen, die über ein Chatbot-Interface verfügt. Neu sind diese Pläne zwar eigentlich nicht, doch soll sich der Konzern jetzt festgelegt haben.
Weiterlesen nach der Anzeige
Siri wandert in die Dynamic Island
Siri werde in iOS 27 komplett neu gebaut und bewege sich weg vom Sprachassistenzsystem hin zu einem Always-on-Agenten. Die lange angekündigte Möglichkeit, persönliche Daten auf dem iPhone kontextsensitiv zu nutzen und Aktionen in Apps durchzuführen, soll mit iOS 27 kommen. Das Interface soll sich an dem orientieren, das man von ChatGPT kennt. Siri soll zudem nun in der Dynamic Island moderner iPhones zu finden sein, sie wacht durch ein Wake-Wort oder einen längeren Druck auf den Power-Knopf auf.
Alternativ soll es auch eine neue Geste geben: Wischt man von der Mitte des Bildschirms aus nach unten, erscheint Siri mit einer „Suche oder frage“-Leiste. Aus jeder Antwort heraus soll man zudem in den Chatmodus wechseln können. Teilweise orientiert sich Apple angeblich am Spotlight-Interface. Aus dem Chat soll man mit Klick auf ein Mikrofon-Icon auch zurück in den Sprachmodus wechseln können. Antworten sollen auch aus dem Web kommen – das kennt man von Siri schon. Allerdings sollen sie durch eine interne KI-Suche aufbereitet werden.
Viele Wege führen zur KI
Neben des Siri-Aufrufs über die beschriebenen Wege gibt es wie erwähnt auch eine Standalone-App für das KI-System. Sie fasst auch frühere Konversationen zusammen, zu denen man zurückkehren kann. Es gibt eine Suchleiste und ein „+“, um neue Chats zu starten. In der Siri-App (und offenbar generell in Siri-Ansichten) kann man zudem auch Bilder und Dokumente hochladen, um über diese Fragen zu stellen.
Bloomberg berichtet weiterhin über Verbesserungen beim Bildgenerator Image Playground. Dieser soll mit neueren Modellen kommen, er gilt im Vergleich zu anderen Systemen als deutlich veraltet. Die App bekommt dafür ein leicht verbessertes Interface. Zudem soll man generierte Bilder weiter verfeinern können.
Weiterlesen nach der Anzeige
(bsc)
-
Künstliche Intelligenzvor 3 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 3 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 2 MonatenBlade‑Battery 2.0 und Flash-Charger: BYD beschleunigt Laden weiter
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Der beste Luftgütesensor im Test – CO₂, Schadstoffe & Schimmel im Blick
-
Apps & Mobile Entwicklungvor 2 MonatenMähroboter ohne Begrenzungsdraht für Gärten mit bis zu 300 m²
-
Social Mediavor 2 MonatenVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
-
Künstliche Intelligenzvor 2 MonateniPhone Fold Leak: Apple spart sich wohl iPad‑Multitasking
