Connect with us

Künstliche Intelligenz

Claude Code geleakt: Milliarden für KI-Sicherheit, null für Softwarehygiene


Es klingt nach dem nächsten großen Skandal: Über 500.000 Zeilen Quellcode von Anthropics CLI-Tool Claude Code tauchen öffentlich auf. Die Security-Community horcht auf, Wettbewerber reiben sich die Hände, Kommentatoren wittern den nächsten Beweis, dass KI eh an allem schuld ist. Doch wer genauer hinschaut, findet keine ausgeklügelte Attacke, keinen Zero-Day-Exploit, nicht einmal Social Engineering. Sondern schlicht eine Source Map im npm-Paket, die da nicht hingehörte. Also bloß ein vergessener Schalter in der Build-Pipeline. System scheint hier nur die Schludrigkeit zu haben.

Weiterlesen nach der Anzeige


Ein Kommentar von Moritz Förster

Ein Kommentar von Moritz Förster

Moritz Förster schreibt seit 2012 für die iX und heise online. Er betreut neben dem iX-Channel den Bereich Arbeitsplatz.

Source Maps sind nützliche Helfer in der Entwicklung. Sie bilden kompilierten Code zurück auf den lesbaren Quelltext – unverzichtbar beim Debuggen, fatal in der Produktion. Dass sie im fertigen Paket landen, passiert nicht durch einen raffinierten Angriff oder eine ausgerastete KI. Es passiert, weil niemand den Build-Prozess sauber konfiguriert hat. Oder weil die Konfiguration irgendwann still und leise überschrieben wurde. Oder weil schlicht niemand nachgeschaut hat.

Entwickler kennen das Muster. Es ist die vergessene .env-Datei im Git-Repository. Das Docker-Image mit eingebetteten Credentials. Die Debug-API, die seit Monaten offensteht, weil sie ja „nur intern“ ist. Genau das ist Prozessversagen.

Moderne Build-Pipelines sind überaus komplex. Bundler, Transpiler, Minifier, Packager – jeder Schritt erzeugt Artefakte, jeder Schritt kann Dinge durchreichen, die nicht nach draußen gehören. Die Verantwortung dafür verteilt sich auf ein Tohuwabohu an Tools, Konfigurationsdateien und Teams. Am Ende fühlt sich niemand zuständig. „Die Pipeline macht das schon“ ist aktuell einer der gefährlichsten Sätze in der Softwareentwicklung.

Weiterlesen nach der Anzeige

Bei klassischen Projekten geht das meistens noch gut. Die Artefakte sind langweilig, der Schaden überschaubar. Bei einem KI-Tool wie Claude Code sieht das anders aus. Hier stecken im Code nicht nur Implementierungsdetails, sondern Architekturentscheidungen, Feature-Flags für unveröffentlichte Funktionen und die komplette Orchestrierungslogik eines agentischen Systems. Wer das lesen kann – und das kann jeder mit npm und etwas Geduld –, bekommt eine Blaupause frei Haus.

KI-Unternehmen stehen unter enormem Innovationsdruck. Releases folgen in kurzen Zyklen, Features müssen raus, bevor der Wettbewerber sie zeigt. In diesem Tempo bleiben Sicherheits-Gates auf der Strecke. Nicht aus Schlampigkeit oder gar Böswilligkeit, sondern aus Pragmatismus. Die nächste Demo zählt mehr als das nächste Audit.

Das Ergebnis: Tools, die tief in lokale Entwicklungsumgebungen eingreifen, Code lesen, schreiben und ausführen, werden mit derselben Release-Disziplin behandelt wie ein Frontend-Widget. Dass das schiefgeht, ist keine Überraschung. Es ist nur eine Frage der Zeit.

Der aktuelle Vorfall wirkt nicht wie ein völlig isolierter Ausrutscher: Medienberichten zufolge ist es bereits die zweite unbeabsichtigte Offenlegung rund um Claude Code in etwas mehr als einem Jahr. Ganz allgemein kennt die Branche das Problem schon lange. OWASP listet „Cryptographic Failures“ (vormals Sensitive Data Exposure) seit Ewigkeiten in den Top Ten. Trotzdem passiert es immer wieder – nur dass die Konsequenzen wachsen.

Denn ein geleakter Quellcode ist hier mehr als ein PR-Problem. Er zeigt Wettbewerbern, wie Anthropic agentische Workflows orchestriert. Er zeigt Angreifern, wo die Logik Annahmen macht, die man ausnutzen kann. Er zeigt der Öffentlichkeit, dass ein Unternehmen, das Milliarden für KI-Sicherheit einwirbt, bei grundlegender Softwarehygiene patzt.

Der Reflex nach solchen Vorfällen ist vorhersehbar: mehr Security-Tools, mehr Monitoring, mehr Abwehr nach außen. Aber gegen was genau? Hier gab es keinen Angreifer, den man hätte aufhalten können. Keine Firewall der Welt schützt vor einem falsch konfigurierten Build-Skript.

Was helfen würde, ist weniger spektakulär: automatisierte Prüfungen, die vor jedem Release den Paketinhalt scannen. Klare Verantwortlichkeiten im Build-Prozess. Vier-Augen-Prinzip bei Releases sensibler Tools. Alles Dinge, die in der klassischen Softwareentwicklung längst Standard sein sollten – und die offenbar auch bei einem der bestfinanzierten KI-Unternehmen der Welt nicht zuverlässig greifen.

Und genau weil der eigentlich etablierte Prozess das Problem ist, sollte dieser Vorfall mehr beunruhigen als ein aufsehenerregender KI-Hack. Gegen die in der IT-Branche an vielen Stellen vorherrschende Nachlässigkeit hilft nur Disziplin – und die lässt sich bekanntlich schlecht skalieren.


(fo)



Source link

Künstliche Intelligenz

Lichtschwertkampf LudoSport ausprobiert: Trainieren wie ein Padawan


Ein Mann und eine Frau stehen sich in einem Ring gegenüber. Sie trägt eine schwarze Tunika, er ein braunes Hemd und weite Hosen. In ihren Händen: Schwerter mit leuchtender Klinge, seins blau, ihres rot. Elegant springen sie umeinander herum, schwingen ihre Waffen und die Klingen aus Kunststoff prallen mit einem Vvoom-Sound aufeinander.

Das ist keine Szene aus dem neuesten Star-Wars-Film, sondern ein gewöhnlicher Freitagabend in Hannover. Hier beim Sportverein Hannover 96 trainiert jede Woche ein Team LudoSport – besser bekannt als Lichtschwertkampf. Was auf den ersten Blick scheint wie ein Scherz von Star-Wars-Fans, ist ein eigenständiger Sport mit Regeln, Verein und Meisterschaft.

  • Die Gründungsmeister von LudoSport nahmen Elemente aus verschiedenen Kampf- und Fechtdisziplinen und passten sie auf Lichtschwerter an.
  • LudoSport steht in keinem offiziellen Zusammenhang mit Star Wars und ist ein eigenständiger Sport mit Regeln und einer Meisterschaft.
  • Die speziell für den Sport designten Schwerter leuchten, machen Geräusche und reagieren auf Gesten.

Wie schwer ist es tatsächlich, ein Lichtschwert zu schwingen? Um das herauszufinden, haben wir das Hannoversche LudoSport-Team bei einem Training besucht – mit Notizblock, Kamera und der leisen Hoffnung, am Ende des Abends nicht völlig blamiert aus der Halle zu gehen.


Das war die Leseprobe unseres heise-Plus-Artikels „Lichtschwertkampf LudoSport ausprobiert: Trainieren wie ein Padawan“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

data2day 2026 setzt Schwerpunkte auf Datenprodukte, Agentic AI und Governance


Vom 7. bis 8. Oktober 2026 versammelt die data2day in Köln Data Scientists, Data Engineers und Datenteams. Das nun veröffentlichte Programm setzt unter anderem Schwerpunkte bei agentischen KI-Systemen, Datenkontrakten und moderner Lakehouse-Architektur. Die seit 2014 von iX und dpunkt.verlag organisierte Konferenz richtet sich dabei an Data Scientists, Data Engineers, Datenanalystinnen, Softwareentwickler und Teamleiterinnen. Das zweitägige Vortragsprogramm bietet sowohl Einsteiger:innen in Data Science und Machine Learning als auch Fortgeschrittenen, die sich mit Architekturen, Prozessen und Vorgehensmodellen befassen, eine breite Auswahl. Vorgeschaltet ist am 6. Oktober ein Workshop-Tag, an dem Simon Harrer von Entropy Data ein ganztägiges Seminar zu „Datenkontrakten in der Praxis“ leitet.

Weiterlesen nach der Anzeige

Das Programm zeigt, wie stark generative und agentische KI inzwischen in den Datenalltag vordringen. Matthias Niehoff von codecentric widmet sich dem „Agentic Data Engineering“ und der Frage, wie Agenten Datenpipelines bauen und reparieren können. Max Vieweg und Denise Hartmann (inovex) zeigen, wie sich Agenten-Loops systematisch tracen und evaluieren lassen.

Auch Sprachmodelle stehen mehrfach im Fokus: Björn Buchhold (CID) vergleicht Text2SQL-Ansätze von Frontier Models über Open Weights bis Fine-Tuning, und Kaan Duran (E.ON Digital Technology) erläutert, wie LLMs zur Verbesserung von Features im Machine Learning eingesetzt werden. Tobias Otte (viadee) stellt einen Semantic Layer als Brücke zwischen LLMs und Datenplattformen vor. Jan Trienes und Matthias Richter (inovex) erklären, wie sich generative KI systematisch evaluieren lässt. Sicherheits- und Zugriffsfragen kommen ebenfalls zur Sprache: Sohan Maheshwar (AuthZed) diskutiert, wie sich verhindern lässt, dass KI-Agenten auf nicht autorisierte Daten zugreifen.

Ein zweiter Themenblock dreht sich um Architektur und Datenmanagement. Sönke Liebau (Stackable) ordnet Datenkataloge als Kontrollinstanz im offenen Data Lakehouse ein, sein Kollege Florian Müller führt durch moderne Datenformate vom Microservice bis zum ML-Modell. Franz Wöllert (Heidelberger Druckmaschinen) berichtet unter dem Titel „Open Table Formats in the Wild – Reloaded“ über Erfahrungen mit Iceberg und verwandten Technologien. Andreas Buckenhofer (Adam Riese) zeigt, wie sich klassische Sternschemata und DWH-Modernisierung mit einem Cloud Lakehouse verbinden lassen. Matthias Niehoff (codecentric) und Nicolas Renkamp (Merck KGaA) gehen gemeinsam der Frage nach, ob ein Data Stack ohne Lock-in realistisch ist.

Datenqualität und Vertrauen ziehen sich durch mehrere Vorträge: Danilo Brajovic (Fraunhofer IPA) behandelt Methoden, Tools und blinde Flecken bei Datenqualität für ML, Felix Theodor (Otto Group one.O) beschreibt den Weg von handgefertigten Fixtures zu KI-generierten Testsuiten. Daria Haselhoff und Markus Nutz (METRO Markets) schildern den Aufbau stabiler Datenmodelle und -produkte. Jochen Christ (Entropy Data) argumentiert in seinem Vortrag „Data Contracts: Es geht um Vertrauen“ für vertraglich abgesicherte Datenbeziehungen.

Beim Thema Datenprodukte plädieren Ramona Casasola-Greiner und Matthias Böck (pub.tech) für Product Thinking statt reiner Use-Case-Logik. Nikolai Hofschulz (AUDI) betont die Rolle der Semantik beim Erschließen von Daten, Marc Schubert (adorsys) stellt einen föderierten Semantic Layer vor, der KPIs verknüpft, statt vereinheitlicht. Evgeniya Alekseeva (Daikin Europe) analysiert Erfolgs- und Misserfolgsfaktoren von Data-Governance-Initiativen.

Weiterlesen nach der Anzeige

Industrielle und produktnahe Erfahrungsberichte runden das Programm ab. Christian Haack und Björn Wendland (ControlExpert) stellen Conformal Prediction für zuverlässige KI bei Informationsextraktion und Kostenschätzung vor. Nikita Golovko (Siemens) beschreibt einen domänengetriebenen Pfad zu industrieller KI. Eva Feigl (Forterro Deutschland Abas) diskutiert, warum Daten allein nicht reichen und welche Rolle Metriken, A/B-Tests und Produkterfolg spielen. Konstantin Hopf und Deniz Oruç Çelik (TU Chemnitz) beleuchten das Spannungsfeld zwischen Data-Science-Handwerk und Management-Erwartungen. Den rechtlichen Rahmenbedingungen widmet sich unter anderem Joerg Heidrich (Heise Medien). Er erläutert, wie sich KI im Unternehmen rechtssicher entwickeln lässt.


Fotos von der data2day 2025

Fotos von der data2day 2025

Ab sofort können sich Interessierte bis zum 13. August für die data2day zum Frühbucherpreis von 1099 Euro (alle Preise zzgl. 19 % MwSt.) registrieren. Das reguläre Ticket kostet danach 1199 Euro. Die ganztägigen Workshops am Tag vor der Konferenz bieten Interessierten die Gelegenheit, ihr Know-how zu vertiefen. Sie lassen sich einzeln für 649 Euro oder im Kombiticket mit Rabatt für 1699 Euro buchen. Studierende, Schülerinnen und Schüler erhalten auf Anfrage vergünstigte Tickets – für Gruppen ab drei Personen ist eine Rabattstaffel im Ticketshop hinterlegt.

Wer über den Fortgang der Konferenz auf dem Laufenden bleiben möchte, kann den data2day-Newsletter abonnieren oder den Organisatoren auf LinkedIn folgen – der Hashtag lautet data2day.


(map)



Source link

Weiterlesen

Künstliche Intelligenz

Bericht: So soll die neue Siri-App aussehen – samt echtem Chatbot


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Apples Sprachassistenzsystem Siri steht mit iOS 27 vor größeren Umbaumaßnahmen. Apple wollte den Funktionsumfang eigentlich schon vor gut zwei Jahren verbessern, konnte das aber bislang nicht umsetzen. Nun steht einem Bloomberg-Bericht zufolge eine kleine Revolution an: Apple will in Anlehnung an ChatGPT, Claude und Co., erstmals eine eigene Siri-App herausbringen, die über ein Chatbot-Interface verfügt. Neu sind diese Pläne zwar eigentlich nicht, doch soll sich der Konzern jetzt festgelegt haben.

Weiterlesen nach der Anzeige

Siri werde in iOS 27 komplett neu gebaut und bewege sich weg vom Sprachassistenzsystem hin zu einem Always-on-Agenten. Die lange angekündigte Möglichkeit, persönliche Daten auf dem iPhone kontextsensitiv zu nutzen und Aktionen in Apps durchzuführen, soll mit iOS 27 kommen. Das Interface soll sich an dem orientieren, das man von ChatGPT kennt. Siri soll zudem nun in der Dynamic Island moderner iPhones zu finden sein, sie wacht durch ein Wake-Wort oder einen längeren Druck auf den Power-Knopf auf.

Alternativ soll es auch eine neue Geste geben: Wischt man von der Mitte des Bildschirms aus nach unten, erscheint Siri mit einer „Suche oder frage“-Leiste. Aus jeder Antwort heraus soll man zudem in den Chatmodus wechseln können. Teilweise orientiert sich Apple angeblich am Spotlight-Interface. Aus dem Chat soll man mit Klick auf ein Mikrofon-Icon auch zurück in den Sprachmodus wechseln können. Antworten sollen auch aus dem Web kommen – das kennt man von Siri schon. Allerdings sollen sie durch eine interne KI-Suche aufbereitet werden.

Neben des Siri-Aufrufs über die beschriebenen Wege gibt es wie erwähnt auch eine Standalone-App für das KI-System. Sie fasst auch frühere Konversationen zusammen, zu denen man zurückkehren kann. Es gibt eine Suchleiste und ein „+“, um neue Chats zu starten. In der Siri-App (und offenbar generell in Siri-Ansichten) kann man zudem auch Bilder und Dokumente hochladen, um über diese Fragen zu stellen.

Bloomberg berichtet weiterhin über Verbesserungen beim Bildgenerator Image Playground. Dieser soll mit neueren Modellen kommen, er gilt im Vergleich zu anderen Systemen als deutlich veraltet. Die App bekommt dafür ein leicht verbessertes Interface. Zudem soll man generierte Bilder weiter verfeinern können.

Weiterlesen nach der Anzeige


(bsc)



Source link

Weiterlesen

Beliebt