Künstliche Intelligenz
Richtig skalieren: Vom Monitoring Stack zur Observability-Plattform
Monitoring gilt im modernen Software Engineering längst als Selbstverständlichkeit – oder, wie es im Englischen heißt, als Commodity: eine standardisierte Leistung, die man am besten günstig von spezialisierten Anbietern einkauft. Doch wie Dominik Schmidle in seinem Talk während der Online-Konferenz Mastering Observability 2025 anmerkt, können kommerzielle Monitoring-Services ab einer gewissen Systemgröße sehr schnell sehr teuer werden. Daher drängt sich unweigerlich die Frage „Selber bauen oder einkaufen?“ auf, wenn klassische Monitoring Stacks bei wachsender Systemkomplexität an ihre Grenzen stoßen.
Weiterlesen nach der Anzeige
(Bild: AtemisDiana/Shutterstock)

Mehr zu Observability bietet die Online-Konferenz Mastering Observability von iX und dpunkt.verlag am 16. April 2026. Die Konferenz widmet sich unter anderem den Herausforderungen automatisierter Observability für KI- und agentenbasierte Systeme.
Individuelle Teamaufgabe oder übergreifendes Produkt?
Mit steigender Komplexität der zu verwaltenden Systeme wächst auch der Aufwand für deren Überwachung – bis hin zu einer grundlegenden organisatorischen Entscheidung: Bleibt Monitoring lediglich eine Komponente innerhalb der einzelnen verantwortlichen Teams, oder wird es zu einem eigenständigen, teamübergreifenden Produkt? Genau dieser Frage geht Schmidle in seinem Talk „Think Big: Monitoring Stack war gestern – Observability Platform at scale!“ anhand eines konkreten Praxisbeispiels nach: einer B2B-Plattform für Kubernetes Cluster Fleet Management.
Der Vortrag zeichnet die Monitoring-Geschichte dieser Plattform nach, die intern beim IT-Dienstleister Giant Swarm entstanden ist – einem Anbieter eines kuratierten Platform Engineering Stack. Dominik Schmidle teilt dazu nicht nur die im Prozess gesammelten Erfahrungen, sondern erläutert auch im Detail, wie sich mit fokussiertem Produkt-Denken und geeigneten Plattform-Mustern in der Praxis schließlich Mehrwert schaffen lässt, der bis hin zum Endkunden wirkt.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier eine Vimeo-Video (Vimeo LLC) geladen.
Mastering Observability 2025: Think Big: Monitoring Stack war gestern – Observability Platform at scale! (Dominik Schmiedle)
Über den Speaker

Dominik Schmidle ist Technischer Produktmanager bei Giant Swarm. Er startete seine Karriere vor über sieben Jahren als Full-Stack-Software-Engineer, fand seine Leidenschaft in DevOps und Produktmanagement und spezialisierte sich mit dem Wechsel zum Produktmanager auf Cloud-Technologie. Sein erklärtes Ziel: das Leben von Entwicklern durch intuitive Entwickler-Plattformen zu vereinfachen. Schmidle engagiert sich darüber hinaus aktiv in der Cloud-Community.
Weiterlesen nach der Anzeige
(map)
Künstliche Intelligenz
OpenAI trackt in den USA per Cookies für personalisierte Werbung
Für Nutzer in den Vereinigten Staaten hat OpenAI seine Datenschutzerklärung angepasst. Wer Dienste wie ChatGPT oder Codex weiter verwenden will, muss diesen zustimmen. Neu ist darin insbesondere die erstmalige Erwähnung von „Marketingpartnern“, mit denen Daten des Nutzers geteilt und für die Cookies gesetzt werden können. Das heißt: Auch bei Nutzung anderer Dienste, wie einer Social-Media-App, könnten persönliche Daten unter anderem für Werbung und die Identifizierung von Anwendern verwendet werden.
Weiterlesen nach der Anzeige
Da unter anderem Verwender von ChatGPT mit dem Bot oft persönlichste Informationen teilen, weist OpenAI einem Bericht von Wired zufolge darauf hin, dass Inhalte aus den Chats nicht weitergegeben werden sollen. Wörtlich schreibt das KI-Unternehmen aber von „targeted advertising“, was sich auch auf der Webseite von OpenAI in der „US privacy policy“ findet. Für Werbepartner soll das Tracking auch zielgerichtete Werbung in Apps wie ChatGPT ermöglichen, diese sollen optisch deutlich von Chatinhalten abgetrennt sein.
Opt-Out ist möglich
Wired hat die Voreinstellungen in OpenAI-Apps mit zwei Gratis-Accounts und zwei bezahlten Konten überprüft. Bei den Gratisnutzern war unter „Settings / Data Controls / Marketing Privacy“ das Tracking aktiviert, bei je einem „Plus“ und „Enterprise“-Account war es ausgeschaltet. Es handelt sich also offenbar um eine Opt-Out-Funktion, die bei Gratisnutzern standardmäßig aktiviert ist.
Bereits Anfang des Jahres 2026 hatte OpenAI angekündigt, dass es aus Kostengründen verstärkt auf Werbung setzen wird. Im Februar präzisierte das Unternehmen dann seine Richtlinien dafür, insbesondere im Hinblick auf persönliche Daten aus den Apps. Die neue Privacy Policy ist nun die Umsetzung dieser Vorhaben. Ob und wann entsprechende Funktionen auch in der Europäischen Union eingeführt werden, ist noch nicht abzusehen. Hier gelten für personenbezogene Daten höhere Hürden, unter anderem durch die DSGVO und den DSA.
Lesen Sie auch
Weiterlesen nach der Anzeige
(nie)
Künstliche Intelligenz
Anthropics aussichtsloser Kampf gegen den Leak von Claude Code
Ein Moment der Unachtsamkeit reichte aus, um die mühsam errichteten Mauern um eines der wertvollsten Geheimnisse der KI-Industrie einzureißen. Was als „menschliches Versagen“ bei Anthropic begann, hat sich innerhalb weniger Wochen zu einem handfesten Skandal entwickelt, der die Grundfesten des digitalen Urheberrechts erschüttert.
Weiterlesen nach der Anzeige
Im Zentrum steht der Quelltext von Claude Code: einem Werkzeug, das Programmierer bei der Softwareentwicklung unterstützt. Unlängst berichteten Beobachter über den vermeintlichen Diebstahl geistigen Eigentums durch einen Modell-Abgriff („Destillation“). Doch das war erst der Anfang der Sorgen für das KI-Startup. Eine versehentlich veröffentlichte Source-Map-Datei gab den Blick auf über eine halbe Million Zeilen Quellcode frei und löste eine Kettenreaktion aus, welche die Entwickler-Community in Aufruhr versetzte.
Der Sicherheitsforscher Chaofan Shou war einer der Ersten, der die Datei in einem öffentlichen Verzeichnis von Anthropic bemerkte. Damit ließ sich der kompilierte Code auf die ursprünglichen Quelldateien zurückführen. Bald darauf landete der originale Quellcode im Netz.
In der Welt von Open Source ist das Spiegeln von Inhalten und das Erstellen von Forks gängige Praxis. So verbreitete sich das Datenpaket binnen Stunden auf GitHub, bevor Anthropic den Fehler bemerken und das Original löschen konnte. Die Reaktion des Unternehmens war drakonisch: Über 8100 Löschanträge nach dem Digital Millennium Copyright Act (DMCA) gingen laut dem Blog IPKat raus, um die Verbreitung der Kopien zu stoppen. Doch die Geister, die Anthropic rief, ließen sich nicht so leicht bändigen.
Die Architektur der autonomen Agenten im Rampenlicht
Was das Leck so brisant macht, ist der Expertenanalyse zufolge die Natur des veröffentlichten Materials. Es handelte sich nicht um Details zur Funktion von Sprachmodellen wie Opus oder Sonnet, sondern um die Softwarearchitektur, die die Interaktion mit diesen steuert. Claude Code ist so wertvoll, weil es eine sehr effiziente Art darstellt, wie KI Software schreibt. Das Leck legte offen, wie das System Kontexte für Nutzeranfragen zusammenstellt und das sogenannte agentische Framework funktioniert.
Solche autonomen Agenten gelten als nächster Schritt in der KI-Evolution: Sie arbeiten nicht mehr nur vordefinierte Pfade ab. Vielmehr treffen sie eigenständige Entscheidungen, nutzen Werkzeuge und korrigieren ihre Anweisungen während des Prozesses selbst. Für die Konkurrenz von Anthropic war dieser Einblick eine Goldgrube, um eigene Systeme zu verbessern.
Zugleich wirft der Vorfall neue juristische Fragen auf. Pikant wird er durch den Umstand, dass Claude Code dem Vernehmen nach zu rund 90 Prozent von Claude selbst geschrieben wurde. Wenn eine KI ihren eigenen Quelltext verfasst, wie sieht es dann mit der Urheberschaft aus? US-Gerichte stellten mehrfach klar, dass vollautonome KI-Erzeugnisse keinen Copyright-Schutz genießen. Der Mensch muss das entscheidende Element der Schöpfung sein. Wenn Anthropic nun versucht, Rechte an Code durchzusetzen, der größtenteils von einer Maschine stammt, begibt sich die Firma aufs Glatteis.
Weiterlesen nach der Anzeige
Claw-Code: Der agile Gegenschlag der Community
Die Entwicklergemeinde reagierte auf die Löschwelle mit der Flucht nach vorn. Innerhalb kürzester Zeit erschien Claw-Code, eine in Python neu geschriebene Version der Kernarchitektur. Sie geht auf die koreanische Entwicklerin Sigrid Jin unter Mithilfe einer anderen KI – OpenAIs Codex – zurück. Claw-Code avancierte zum am schnellsten wachsenden Repository in der Geschichte von GitHub.
Die Claw-Code-Macher stellen darauf ab, dass ihr Projekt keine proprietären Dateien von Anthropic enthalte. Es sei eine unabhängige Neuentwicklung. Anthropic steht damit vor dem Dilemma, dass seine KI-gestützten Rechtsabteilungen prüfen müssen, ob eine KI-übersetzte Version ihres KI-generierten Codes eine Copyright-Verletzung darstellt.
Die Masse an Löschaufforderungen verdeutlicht auch ein systemisches Problem des DMCA-Verfahrens. Anthropic ließ zunächst tausende Repositories sperren, nur um die Forderungen rasch auf knapp hundert gezielt betroffene Kopien einzuschränken. Kritiker fordern schon lange Reformen, da das aktuelle System Plattformbetreiber zwingt, Inhalte ohne gerichtliche Prüfung oder Beweise sofort zu entfernen. Für die KI-Branche wirkt das Copyright zunehmend veraltet: Wenn KI-Assistenten genutzt werden, andere KI-Systeme zu analysieren und nachzubauen, stoßen die klassischen Konzepte von Kopie und Original an ihre Grenzen.
Die Ironie bei der Geschichte: Anthropic versucht, sein digitales Versailles mit juristischen Mitteln zu verteidigen. Entwickler weltweit nutzen parallel genau jene Werkzeuge, die Anthropic und seine Konkurrenten perfektioniert haben, um rechtliche Grenzen zu verwischen.
Claw-Code existiert weiterhin und wird etwa von Elon Musks xAI dankend angenommen. Der Fall zeigt, dass die Ära, in der Immaterialgüterrecht durch bloße Geheimhaltung von Quellcode geschützt werden konnte, vorbei sein dürfte. Das könnte die Machtverhältnisse in der Softwarewelt umwälzen.
Lesen Sie auch
(nie)
Künstliche Intelligenz
Tesla gibt zu: Hardware alter Modelle reicht nicht für vollautonomes Fahren
Tausende US-Dollar oder Euro haben viele Tesla-Besitzer vor mehreren Jahren für die Aussicht auf autonomes Fahren gezahlt, bis heute warten sie aber vergeblich darauf. Das wird auch bis auf Weiteres so bleiben: Wie Tesla-Chef Elon Musk jetzt klarmachte, sind gleich mehrere Komponenten von diesen älteren Fahrzeugen technisch unzureichend für FSD.
Weiterlesen nach der Anzeige
Für seine Full-Self-Driving-Technologie (FSD) verbaute Tesla im Verlauf der vergangenen rund 12 Jahre vier Generationen von Rüstsätzen in seinen Autos, welche die Namen Hardware 1 bis Hardware 4 tragen. Im April 2019 begann der Verkauf von Fahrzeugen mit Hardware 3 (HW3). Das Paket gab es für eine einmalige Gebühr von 10.000 US-Dollar, beziehungsweise 6.800 Euro beim Kauf eines Teslas dazu, vollständig autonomes Fahren war zu diesem Zeitpunkt aber nicht mehr als eine vielbeschworene Zukunftsvision Teslas. Viele Kunden kauften ihren Tesla mit der Aussicht, dass das vollständig autonome Fahren mit HW3 später durch entsprechende Softwareupdates möglich würde.
„Leider verfügt HW3 nicht über die nötigen Fähigkeiten“
Inzwischen bei Hardware-Generation 4 angekommen, machte Elon Musk jetzt offiziell, was viele schon befürchtet hatten: Vollautonomes Fahren, das wird mit HW3 ohne umfangreiche Nachrüstung nicht möglich sein. In einer Telefonkonferenz zum Verlauf des ersten Finanzquartals bei Tesla ging er auf das Thema ein (im Mitschnitt ab Minute 31). „Leider verfügt Hardware 3 nicht über die nötigen Fähigkeiten, um unbeaufsichtigtes FSD zu realisieren – ich wünschte, es wäre anders“, erklärte Musk.
„Wir dachten tatsächlich einmal, dass sie das könnte, aber im Vergleich zu Hardware 4 verfügt sie nur über ein Achtel der Speicherbandbreite von Hardware 4, und Speicherbandbreite ist eines der Schlüsselelemente, die für unbeaufsichtigtes FSD benötigt werden“, sagte Musk. Für Kunden, die Hardware 3 gekauft haben, wolle Tesla einen „vergünstigten Trade-In“ für ein Fahrzeug mit Hardware 4 anbieten. „Wir werden auch die Möglichkeit anbieten, das Auto aufzurüsten, um den Computer auszutauschen, und leider muss man auch die Kameras austauschen, um auf Hardware 4 umzusteigen“, sagte er.
Weiterlesen nach der Anzeige
Für Nachrüstungen im großen Stil bräuchte es aus Musks Sicht „Mikrofabriken“ in Metropolregionen, beim lokalen Teslapartner wären die Maßnahmen zu aufwendig. Musk hält diesen Schritt für sinnvoll, da sich die nachgerüsteten Fahrzeuge damit auch in Teslas Robotaxi-Flotte einbinden lassen würden. Auf die Zeitplanung ging Musk nicht ein. Es dürfte aber – sollte Tesla diese Pläne wirklich jemals umsetzen – noch Jahre dauern. Für die Zwischenzeit verspricht Tesla ein weiteres Softwareupdate für HW3.
Tesla-Besitzer wehren sich
Viele betroffene Tesla-Besitzer wollen sich mit diesem Zustand nicht mehr zufriedengeben. Der Niederländer Mischa Sigtermans ist einer von ihnen und startete jetzt eine Webseite, über die sich betroffene europäische Tesla-Besitzer registrieren können. Er strebt eine Sammelklage oder eine Massenklage nach dem niederländischen Recht an. Für niederländische Tesla-Besitzer ist die HW3-Schlappe besonders bitter, denn sie leben im einzigen europäischen Land, in dem FSD bisher zugelassen ist. Dort ist für Teslas aber bisher nur ein Assistenzsystem nach Level 2 erlaubt, der Fahrer muss jederzeit wieder die Kontrolle übernehmen können und ist auch stets verantwortlich.
Ein Tesla-Besitzer in den USA klagte bereits erfolgreich gegen den Autohersteller. Von einem Small Claims Court, im US-Recht ein Gericht speziell für kleine Streitigkeiten, bekam er die Rückzahlung der vollen FSD-Gebühr in Höhe von 10.600 US-Dollar zugesprochen. Das hatte allerdings auch damit zu tun, dass Tesla überhaupt nicht auf Kontaktversuche des Gerichts reagierte. Aktuell tut der Autohersteller alles, um die Zahlungsfrist noch irgendwie zu verzögern, berichtet das E-Auto-Magazin Elektrek.
Bei der Technologie fürs autonome Fahren geht Tesla einen ganz eigenen Weg: Musk ist fest davon überzeugt, dass Fahrzeuge hierfür allein mit Kameras und künstlicher Intelligenz auskommen. Andere Anbieter wie Waymo setzen für ihre Robotaxis zusätzlich auch auf Lidar und Radar, das die Umgebung der Fahrzeuge abtastet.
Lesen Sie auch
(nen)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 3 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 3 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 3 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 2 MonatenBlade‑Battery 2.0 und Flash-Charger: BYD beschleunigt Laden weiter
-
Social Mediavor 1 MonatVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
