Künstliche Intelligenz
X4 Air von Insta360 im Test: Preiswerter Rundumblick
Apple kennzeichnet seine leichteren, kostengünstigeren Geräte, die im Vergleich zu den Profimodellen einige Features weniger bieten, mit dem Zusatz „Air“. Das Konzept hat der Kamerahersteller Insta360 ebenfalls für sich entdeckt.
Die 400 Euro teure X4 Air (ab 329 €) richtet sich an Einsteiger, die 360-Grad-Videos drehen, aber nicht auf Profifunktionen verzichten wollen. Wie bei der X4 (ab 333 €) (480 Euro und X5 (ab 479 €) (590 Euro) handelt es sich um eine Actioncam mit zwei Objektiven und Bildsensoren, die jeweils mit einer Auflösung von bis zu 8K aufnehmen können. Die Elektronik setzt beide Bilder zusammen, sodass ein Kugelpanorama entsteht.

(Bild: Melissa Ramson / heise medien)
Alternativ filmt man nur mit einem Objektiv.
Das war die Leseprobe unseres heise-Plus-Artikels „X4 Air von Insta360 im Test: Preiswerter Rundumblick“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
OpenAI trackt in den USA per Cookies für personalisierte Werbung
Für Nutzer in den Vereinigten Staaten hat OpenAI seine Datenschutzerklärung angepasst. Wer Dienste wie ChatGPT oder Codex weiter verwenden will, muss diesen zustimmen. Neu ist darin insbesondere die erstmalige Erwähnung von „Marketingpartnern“, mit denen Daten des Nutzers geteilt und für die Cookies gesetzt werden können. Das heißt: Auch bei Nutzung anderer Dienste, wie einer Social-Media-App, könnten persönliche Daten unter anderem für Werbung und die Identifizierung von Anwendern verwendet werden.
Weiterlesen nach der Anzeige
Da unter anderem Verwender von ChatGPT mit dem Bot oft persönlichste Informationen teilen, weist OpenAI einem Bericht von Wired zufolge darauf hin, dass Inhalte aus den Chats nicht weitergegeben werden sollen. Wörtlich schreibt das KI-Unternehmen aber von „targeted advertising“, was sich auch auf der Webseite von OpenAI in der „US privacy policy“ findet. Für Werbepartner soll das Tracking auch zielgerichtete Werbung in Apps wie ChatGPT ermöglichen, diese sollen optisch deutlich von Chatinhalten abgetrennt sein.
Opt-Out ist möglich
Wired hat die Voreinstellungen in OpenAI-Apps mit zwei Gratis-Accounts und zwei bezahlten Konten überprüft. Bei den Gratisnutzern war unter „Settings / Data Controls / Marketing Privacy“ das Tracking aktiviert, bei je einem „Plus“ und „Enterprise“-Account war es ausgeschaltet. Es handelt sich also offenbar um eine Opt-Out-Funktion, die bei Gratisnutzern standardmäßig aktiviert ist.
Bereits Anfang des Jahres 2026 hatte OpenAI angekündigt, dass es aus Kostengründen verstärkt auf Werbung setzen wird. Im Februar präzisierte das Unternehmen dann seine Richtlinien dafür, insbesondere im Hinblick auf persönliche Daten aus den Apps. Die neue Privacy Policy ist nun die Umsetzung dieser Vorhaben. Ob und wann entsprechende Funktionen auch in der Europäischen Union eingeführt werden, ist noch nicht abzusehen. Hier gelten für personenbezogene Daten höhere Hürden, unter anderem durch die DSGVO und den DSA.
Lesen Sie auch
Weiterlesen nach der Anzeige
(nie)
Künstliche Intelligenz
Anthropics aussichtsloser Kampf gegen den Leak von Claude Code
Ein Moment der Unachtsamkeit reichte aus, um die mühsam errichteten Mauern um eines der wertvollsten Geheimnisse der KI-Industrie einzureißen. Was als „menschliches Versagen“ bei Anthropic begann, hat sich innerhalb weniger Wochen zu einem handfesten Skandal entwickelt, der die Grundfesten des digitalen Urheberrechts erschüttert.
Weiterlesen nach der Anzeige
Im Zentrum steht der Quelltext von Claude Code: einem Werkzeug, das Programmierer bei der Softwareentwicklung unterstützt. Unlängst berichteten Beobachter über den vermeintlichen Diebstahl geistigen Eigentums durch einen Modell-Abgriff („Destillation“). Doch das war erst der Anfang der Sorgen für das KI-Startup. Eine versehentlich veröffentlichte Source-Map-Datei gab den Blick auf über eine halbe Million Zeilen Quellcode frei und löste eine Kettenreaktion aus, welche die Entwickler-Community in Aufruhr versetzte.
Der Sicherheitsforscher Chaofan Shou war einer der Ersten, der die Datei in einem öffentlichen Verzeichnis von Anthropic bemerkte. Damit ließ sich der kompilierte Code auf die ursprünglichen Quelldateien zurückführen. Bald darauf landete der originale Quellcode im Netz.
In der Welt von Open Source ist das Spiegeln von Inhalten und das Erstellen von Forks gängige Praxis. So verbreitete sich das Datenpaket binnen Stunden auf GitHub, bevor Anthropic den Fehler bemerken und das Original löschen konnte. Die Reaktion des Unternehmens war drakonisch: Über 8100 Löschanträge nach dem Digital Millennium Copyright Act (DMCA) gingen laut dem Blog IPKat raus, um die Verbreitung der Kopien zu stoppen. Doch die Geister, die Anthropic rief, ließen sich nicht so leicht bändigen.
Die Architektur der autonomen Agenten im Rampenlicht
Was das Leck so brisant macht, ist der Expertenanalyse zufolge die Natur des veröffentlichten Materials. Es handelte sich nicht um Details zur Funktion von Sprachmodellen wie Opus oder Sonnet, sondern um die Softwarearchitektur, die die Interaktion mit diesen steuert. Claude Code ist so wertvoll, weil es eine sehr effiziente Art darstellt, wie KI Software schreibt. Das Leck legte offen, wie das System Kontexte für Nutzeranfragen zusammenstellt und das sogenannte agentische Framework funktioniert.
Solche autonomen Agenten gelten als nächster Schritt in der KI-Evolution: Sie arbeiten nicht mehr nur vordefinierte Pfade ab. Vielmehr treffen sie eigenständige Entscheidungen, nutzen Werkzeuge und korrigieren ihre Anweisungen während des Prozesses selbst. Für die Konkurrenz von Anthropic war dieser Einblick eine Goldgrube, um eigene Systeme zu verbessern.
Zugleich wirft der Vorfall neue juristische Fragen auf. Pikant wird er durch den Umstand, dass Claude Code dem Vernehmen nach zu rund 90 Prozent von Claude selbst geschrieben wurde. Wenn eine KI ihren eigenen Quelltext verfasst, wie sieht es dann mit der Urheberschaft aus? US-Gerichte stellten mehrfach klar, dass vollautonome KI-Erzeugnisse keinen Copyright-Schutz genießen. Der Mensch muss das entscheidende Element der Schöpfung sein. Wenn Anthropic nun versucht, Rechte an Code durchzusetzen, der größtenteils von einer Maschine stammt, begibt sich die Firma aufs Glatteis.
Weiterlesen nach der Anzeige
Claw-Code: Der agile Gegenschlag der Community
Die Entwicklergemeinde reagierte auf die Löschwelle mit der Flucht nach vorn. Innerhalb kürzester Zeit erschien Claw-Code, eine in Python neu geschriebene Version der Kernarchitektur. Sie geht auf die koreanische Entwicklerin Sigrid Jin unter Mithilfe einer anderen KI – OpenAIs Codex – zurück. Claw-Code avancierte zum am schnellsten wachsenden Repository in der Geschichte von GitHub.
Die Claw-Code-Macher stellen darauf ab, dass ihr Projekt keine proprietären Dateien von Anthropic enthalte. Es sei eine unabhängige Neuentwicklung. Anthropic steht damit vor dem Dilemma, dass seine KI-gestützten Rechtsabteilungen prüfen müssen, ob eine KI-übersetzte Version ihres KI-generierten Codes eine Copyright-Verletzung darstellt.
Die Masse an Löschaufforderungen verdeutlicht auch ein systemisches Problem des DMCA-Verfahrens. Anthropic ließ zunächst tausende Repositories sperren, nur um die Forderungen rasch auf knapp hundert gezielt betroffene Kopien einzuschränken. Kritiker fordern schon lange Reformen, da das aktuelle System Plattformbetreiber zwingt, Inhalte ohne gerichtliche Prüfung oder Beweise sofort zu entfernen. Für die KI-Branche wirkt das Copyright zunehmend veraltet: Wenn KI-Assistenten genutzt werden, andere KI-Systeme zu analysieren und nachzubauen, stoßen die klassischen Konzepte von Kopie und Original an ihre Grenzen.
Die Ironie bei der Geschichte: Anthropic versucht, sein digitales Versailles mit juristischen Mitteln zu verteidigen. Entwickler weltweit nutzen parallel genau jene Werkzeuge, die Anthropic und seine Konkurrenten perfektioniert haben, um rechtliche Grenzen zu verwischen.
Claw-Code existiert weiterhin und wird etwa von Elon Musks xAI dankend angenommen. Der Fall zeigt, dass die Ära, in der Immaterialgüterrecht durch bloße Geheimhaltung von Quellcode geschützt werden konnte, vorbei sein dürfte. Das könnte die Machtverhältnisse in der Softwarewelt umwälzen.
Lesen Sie auch
(nie)
Künstliche Intelligenz
Tesla gibt zu: Hardware alter Modelle reicht nicht für vollautonomes Fahren
Tausende US-Dollar oder Euro haben viele Tesla-Besitzer vor mehreren Jahren für die Aussicht auf autonomes Fahren gezahlt, bis heute warten sie aber vergeblich darauf. Das wird auch bis auf Weiteres so bleiben: Wie Tesla-Chef Elon Musk jetzt klarmachte, sind gleich mehrere Komponenten von diesen älteren Fahrzeugen technisch unzureichend für FSD.
Weiterlesen nach der Anzeige
Für seine Full-Self-Driving-Technologie (FSD) verbaute Tesla im Verlauf der vergangenen rund 12 Jahre vier Generationen von Rüstsätzen in seinen Autos, welche die Namen Hardware 1 bis Hardware 4 tragen. Im April 2019 begann der Verkauf von Fahrzeugen mit Hardware 3 (HW3). Das Paket gab es für eine einmalige Gebühr von 10.000 US-Dollar, beziehungsweise 6.800 Euro beim Kauf eines Teslas dazu, vollständig autonomes Fahren war zu diesem Zeitpunkt aber nicht mehr als eine vielbeschworene Zukunftsvision Teslas. Viele Kunden kauften ihren Tesla mit der Aussicht, dass das vollständig autonome Fahren mit HW3 später durch entsprechende Softwareupdates möglich würde.
„Leider verfügt HW3 nicht über die nötigen Fähigkeiten“
Inzwischen bei Hardware-Generation 4 angekommen, machte Elon Musk jetzt offiziell, was viele schon befürchtet hatten: Vollautonomes Fahren, das wird mit HW3 ohne umfangreiche Nachrüstung nicht möglich sein. In einer Telefonkonferenz zum Verlauf des ersten Finanzquartals bei Tesla ging er auf das Thema ein (im Mitschnitt ab Minute 31). „Leider verfügt Hardware 3 nicht über die nötigen Fähigkeiten, um unbeaufsichtigtes FSD zu realisieren – ich wünschte, es wäre anders“, erklärte Musk.
„Wir dachten tatsächlich einmal, dass sie das könnte, aber im Vergleich zu Hardware 4 verfügt sie nur über ein Achtel der Speicherbandbreite von Hardware 4, und Speicherbandbreite ist eines der Schlüsselelemente, die für unbeaufsichtigtes FSD benötigt werden“, sagte Musk. Für Kunden, die Hardware 3 gekauft haben, wolle Tesla einen „vergünstigten Trade-In“ für ein Fahrzeug mit Hardware 4 anbieten. „Wir werden auch die Möglichkeit anbieten, das Auto aufzurüsten, um den Computer auszutauschen, und leider muss man auch die Kameras austauschen, um auf Hardware 4 umzusteigen“, sagte er.
Weiterlesen nach der Anzeige
Für Nachrüstungen im großen Stil bräuchte es aus Musks Sicht „Mikrofabriken“ in Metropolregionen, beim lokalen Teslapartner wären die Maßnahmen zu aufwendig. Musk hält diesen Schritt für sinnvoll, da sich die nachgerüsteten Fahrzeuge damit auch in Teslas Robotaxi-Flotte einbinden lassen würden. Auf die Zeitplanung ging Musk nicht ein. Es dürfte aber – sollte Tesla diese Pläne wirklich jemals umsetzen – noch Jahre dauern. Für die Zwischenzeit verspricht Tesla ein weiteres Softwareupdate für HW3.
Tesla-Besitzer wehren sich
Viele betroffene Tesla-Besitzer wollen sich mit diesem Zustand nicht mehr zufriedengeben. Der Niederländer Mischa Sigtermans ist einer von ihnen und startete jetzt eine Webseite, über die sich betroffene europäische Tesla-Besitzer registrieren können. Er strebt eine Sammelklage oder eine Massenklage nach dem niederländischen Recht an. Für niederländische Tesla-Besitzer ist die HW3-Schlappe besonders bitter, denn sie leben im einzigen europäischen Land, in dem FSD bisher zugelassen ist. Dort ist für Teslas aber bisher nur ein Assistenzsystem nach Level 2 erlaubt, der Fahrer muss jederzeit wieder die Kontrolle übernehmen können und ist auch stets verantwortlich.
Ein Tesla-Besitzer in den USA klagte bereits erfolgreich gegen den Autohersteller. Von einem Small Claims Court, im US-Recht ein Gericht speziell für kleine Streitigkeiten, bekam er die Rückzahlung der vollen FSD-Gebühr in Höhe von 10.600 US-Dollar zugesprochen. Das hatte allerdings auch damit zu tun, dass Tesla überhaupt nicht auf Kontaktversuche des Gerichts reagierte. Aktuell tut der Autohersteller alles, um die Zahlungsfrist noch irgendwie zu verzögern, berichtet das E-Auto-Magazin Elektrek.
Bei der Technologie fürs autonome Fahren geht Tesla einen ganz eigenen Weg: Musk ist fest davon überzeugt, dass Fahrzeuge hierfür allein mit Kameras und künstlicher Intelligenz auskommen. Andere Anbieter wie Waymo setzen für ihre Robotaxis zusätzlich auch auf Lidar und Radar, das die Umgebung der Fahrzeuge abtastet.
Lesen Sie auch
(nen)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 3 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 3 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 3 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 2 MonatenBlade‑Battery 2.0 und Flash-Charger: BYD beschleunigt Laden weiter
-
Social Mediavor 1 MonatVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
