Connect with us

Künstliche Intelligenz

300 Terabyte Musik und Metadaten von Spotify heruntergeladen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

„We backed up Spotify (medatada and music files)”, meldet das Archiv-Projekt Anna’s Archive. Es hat 86 Millionen Musikstücke heruntergeladen. Das entspricht den Angaben zufolge etwa 37 Prozent aller bei Spotify gehosteten Aufnahmen, aber 99,6 Prozent aller Spotify-Streamingvorgänge. Vielleicht noch wertvoller sind die fast vollständig kopierten Metadaten, von 256 Millionen Aufnahmen und 186 Millionen einzelnen ISR-Codes (International Standard Recording Codes).

Weiterlesen nach der Anzeige

Die Datensammlung von insgesamt rund 300 Terabyte wurde im Wesentlichen im Juli beendet. Legal ist sie nicht, denn Zustimmung Spotifys oder der Rechteinhaber gab es keine. Der Streaminganbieter ist entsprechend erbost. Er spricht von einem „Anti-Copyright-Angriff” und gibt an, die für die Zugriffe verwendeten Nutzerkonten deaktiviert zu haben. Neue Sicherheitsmaßnahmen sollen weitere Massendownloads hintanhalten. „Seit dem ersten Tag steht Spotify an der Seite der Künstler-Community im Kampf gegen Piraterie und arbeitet aktiv mit Branchenpartnern zusammen, um Kreative zu schützen und ihre Rechte zu verteidigen“, sagte eine PR-Firma im Auftrag Spotifys zu heise online.

Finanziell wird es für die weit überwiegende Mehrheit der Rechteinhaber keinen Unterschied machen, ob sie von Spotify oder von Anna’s Archive keine Tantiemen erhalten. Seit Anfang 2024 schüttet Spotify nichts mehr aus, wenn eine Aufnahme in einem Jahr nicht mindestens 1.000 mal gestreamt wird. Das betrifft laut Anna’s Archive über 70 Prozent aller Musikstücke. Damit gehen insbesondere Nischenkünstler und Neulinge leer aus.

Zusätzlich hat Spotify Maßnahmen gesetzt, um den an Musik-Rechteinhaber ausgeschütteten Anteil des Umsatzes zu reduzieren. Einerseits soll Spotify insgeheim Musik unter Tarnnamen produziert haben, an der es selbst die Rechte hält, und die von Spotifys Algorithmen gerne eingestreut wird.

Andererseits hat das schwedische Unternehmen Hörbücher hinzugefügt und dann eine Vertragsklausel aktiviert, um unter Verweis auf die Hörbücher die Ausschüttungen an die US-Musikverwertungsgesellschaft MLC fast zu halbieren. Ein US-Bundesbezirksgericht hat diesen Tantiementrick als vertragskonform festgestellt. In der Folge konnte Spotify nach 17 Jahren erstmals Nettogewinn melden.

Weiterlesen nach der Anzeige

Anna’s Archive möchte die rund 300 Terabyte Daten schrittweise mit dem Torrent-Protokoll online stellen. Den Anfang machen die Metadaten. Sie sind bei Insidern begehrter als die Musik, die man ja bei Streaming-Diensten finden kann.

Eine öffentliche, zentrale Sammlung aller ISRC-Datensätze fehlt hingegen bislang. Selbst der Branchenverband IFPI (International Federation of the Phonographic Industry), der seit 1988 seinen Mitgliedern die Verwendung ISRCs empfiehlt, betreibt kein Verzeichnis. Somit können Forscher keine Marktanalysen machen, Musikliebhaber nur bedingt Einblick nehmen, und die Urheber vieler in Umlauf befindlicher Aufnahmen bleiben im Dunkeln.

Am Nächsten dürfte die private Firma Word Collections kommen, die bei kooperierenden digitalen Musikdiensten Metadaten einsammelt und monatlich aktualisiert. Diese Datenbank ist allerdings nicht öffentlich. Word Collections vertritt Rechteinhaber gegenüber Streamingdiensten unter Ausklammerung von Verwertungsgesellschaften, wodurch Künstler deutlich mehr verdienen sollen. Wie heise online in Erfahrung bringen konnte, hat die jüngste ISRC-Datenbank dieser Firma 240 Millionen unterschiedliche Einträge.

Das ist ein Stück mehr als die 186 Millionen, die sich Anna’s Archive beschafft hat. Allerdings wächst Word Collections Datensammlung seit drei Monaten enorm, weil digitale Musikdienste von Dritten mit KI-generierten Dateien eingedeckt werden. Die Sammlung Annas’ Archives reicht nur bis Juli; die KI-Flut erklärt einen Teil der Differenz. Den anderen Teil erklärt die nicht lückenlose Sammlung der Metadaten von Stücken, die bei Spotify kaum gespielt werden.



Source link

Künstliche Intelligenz

Claude Code: Neuer „Fast Mode“ beschleunigt KI-Modell Opus 4.6


Wie der Anbieter Anthropic in seiner offiziellen Dokumentation mitteilt, richtet sich der neue „Fast Mode“ an Abonnenten sowie an Nutzer der Claude Console. Die Abrechnung erfolgt dabei als zusätzliche Nutzung.

Weiterlesen nach der Anzeige

Die Aktivierung des „Fast Mode“ erfolgt wahlweise über den Befehl /fast in der Kommandozeile von Claude Code oder direkt in der zugehörigen VS-Code-Erweiterung. Alternativ lässt sich der Modus durch den Eintrag "fastMode": true in der Benutzer-Einstellungsdatei permanent aktivieren, beschreibt Anthropic.

Eine Bestätigungsnachricht – „Fast mode ON“ – sowie ein Blitz-Symbol (↯) neben der Eingabeaufforderung signalisieren den aktiven Zustand. Sollte ein anderes KI-Modell in Verwendung sein, wechselt Claude Code automatisch zu Opus 4.6. Mit einer erneuten Eingabe von /fast lässt sich der Status jederzeit überprüfen.

Preislich startet der „Fast Mode“ für Opus 4.6 laut Dokumentation bei 30 US-Dollar pro 150 Millionen Token. Zum Start der Funktion wird bis zum 16. Februar ein Einführungsrabatt von 50 Prozent auf alle Pläne gewährt. Die Kosten werden als Zusatzleistung abgerechnet und belasten nicht die in den Abonnements inkludierten Ratenbegrenzungen.

Verfügbar ist der Modus für alle Nutzer mit einem Pro-, Max-, Team- oder Enterprise-Abonnement sowie für Kunden der Claude Console API. Auf Cloud-Plattformen von Drittanbietern wie Amazon Bedrock, Google Vertex AI oder Microsoft Azure ist der schnelle Modus hingegen nicht erhältlich.

Voraussetzung für die Nutzung ist die Aktivierung der Option für zusätzliche Kosten (“additional usage“), die eine Abrechnung über das im Plan enthaltene Kontingent hinaus ermöglicht. Während Inhaber von Einzelkonten diese Einstellung selbst in den Abrechnungsoptionen der Konsole vornehmen können, muss bei Team- und Enterprise-Konten ein Administrator die Funktion für die gesamte Organisation freischalten.

Weiterlesen nach der Anzeige

Standardmäßig ist der „Fast Mode“ für Organisationen mit Team- und Enterprise-Plänen deaktiviert und muss vom Administrator explizit aktiviert werden. Die entsprechende Konfiguration findet sich für API-Kunden in den Claude-Code-Präferenzen der Konsole und für Team- sowie Enterprise-Kunden in den Administratoreinstellungen unter dem Punkt „Claude Code“.

Der Anbieter empfiehlt den Einsatz des „Fast Mode“ insbesondere für Anwendungsfälle, bei denen Geschwindigkeit entscheidend ist. Dazu zählen die schnelle Iteration bei Code-Änderungen, Live-Debugging-Sitzungen sowie zeitkritische Projekte mit engen Deadlines.

Weniger geeignet ist der Modus hingegen für langlaufende, autonome Aufgaben, bei denen die Ausführungsgeschwindigkeit eine untergeordnete Rolle spielt. Auch für die Stapelverarbeitung, den Einsatz in CI/CD-Pipelines, eine Methode, mit der die Softwarebereitstellung während des Softwareentwicklungs-Lifecycles durch Automatisierung verbessert werden soll oder für besonders kostensensible Workloads wird von einer Nutzung abgeraten.

Sollten Nutzer die Ratenbegrenzungen ihres Plans erreichen, wechselt der „Fast Mode“ automatisch zur Standardgeschwindigkeit von Opus 4.6. Ein ausgegrautes Blitz-Symbol (↯) signalisiert diese temporäre Abkühlphase (Cooldown). Die Arbeit kann dann zu den regulären Preisen fortgesetzt werden, bis sich der schnelle Modus nach Ablauf der Frist selbstständig reaktiviert.

Der Anbieter kennzeichnet die Funktion als „Research Preview“. Dies impliziert, dass sich das Feature basierend auf dem Feedback der Nutzer noch ändern kann. Auch die Verfügbarkeit, die Preisgestaltung und die zugrunde liegende API-Konfiguration sind nicht final und können sich zukünftig ändern.


(tho)



Source link

Weiterlesen

Künstliche Intelligenz

Schluss mit Datensammelwut: Google macht reCAPTCHA DSGVO-konformer


Lange Zeit war der Einsatz von Googles reCAPTCHA für europäische Webseitenbetreiber ein datenschutzrechtlicher Drahtseilakt. Der Dienst soll gegen Bots und Spam schützen. Doch die Art der Datenverarbeitung sorgte regelmäßig für Kopfschmerzen in Rechtsabteilungen. Bisher agierte Google bei der Analyse von Nutzerverhalten weitgehend als eigenständiger „Datenverantwortlicher“. Das bedeutete, dass der US-Konzern selbst entschied, wie und zu welchen Zwecken die im Hintergrund gesammelten Informationen verarbeitet wurden – oft unter Verweis auf die allgemeinen Google-Datenschutzbestimmungen. Diese Ära der Unverbindlichkeit geht nun zu Ende.

Weiterlesen nach der Anzeige

Wie Google angekündigt hat, steht ein Richtungswechsel bevor. Zum 2. April 2026 stellt der Tech-Riese das Betriebsmodell von reCAPTCHA weltweit um. Der Dienst wandelt sich von einem Angebot mit eigener Datenhoheit hin zu einer klassischen Auftragsverarbeitung.

Damit gliedert sich der Bot-Schutz in die Riege der professionellen Google Cloud Services ein und folgt künftig denselben Compliance-Vorgaben, die Kunden bereits von der Cloud-Plattform des Hyperscalers kennen. Der Schritt geht über eine formale Anpassung der Allgemeinen Geschäftsbedingungen hinaus: er verschiebt das Machtgefüge in der Datenverarbeitung zugunsten der Betreiber.

In der Praxis bedeutet die Transformation, dass vom Frühjahr an die Webseitenbetreiber selbst in die Rolle des „Data Controllers“ schlüpfen. Sie bestimmen damit Zweck und Mittel der Datenverarbeitung, während Google lediglich als „Data Processor“ agiert. Google verarbeitet die auf den Kunden-Webseiten erhobenen Daten also nur noch nach strengen Anweisungen der jeweiligen Betreiber.

Damit reagiert das Unternehmen auf anhaltende Kritik von Datenschützern. Sie monierten, dass Nutzerdaten aus Sicherheitsabfragen unbemerkt in die riesigen Profiling-Töpfe des Werbekonzerns fließen könnten. Mit der neuen Struktur wird eine klare Trennwand eingezogen: Die erhobenen Informationen dürfen fortan nur noch für die Bereitstellung, Wartung und Sicherheit des reCAPTCHA-Dienstes selbst verwendet werden.

Besonders deutlich dürfte die Änderung für die Anwender sein. Wer eine Webseite aufruft, die durch reCAPTCHA geschützt ist, sieht im kleinen Logo-Badge oft noch den Hinweis auf die Google-Datenschutzerklärung und die Nutzungsbedingungen des Konzerns. Diese Verweise werden ab dem Stichtag verschwinden. Da die Nutzer nicht mehr den allgemeinen Google-Bedingungen unterworfen sind, entfällt die direkte rechtliche Verknüpfung im Widget. Google fordert seine Kunden proaktiv dazu auf, bestehende manuelle Hinweise auf die Google-Privacy-Policy im Zusammenhang mit reCAPTCHA von ihren Präsenzen zu entfernen, um der neuen Rechtslage gerecht zu werden.

Weiterlesen nach der Anzeige

Technisch gesehen soll der Übergang für Admins weitgehend geräuschlos erfolgen. Google versichert, dass es keine Unterbrechungen im Service geben werde. Bestehende Site-Keys behielten ihre Gültigkeit. Auch die Funktionsweise von Sicherheitsfunktionen wie Account Defense oder SMS-Schutz bleibe unangetastet. Interessant ist indes die strategische Einbettung: Da alle Classic-Keys bereits in die Cloud-Plattform migriert wurden, erfolgt die Verarbeitung nun einheitlich im Rahmen des sogenannten Cloud Data Processing Addendum. Dieser Zusatz soll Firmen die benötigte Rechtssicherheit geben, da die Datenverarbeitung nun zweckgebunden auf die Bedrohungserkennung und Betrugsprävention limitiert ist.

Der Wandel kommt zu einem kritischen Zeitpunkt. In einer Ära, in der KI nicht nur zur Abwehr, sondern auch zur Erstellung immer raffinierterer Bots genutzt wird, steigt der Bedarf an verlässlichen Verifizierungswerkzeugen. Webseitenbetreiber können prinzipiell künftig mit deutlich weniger Bedenken argumentieren, dass der Einsatz des Tools zur Wahrung berechtigter Interessen nach der Datenschutz-Grundverordnung (DSGVO) erfolgt. Denn die Gefahr, Nutzerrechte durch unkontrolliertes Tracking zu verletzen, ist erst einmal vom Tisch.

Lesen Sie auch


(nie)



Source link

Weiterlesen

Künstliche Intelligenz

Tipps für Microsofts Sysinternals-Werkzeuge | heise online


Eine Sammlung kostenloser Werkzeuge, mit denen Sie Windows so richtig tief unter die Haube schauen und dort herumschrauben können, das ist die Sysinternals-Suite. Zu den Klassikern aus der Suite gehören „Autoruns“ (zeigt alle Programme, die Windows beim Hochfahren automatisch mitstartet), der „Process Explorer“ (ein alternativer Taskmanager) und der „Process Monitor“, der alle (!) Zugriffe auf Laufwerke und Registry protokolliert. Es stecken aber noch über 70 weitere Werkzeuge in der Suite.

  • Sämtliche Systemwerkzeuge der Sysinternals-Suite lassen sich auf verschiedenen Wegen auf den Rechner holen, etwa per Browser, Store und sogar mit dem Explorer.
  • Den Umgang mit den Kommandozeilenprogrammen aus der Suite erleichtern Sie sich mit dem Anpassen einer Systemvariable.
  • Für manche Programme haben wir spezielle Tipps, die Ihnen viel Zeit sparen.

Geschrieben wurden die Werkzeuge von Mark Russinovich und seinen Kollegen von der Firma Winternals, und zwar meist noch vor der Übernahme durch Microsoft vor mittlerweile zwei Jahrzehnten. Heute arbeitet er dort als Chief Technology Officer für Azure. Die längst auf die Microsoft-Website umgezogenen Sysinternals-Programme werden dennoch stets aktuell gehalten.

Hier soll es allerdings nicht darum gehen, was Sie mit den einzelnen Werkzeugen alles anfangen können (Details dazu finden Sie hier: nützliche Profi-Tools aus der Sysinternals Suite). Stattdessen finden Sie hier Tipps, wie Sie die Programme mit möglichst wenig Aufwand erhalten und starten können.


Das war die Leseprobe unseres heise-Plus-Artikels „Tipps für Microsofts Sysinternals-Werkzeuge“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Beliebt