Connect with us

Künstliche Intelligenz

Hitparade: Youtube liefert Billboard keine Streaming-Statistik mehr


Plötzlich war er da, von Null auf Nummer 1 der Billboard Hot 100: der bis kurz davor unbekannte Baauer mit „Harlem Shake“. Das war vor fast 13 Jahren, im Februar 2013. Als Allererster ohne frühere Top-100-Platzierung noch wochenlange TV-Präsenz in „American Idol” schaffte Baauer es ganz an die Spitze. Denn damals flossen zum allerersten Mal Youtube-Abrufe von Musikstücken in die Billboard-Hitparade mit ein, was diese durcheinanderwirbelte. Diese Zusammenarbeit endet, weil Youtube seine Daten zurückhalten wird.

Weiterlesen nach der Anzeige

Nach dem 16.1.2026 verrät Youtube Billboard nicht mehr, welche Musikstücke wie oft abgerufen wurden. Hintergrund ist ein Disput über die unterschiedliche Gewichtung abgerufener Streams, die über ein Konto mit Bezahlabo abgerufen werden, und jener, die ausschließlich werbefinanziert laufen. Youtube besteht darauf, beide Streamvarianten gleich zu werten; ein Stream sei ein Stream, egal, wie er finanziert werde.

Schon vor 2013 bestimmten Verkäufe physischer Tonträger, bezahlte digitale Downloads (ab Februar 2005), Airplay terrestrischer Radiostationen, On-Demand Audio-Streaming bestimmter Abonnement-Dienste (ab August 2007) sowie Webradio in die Singles-Hitparade. Seit Februar 2013 ist auch Youtubes Statistik Teil der Formel, deren Details nicht öffentlich sind. Schon davor hatten die beiden Unternehmen zwei Jahre lang verhandelt.

2018 begann Billboard zwischen werbefinanzierten und abofinanzierten On-Demand-Streams zu unterscheiden. Letztere zählten dreifach. Seit Anfang 2020 fließen Streaming-Statistiken auch in die Album-Hitparade Billboard 200 mit ein, wobei ebenfalls ein Verhältnis von 3:1 gilt. 3.750 werbefinanzierte Videostreams, egal welchen auf einem Album enthaltenen Stückes, entsprechen 1 verkauften Album. 1.250 Streams reichen dann für eine rechnerische Verkaufseinheit, wenn sie von zahlenden Abonnenten abgerufen werden.

Vergangene Woche hat Billboard angekündigt, die Hürden zu senken: Ab dem zweiten Tag des neuen Jahres entsprechen 1.000 Abonnement-Streams eines einzelnen Stücks 1 verkauften physischen Tonträger oder bezahlten Albumdownload. 2.500 Streams müssen es sein, wenn der Abrufende kein Bezahlabo hat.

Damit wird das Verhältnis von 3:1 auf 2,5:1 geändert. Das gilt auch für die Singles-Hitparade Billboard 100. Die ersten nach der neuen Methode berechneten Charts erscheinen am 17.1.2026 und erfassen Daten aus dem Zeitraum 2. bis 8.1.

Damit geht Billboard zwar einen Schritt auf Youtube zu, dessen Management reicht das aber nicht. Youtubes Musikchef Lyor Cohen spricht von einer „veralteten Formel” und meint: „Sie reflektiert nicht, wie Fans heute mit Musik interagieren, und ignoriert die massive Befassung mit Musik durch Fans ohne Abonnement.” Um diesen Standpunkt zu untermauern, ruft er den Datenstreik aus: „Nach 16.1.2016 werden unsere Daten nicht mehr an Billboard geliefert.”

Weiterlesen nach der Anzeige


(ds)



Source link

Künstliche Intelligenz

KI-Wettrüsten: Techriesen investieren dieses Jahr 650 Milliarden US-Dollar


Das Wettrüsten um KI-Vorherrschaft nimmt epochale Ausmaße an: Alphabet, Amazon, Meta und Microsoft planen für dieses Jahr Ausgaben von insgesamt 650 Milliarden US-Dollar in die KI-Infrastruktur. Diese Investitionsausgaben vermerken die Konzerne als Capital Expenditures (Capex) aufsummiert in ihren Jahresgeschäftsberichten.

Weiterlesen nach der Anzeige

Das Niveau der Kapitaloffensive ist so hoch, dass Bloomberg Parallelen zu historischen Ereignissen wie dem Ausbau des US-Eisenbahnnetzes im 19. Jahrhundert oder den Hilfsprogrammen der New-Deal-Ära zieht. Das Wirtschaftsmagazin prognostiziert, dass die Konzerne in diesem Jahr allein so viel in KI investieren könnten wie in den letzten drei Jahren insgesamt – oder sogar noch mehr.

Auf Microsoft und Meta entfallen rund 105 Milliarden beziehungsweise 135 Milliarden US-Dollar, während Googles Muttergesellschaft Alphabet Investitionen in Höhe von bis zu 185 Milliarden US-Dollar plant. Rekordhalter ist Amazon mit angekündigten 200 Milliarden US-Dollar an prognostizierten Ausgaben. Bei den Zahlen handelt es sich um die jeweiligen Maximalangaben.

Angesichts der Investitionsspirale und der Sorge vor einer KI-Blase sind die Kurse der Techriesen eingesackt. Zusammengenommen ist ihr Börsenwert nach den Ankündigungen laut Bloomberg um 640 Milliarden US-Dollar gefallen. Eine Summe, die fast exakt den geplanten Aufwendungen entspricht.

Der Großteil dieser Mittel fließt in Rechenzentren, die KI-Dienste der nächsten Generation antreiben sollen. Hinter der Kapitaloffensive steht die Hoffnung, dass große Sprachmodelle künftig eine zentrale Rolle im Alltag und Berufsleben einnehmen werden. Die Nervosität an der Börse offenbart jedoch erhebliche Zweifel: Viele Beobachter sind skeptisch, ob und in welchem Zeitraum die immensen Investitionen der Konzerne rentable Realität werden.

Die gewaltigen Infrastrukturprojekte wirken sich derweil negativ auf andere Branchen aus: Da die Tech-Giganten essenzielle Hardware-Komponenten für ihre Rechenzentren aufkaufen oder lieber KI-Beschleuniger statt Grafikkarten produzieren, führt diese Entwicklung zu Engpässen, die sich in höheren Speicherpreisen und Produktverschiebungen von Unterhaltungselektronik niederschlagen.

Weiterlesen nach der Anzeige


(tobe)



Source link

Weiterlesen

Künstliche Intelligenz

Olympische Winterspiele in Cloud: Alibaba macht Milano Cortina zum KI-Testlabor


Wenn am Freitagabend die Olympischen Winterspiele in Milano Cortina offiziell eröffnet werden, findet der wichtigste Wettbewerb für die IT-Branche hinter den Kulissen statt. Es geht um die Deutungshoheit über das, was wir sehen – und wie es verarbeitet wird. Alibaba Cloud, seit 2017 fester Partner des Internationalen Olympischen Komitees (IOC), hat seine Präsenz dieses Jahr massiv ausgebaut. Ging es früher primär um Hosting und die Ablösung teurer Satellitenstrecken, rückt 2026 die generative KI ins Zentrum. Erstmals sollen große Sprachmodelle (LLM) den gesamten Workflow von der Produktion bis zum Archiv dominieren.

Weiterlesen nach der Anzeige

Das Herzstück dieser Entwicklung ist Alibabas KI-Modellfamilie Qwen. Die Technik soll das leisten, was menschliche Redaktionen bei der Flut an Videomaterial kaum noch bewältigen können: das Erstellen von Metadaten in Echtzeit. Das System „Automatic Media Description“ (AMD) scannt die Feeds, erkennt Athleten sowie Schlüsselmomente und schreibt die passenden Beschreibungen nahezu simultan mit.

Was für Rundfunkanstalten nach einer enormen Effizienzsteigerung klingt, markiert gleichzeitig den Abschied von der rein menschlichen Einordnung des sportlichen Geschehens. Wenn Algorithmen darüber entscheiden, welche Szenen als „Highlight“ markiert werden, delegiert das IOC die redaktionelle Vorauswahl an die Software eines chinesischen Tech-Giganten.

Dass bei den Spielen in Italien ausgerechnet Qwen den Ton angibt und nicht etwa OpenAI mit GPT-4 oder Google mit Gemini, ist kein technischer Zufall, sondern das Ergebnis knallharter Sportpolitik. Alibaba sicherte sich bereits 2017 im Rahmen des Olympischen-Partner-Programms einen Platz im exklusiven Sponsoren-Olymp. Der Exklusivvertrag läuft bis 2028 und hat ein geschätztes Volumen von über 800 Millionen US-Dollar.

Das IOC bindet sich durch diese langfristigen Verträge an den Fahrplan seiner Partner. Das hat Folgen: Alibaba liefert nicht nur die Rechenpower. Der Konzern diktiert durch die Integration in die offiziellen Plattformen auch, welche KI-Standards für Rundfunksender weltweit gelten. Ein Wechsel zu potenziell leistungsfähigeren Modellen ist innerhalb der Vertragslaufzeit rechtlich und wirtschaftlich kaum darstellbar.

Weiterlesen nach der Anzeige

Auch für die Zuschauer am Bildschirm wird die KI sichtbarer. In 17 Sportarten, darunter Eishockey und Eiskunstlauf, kommen weiterentwickelte „360-Grad-Replay-Systeme“ zum Einsatz. Deren Ziel ist eine möglichst vollständige räumliche Rekonstruktion: Innerhalb von weniger als 20 Sekunden berechnet die KI aus verschiedenen Kameraperspektiven ein 3D-Modell der Szene. Neu sind die sogenannten „Spacetime Slices“, die Bewegungsabläufe stroboskopartig in einem Bild einfrieren. Technisch ist das beeindruckend, da die Algorithmen die Athleten präzise von komplexen Hintergründen wie wirbelndem Schnee oder spiegelndem Eis trennen müssen.

Mit dieser Initiative versucht das IOC, den Sport in eine Ästhetik zu überführen, die sonst eher aus High-End-Animationen bekannt ist. Doch diese Perfektion hat ihren Preis: Die Grenze zwischen realem Videomaterial und einer KI-generierten Rekonstruktion wird durchlässiger. In einer Zeit, in der Deepfakes und KI-Manipulationen zunehmen, ist das Vertrauen in das „echte“ Bild ein hohes Gut, das hier zugunsten des Show-Effekts aufs Spiel gesetzt wird.

Die Cloud-Abhängigkeit von heute ist die Endstufe einer Entwicklung, die vor Jahrzehnten begann. In der Ära von IBM – einem IOC-Partner von 1960 bis 2000 – ging es primär um die reine Datenverarbeitung. Ergebnisse wurden damals mühsam auf Großrechnern erfasst. Legendär blieb das Desaster von Atlanta 1996, als das Info-System von IBM unter der Last zusammenbrach und Journalisten falsche Ergebnisse lieferte. Danach übernahm Atos das Ruder und fokussierte sich über Jahrzehnte auf die Systemintegration und Cybersicherheit, wobei die Rechenzentren physisch vor Ort oder in regionalen Hubs betrieben wurden.

Der radikale Bruch erfolgte mit Tokio 2020 und Peking 2022. Alibaba verlagerte die Kernsysteme erstmals vollständig in die Cloud. War IT früher eine unterstützende Infrastruktur, ist sie heute das zentrale Nervensystem. Diese Zentralisierung spart zwar Kosten, macht das Weltereignis aber auch anfälliger für geopolitische Spannungen und technologische Fehler.

Die Ambitionen reichen weit über das Live-Bild hinaus. Das IOC lässt Alibaba auch an sein „Gedächtnis“. Im Olympischen Museum in Lausanne und in den internen Archiven wird Qwen als digitaler Bibliothekar eingesetzt. Über acht Petabyte an historischem Material sollen durch KI-Tagging und natürliche Sprachabfragen durchsuchbar gemacht werden. Was oberflächlich wie ein praktisches Tool für Historiker wirkt, bedeutet faktisch die vollständige algorithmische Erschließung der olympischen Geschichte.

Das System „Sports AI“ automatisiert zudem die Kategorisierung von Jahrzehnten an Videomaterial. Das wirft Fragen auf: Wenn eine KI entscheidet, welche emotionalen Reaktionen „relevant“ sind, entsteht ein gefilterter Blick auf die Vergangenheit. So könnte eine technologische Glättung stattfinden, bei der nur noch das für die Cloud optimierte, leicht konsumierbare Bildmaterial an die Oberfläche gespült wird.

Die wirtschaftliche Logik dahinter ist simpel: Das IOC will die Kosten für Rundfunkübertragungen senken. Die „Live Cloud“ ist mittlerweile der Standard für die Distribution. 39 Broadcaster greifen 2026 auf über 400 Feeds zu, ohne dass teure Satellitenkapazitäten gebucht werden müssen. Das senkt die Eintrittshürden für kleinere Sender, erhöht aber die Abhängigkeit von einer einzigen Infrastruktur. Sollte Alibabas Cloud-Infrastruktur haken, könnten die Bildschirme bei Dutzenden Rechteinhabern gleichzeitig schwarz bleiben.


(mki)



Source link

Weiterlesen

Künstliche Intelligenz

Studie: Designer-Wissen macht KI-generierte UIs deutlich besser


Wer schon mal eine KI gebeten hat, ihm ein User-Interface für eine App vorzuschlagen, dürfte vielfach die Hände über dem Kopf zusammengeschlagen haben. Obwohl es gewiss nicht an Trainingsmaterial mangelt, beweisen Large Language Models kein gutes Händchen dafür, daraus etwas Ästhetisches und zugleich gut Nutzbares zu generieren. Speist man aber das Feedback professioneller Designer ein, sieht der Fall schon ganz anders aus. Dies hat Apple in einer Studie untersucht und die Ergebnisse in seinem Machine-Learning-Blog veröffentlicht.

Weiterlesen nach der Anzeige

Das Problem mit den User-Interfaces ist demnach, dass das klassische Anlernen der KI offenbar für Design-Belange völlig unzureichend ist. Bei der herkömmlichen Methode, dem verstärkenden Lernen aus menschlichen Rückmeldungen, vergibt ein Mensch Noten für die Erzeugnisse der KI. Mit dieser Methode, die während des Finetunings in der Trainingsphase eines neuen Modells angewendet wird, soll die KI gut von schlecht unterscheiden können. Doch in der Realität funktioniert das bei Designs dann trotzdem nicht so gut.

Die Apple-Forscher haben stattdessen eine komplexere Methode angewendet, die auch dem Feedback-Prozess in Designabteilungen entspricht. Mithilfe von 21 professionellen Designern wurden Designs mit Kommentaren und mit Strichzeichnungen versehen oder direkt verändert. Dieses Trainingsmaterial – insgesamt 1500 Anmerkungen – hat das Team in die Trainingsdaten eingespeist. Auf diese Weise wusste die KI nicht nur, ob etwas gut oder schlecht ist, sondern auch, warum. Mit sichtbarem Erfolg, wie die Apple-Forscher in dem Papier darlegen: Die Ergebnisse der KI wurden erneut einer professionellen Bewertung unterzogen. Im Vergleich zu den KI-generierten Designs anderer Modelle, darunter auch GPT-5 von OpenAI, habe das speziell trainierte Modell am besten abgeschnitten.

Wofür Apple die gewonnenen Erkenntnisse verwenden möchte, bleibt – wie bei diesen Forschungspapieren üblich – offen. Neben reiner Grundlagenforschung wäre aber zum Beispiel denkbar, dass Apple sein Designteam künftig mit KI-Hilfe unterstützen möchte. Auch im Bereich der Werkzeuge für Entwickler wäre ein KI-Modell, das unerfahrene Developer beim Erstellen geeigneter User-Interfaces für ihre Apps unterstützt, eine große Hilfe.

Bei der Studie kam Qwen2.5-Coder als Basis-Modell zum Einsatz. Die 21 professionellen Designer verfügten über zwei bis 30 Jahre Berufserfahrung und kamen aus den Bereichen UI/UX, Produktdesign und Servicedesign.

Weiterlesen nach der Anzeige


(mki)



Source link

Weiterlesen

Beliebt