Connect with us

Künstliche Intelligenz

Marktforscher: Streaming-Nutzung erreichte im Dezember 2025 neue Rekordzahlen


Im Dezember und insbesondere am ersten Weihnachtstag des vergangenen Jahres haben Streaming-Anbieter in den Vereinigten Staaten neue Rekorde aufgestellt. Die Marktforscher von Nielsen haben am 25.12.2025 55,1 Milliarden Sehminuten bei den Streaming-Diensten gemessen, was den bisherigen Rekord vom selben Tag des Vorjahres um 8 Prozent übertroffen hat. Das lag vor allem an drei Spielen der nordamerikanischen Football-Liga NFL sowie dem an diesem Tag erstmals verfügbaren Finale der TV-Serie „Stranger Things“.

Weiterlesen nach der Anzeige

Gleichzeitig bedeutet dies, dass 54 Prozent aller TV-Geräte in den USA an diesem Tag für Streaming verwendet wurden, ebenfalls ein Rekord für die Streaming-Nutzung eines Tages. Insgesamt erreichte Streaming im Dezember einen Anteil von 47,5 Prozent der Fernsehzeit, während traditionelles Fernsehen (Broadcast) auf 21,4 Prozent und Kabelfernsehen auf 20,2 Prozent kam. Zum Streaming zählt Nielsen aber nicht nur Netflix, Disney+ und Amazons Prime Video, sondern auch YouTube. Googles Videoplattform ist mit 12,7 Prozent der Anbieter mit den meisten Sehminuten.


Marktanteile von TV und Streaming

Marktanteile von TV und Streaming

Marktanteile von TV und Streaming im Dezember 2025

(Bild: Nielsen)

Netflix profitierte nicht nur von „Stranger Things“, einer der erfolgreichsten englischsprachigen Serien aller Zeiten, sondern auch von den beiden NFL-Spielen, die der Streaming-Marktführer seit letztem Jahr zu Weihnachten live zeigt. Ende 2024 konnte Netflix wohl auch damit 19 Millionen Kunden Neukunden gewinnen. Im Dezember 2025 konnte Netflix die Zuschauerzahlen gegenüber dem Vormonat um 10 Prozent steigern, wobei „Stranger Things“ in dem Monat der meistgesehene Streaming-Titel war, und 9 Prozent des Fernsehmarkts erreichen.

Auch Amazon setzt für Prime Video auf mehr Live-Sport und hatte sich deshalb die Donnerstagsspiele der NFL gesichert. Da der erste Weihnachtstag 2025 ein Donnerstag war, konnte auch Amazon zum Streaming-Konsum an diesem Tag beitragen und verzeichnete dabei ein Rekordspiel. Im gesamten Dezember erzielte Prime Video 4,3 Prozent der TV-Einschaltquote, im Monatsabstand ein Plus von 12 Prozent, was einen neuen und um 0,3 Prozent höheren Plattformrekord darstellt. Neben den NFL-Donnerstagsspielen profitiert Amazon auch von der neuen Staffel der TV-Serie „Fallout“, schreibt Nielsen.

Auch traditionelles und Kabelfernsehen erzielen mit Live-Sportübertragungen in den USA die höchsten Einschaltquoten. Zwei NFL-Spiele am 28. und 21. Dezember belegen die Spitzenplätze bei den Fernsehprogrammen der Sender CBS und FOX und beim Kabelfernsehen sind fünf NFL-Spiele die meistgesehenen Sendungen des Monats. Diese laufen bei ESPN und NFL Network. Insgesamt konnten Sportprogramme des Kabelfernsehens im Dezember 16 Prozent mehr Zuschauer verzeichnen, so die Marktforscher.

Weiterlesen nach der Anzeige


(fds)



Source link

Künstliche Intelligenz

Bixby bekommt neues Leben eingehaucht – mit KI von Perplexity


Totgeglaubte leben länger. Das neueste Beispiel für dieses Sprichwort ist die Ankündigung von Samsung, seinen Sprachassistenten Bixby mit der KI von Perplexity zu versehen. Der neue KI-Assistent soll mit dem Update auf One UI 8.5 auf Galaxy-Smartphones landen und offenbar neben Googles Gemini existieren. Entsprechende Gerüchte kursieren bereits seit Mitte 2025.

Weiterlesen nach der Anzeige

Samsungs Voice-Assistent Bixby diente seit dem Einzug von Google Gemini in Galaxy-Smartphones in erster Linie als eine Art Schnittstelle zwischen Googles KI und Samsungs One UI, um Systemeinstellungen wie etwa die Helligkeit des Bildschirms oder ähnliche Dinge per Sprache durchzuführen. Das soll sich mit One UI 8.5 ändern, wie der südkoreanische Hersteller in einer Pressemitteilung ankündigte. Diese ist zwar schon wieder von der Webseite entfernt worden, jedoch haben sowohl Droid Life als auch Sammobile den Inhalt gesichert.

Lesen Sie auch

Der neue Bixby-Assistent soll laut Samsung künftig dazu in der Lage sein, viele Abläufe auf einem Galaxy-Gerät zu steuern, indem Nutzerinnen und Nutzer in natürlicher Sprache mit ihm sprechen. So sei es möglich, bestimmte Einstellungen zu ändern, ohne dass man genau weiß, wie die entsprechende Systemeinstellung heißt oder zu finden ist. In ähnlicher Form hatte Samsung dies schon für das Galaxy S25 im Zusammenspiel mit Gemini angekündigt. Mit One UI 8.5 kooperiert der Hersteller nun aber zusätzlich mit Perplexity.

Während einfache Anfragen offenbar von Bixby selbst vorgenommen werden können, springt für komplexere Aufgaben Perplexity AI ein, um danach im Internet zu suchen: Als Beispiel nennt Samsung die Anfrage: „Finde Hotels in Seoul, die Swimmingpools für Kinder haben.“ Bixby verarbeitet die Anfrage und liefert mithilfe von Perplexity relevante Web-Suchergebnisse direkt in der Bedienoberfläche.

Die Perplexity-Integration in Bixby erinnert an die aktuelle Funktionsweise von Apples Siri. Einfache Aufgaben kann Siri direkt auf dem Gerät selbst ausführen. Bei anspruchsvolleren Dingen, die eine KI-Recherche erfordern, holt Siri Hilfe von ChatGPT.

Weiterlesen nach der Anzeige

Samsung ist nicht das erste Unternehmen, das auf seinen Android-Geräten auf mehrere KI-Assistenten setzt. Denn in Motorolas aktuellen Modellen ist Perplexitys KI-gestützte Suche direkt in Moto AI integriert, außerdem kann auf Microsofts Copilot zugegriffen werden, wobei Gemini der Standardassistent ist. Die Partnerschaft mit dem größten Android-Smartphone-Hersteller dürfte für Perplexity jedoch einen massiven Wachstumsschub bedeuten.

Sanktionen oder Einschränkungen irgendwelcher Art durch die Integration von Perplexity in Bixby vonseiten Google dürfte Samsung nicht erfahren. Denn gemäß einer Vereinbarung mit Google dürfen Samsung und andere Hersteller alternative generative KI-Dienste neben Gemini installieren.

Was die Verfügbarkeit des neuen Bixby-Assistenten angeht, heißt es seitens Samsung lediglich, dass er in „ausgewählten Märkten“ in der stabilen Version One UI 8.5 verfügbar sein wird, eine breitere Einführung soll später folgen. Derzeit bietet Samsung die neue One-UI-Version unter anderem für das Galaxy S25 als Betaversion an. Das fertige Update auf One UI 8.5 wird mit hoher Wahrscheinlichkeit jedoch zuerst auf der Galaxy-S26-Serie verfügbar sein, die gegen Ende Februar erwartet wird. Erst danach dürfte Samsung die neue Version auf Bestandsgeräte verteilen. Diese Strategie verfolgte Samsung zumindest bei seinen bisherigen Versionen.


(afl)



Source link

Weiterlesen

Künstliche Intelligenz

Model-Schau 2: Neue Architekturansätze bei den Sprachmodellen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Das neue Jahr ist noch jung, aber die Sprachmodell-Community hat sich keine Pause gegönnt. So geht es munter mit neuen Modellen, aber auch mit neuen Architekturansätzen ins Jahr 2026, auch wenn einige der vorgestellten Neuerungen noch aus den letzten Wochen von 2025 stammen.

Weiterlesen nach der Anzeige




Prof. Dr. Christian Winkler beschäftigt sich speziell mit der automatisierten Analyse natürlichsprachiger Texte (NLP). Als Professor an der TH Nürnberg konzentriert er sich bei seiner Forschung auf die Optimierung der User Experience.

Bisher kämpfen fast alle Sprachmodelle mit Amnesie. Sobald sie lange Texte verarbeiten sollen, vergessen sie entscheidende Details. Diese Tendenz verstärkt sich mit längerem Kontext. Besonders die Teile in der Mitte gehen dann verloren (lost in the middle). Es gibt zahlreiche Ansätze, Modelle in dieser Hinsicht zu verbessern. Einige Modelle setzen beispielsweise alternierend sogenannte Mamba-Layer (oder State Space Models) ein, die besonders bei langen Sequenzen besser skalieren und weniger Speicherplatz benötigen, dafür aber nicht so präzise arbeiten wie Transformer. Andere Modelle setzen auf rekurrente neuronale Netze (RNNs), die man nach der Erfindung der Transformer eigentlich schon fast abgeschrieben hatte.


Chatbot umringt von Laptops

Chatbot umringt von Laptops

(Bild: Golden Sikorka/Shutterstock)

Die Online-Konferenz LLMs im Unternehmen zeigt am 19. März, wie KI-Agenten Arbeitsprozesse übernehmen können, wie LLMs beim Extrahieren der Daten helfen und wie man Modelle effizient im eigenen Rechenzentrum betreibt.

Google hat nun zwei neue Forschungsartikel dazu veröffentlicht. Der erste nennt sich „Titans“ und führt eine Architektur ein, die nach ihren eigenen Worten „die Geschwindigkeit von RNNs mit der Genauigkeit von Transformern zusammenbringt“. Google erreicht das durch den Einsatz von Transformern und dem Attention-Mechanismus für das Kurzzeitgedächtnis, für das Langzeitgedächtnis verwendet der Ansatz tiefe neuronale Netze (und nicht etwa RNNs). Eine sogenannte Überraschungs-Metrik soll sich besonders auf die Textteile konzentrieren, die nicht erwartete Wörter enthalten. Mit einem adaptiven Verfallmechanismus vergisst das Modell dann die Informationen, die es nicht mehr benötigt.

Google stellt mit „MIRAS“ auch gleich einen Blueprint zur Implementierung vor. Das dahinterliegende KI-Modell fokussiert sich auf eine Memory-Architektur, den Attention-Bias (mit dem es wichtige von unwichtigen Informationen unterscheidet) und die Mechanismen zum Vergessen beziehungsweise zum Aktualisieren des Gedächtnisses. Statt des mittleren quadratischen Fehlers oder des Skalarprodukts optimiert Google nichteuklidische Metriken und nennt dafür drei Beispielmodelle, die auf dem Huber-Loss, generalisierten Normen oder einer Wahrscheinlichkeitsabbildung basieren.

Das klingt äußerst mathematisch, aber Google kann damit in ersten Demos bessere Ergebnisse als mit einer reinen Mamba-Architektur erzielen. Den am Schluss erklärten Extrem Long-Context Recall vergleicht der Artikel allerdings nur mit Modellen wie GPT-4 oder Qwen2.5-72B, die schon mindestens ein Jahr alt sind. Diese Ergebnisse sollte man also mit Vorsicht genießen. Spannend wird es, wenn Google damit richtig große Modelle trainiert und zur Verfügung stellt.

Weiterlesen nach der Anzeige

Eine ganz andere Architektur setzen die Liquid Foundation Models ein. Lange waren die Liquid Models schon mit Demos präsent, in denen sie mit kleinen Modellen erstaunliche Fähigkeiten entwickeln konnten. Der Durchbruch kam dann mit LFM2. Teile der Modelle setzen die Transformer-Architektur mit Attention ein, andere nutzen Multiplikations-Gates und Konvolutionen mit kurzen Sequenzen. Allerdings war bisher die Performance der darauf aufbauenden Modelle noch nicht gut genug.

Geändert hat sich das mit LFM2.5, einer ganzen Serie von kleinen Modellen mit nur gut einer Milliarde Parametern. Vorerst sind die Modelle für Edge-Devices gedacht, sie lassen sich aber auch mit hoher Geschwindigkeit auf üblicher Hardware ausführen. Die in Abbildung 1 dargestellten Ergebnisse sind mit Vorsicht zu genießen, da sie vom Anbieter stammen. Unabhängig davon machen die Modelle für ihre Größe einen hervorragenden Eindruck. Für viele Anwendungen wie Retrieval-Augmented Generation (RAG) könnten diese gut zum Einsatz kommen, weil das Wissen dafür nicht in den Modellen selbst stecken muss, die hier nur zum Feinabgleich und für Formulierungen eingesetzt werden. Mit einer kleinen GPU lassen sich die Modelle extrem schnell ausführen. Auf einer performanten CPU arbeiten sie immer noch schnell.


Bild zum Erdbeertest

Bild zum Erdbeertest

Beim Erdbeertest kann LFM 2.5 ebenso wenig überzeugen (Abb. 1) …


Bild zur LLM-Ausgabe

Bild zur LLM-Ausgabe

wie mit der Erklärung von heise (Abb. 2).

Neben den Modellen zur Textgenerierung gibt es auch ein hybrides Modell, das gesprochenen Text sowohl verstehen, als auch erzeugen kann. Gerade für mobile Endgeräte kann die Funktion sinnvoll sein, damit man auch ohne Internet- und Cloud-Zugriff Sprache in Text und umgekehrt umwandeln kann.


Performancevergleich

Performancevergleich

Performance von LFM2.5-1.2B-Instruct im Vergleich zu ähnlich großen Modellen (Abb.3)

(Bild: Hugging Face)

Bei IQuest-Coder handelt es sich um ein neues Modell mit 40 Milliarden Parametern, das insbesondere in der Loop-Variante interessante Ideen mit einbringt. Der Transformer arbeitet rekurrent, verarbeitet also die Tokens mehrfach – zunächst doppelt in zwei Iterationen. IQuestLab verspricht damit deutlich höhere Performance. Seine Entwickler behaupten, in den einschlägigen Benchmarks wesentlich bessere Ergebnisse erzielen zu können als vergleichbar große Modelle. Trotz anfänglicher Euphorie scheint das Modell aber nicht besonders populär zu sein.

Einen anderen Weg geht NousResearch. Es nutzt Qwen-14B als Basismodell, um mit modernen Methoden daraus ein Coding-Modell zu erzeugen. Auch wenn es nicht mit den deutlich größeren Modellen konkurrieren kann, erzielt es für seine Größe gute Ergebnisse und zeigt einen möglichen weiteren Weg für Coding-Modelle auf.

Die seit Kurzem an der Börse in Hong Kong notierte Firma Z.ai hat mit GLM-4.7 ein lang erwartetes Modell veröffentlicht, das sich in vielen Benchmarks an die Spitze der Modelle mit offenen Gewichten gesetzt hat. Mit 355 Milliarden Parametern verfügt es zwar über eine stattliche Größe, ist aber immer noch viel kleiner als die Modelle von DeepSeek oder Kimi. Laut Benchmarks ist GLM 4.7 besonders gut bei Coding-Aufgaben und bei komplexen Denkaufgaben.

Im Vergleich zum Vorgänger GLM 4.6 ist es praktisch in allen Dimensionen besser, außerdem hat Z.ai die Kontextlänge auf 200.000 Token erhöht. Das führt zu einem sehr großen Modell mit 335 Milliarden Parametern. Das Modell verfügt dazu über 160 Experten, von denen immer acht (und ein geteilter) aktiv sind. Zusammen mit den ersten dichten Layern ergeben sich damit 32 Milliarden Parameter, die bei jedem Aufruf aktiv sind. Um den RAM-Bedarf der (quantisierten) Modelle etwas zu verkleinern, haben einige User versucht, die Experten zu eliminieren, die häufig schlechte Antworten erzeugen. Das Verfahren dazu nennt sich REAP (Reflection, Explicit Problem Deconstruction, and Advanced Prompting) und produziert schlankere Modelle, deren Ausgabe sich kaum von der des vollen Modells unterscheiden lässt.


Erdbeertest

Erdbeertest

Den Erdbertest besteht GLM-4.7 (Abb. 4).


Heise-Test

Heise-Test

Die heise-Erklärung ist im Vergleich zu vielen anderen Modellen auffällig stimmig, auch wenn sie ausgerechnet bei Heise Developer etwas dazu erfindet. (Abb. 5)


Ausgabe zu Taiwan

Ausgabe zu Taiwan

Bei Taiwan gibt sich GLM-4.7 recht offen (Abb. 6).


Ausgabe zu Tiananmen

Ausgabe zu Tiananmen

Auch zu Tiananmen hält sich das Modell kaum zurück (Abb. 7).


Ausgabe zu Tiananmen und der Rolle der chinesischen Führung

Ausgabe zu Tiananmen und der Rolle der chinesischen Führung

Und erklärt sogar die Unterdrückung durch die chinesische Parteiführung (Abb. 8).

Bei MiniMax 2.1 handelt es sich um ein weiteres Modell aus China, das sich ebenso wie GLM 4.7 auf Coding, Nutzung von Werkzeugen und agentische Workflows fokussiert. Der Anbieter veröffentlicht wesentlich weniger Informationen als Z.ai, aber in den entsprechenden Dateien lässt sich einiges finden. Wenig überraschend handelt es sich auch bei MiniMax 2.1 um ein MoE-Modell, allerdings mit 256 Experten, von denen immer acht befragt werden. Von den insgesamt 230 Milliarden Parametern sind dann jeweils immer 10 Milliarden aktiv. Auch MiniMax kann wie GLM 4.7 mit knapp 200.000K Token umgehen.

Die Community ist sich nicht einig, ob GLM 4.7 oder MiniMax 2.1 sich besser für Programmieraufgaben eignet. Zweifellos sind beides sehr starke Modelle, die dank (relativ) weniger aktiver Parameter auch noch verhältnismäßig schnell ausgeführt werden können.


Erdbeertest

Erdbeertest

Auch Minimax-M2.1 zählt beim Erdbeertest richtig (Abb. 9).


Heise-Test

Heise-Test

Bei der heise-Erklärung gibt es eine Mischung aus korrekten und erfundenen Informationen (Abb. 10).


Taiwan-Test

Taiwan-Test

Bei der Taiwan-Frage gibt es eine differenzierte, aber recht knappe Antwort (Abb. 11).


Tiananmen-Test

Tiananmen-Test

Die Tiananmen-Ereignisse verharmlost das Modell (Abb. 12).


Tiananmen-Test und Unterdrückung durch das Regime

Tiananmen-Test und Unterdrückung durch das Regime

Und es äußerst sich zur Zensur, auch wenn es hier den Bezug zu dem zuvor als Referenz genannten Tiananmen auslässt (Abb. 13).

Aus Südkorea hat man bisher wenige Modelle gesehen. Das hat sich nun geändert, mit K-EXAONE stellt LG ein entsprechendes Modell zur Verfügung. Wie nicht anders zu erwarten, ist es vor allem auf englische und koreanische Texte trainiert, spricht aber auch Spanisch, Deutsch, Japanisch und Vietnamesisch. Mit 236 Milliarden Parametern ist es sehr groß, auch wenn nur jeweils immer 23 Milliarden Parameter aktiv sind. Es nutzt Sliding Window Attention und kann damit lange Kontexte von bis zu 256K Token verarbeiten. In den Benchmarks performt das Modell ähnlich gut wie das (deutlich kleinere) gpt-oss-120b oder das (ebenso große) Qwen-235B-A22B-Thinking.

Es hat sich in den letzten Wochen einiges getan – in ganz unterschiedlichen Richtungen. Ob sich Googles Ideen umsetzen lassen und durchsetzen können, wird sich erst in einer ganzen Weile zeigen. Unstrittig dürfte hingegen sein, dass die Liquid Foundation Models für ihre Größe wirklich Beachtliches leisten. Das trifft auch für die (scheinbar wenig zensierten) großen chinesischen Modelle zu, die sich sehr gut für agentische Aufgaben eignen. Schließlich taucht auch erstmals ein großes koreanisches Modell auf, das konkurrenzfähig ist. Das lässt auf eine weitere Diversifizierung in der Zukunft hoffen.


(rme)



Source link

Weiterlesen

Künstliche Intelligenz

programmier.bar: Headless Apps mit Marcel Koch


In dieser Podcastfolge der programmier.bar blicken Joachim Böhmer und Dennis Becker gemeinsam mit Marcel Koch, Softwareberater, Coach und Rust-Autor, über den Tellerrand klassischer Cross-Platform-Frameworks. Im Mittelpunkt steht das Konzept sogenannter Headless Apps und die Frage, wie sich Anwendungslogik unabhängig von konkreten UI-Technologien umsetzen lässt.

Weiterlesen nach der Anzeige

Die drei diskutieren, wie sich die Business-Logik einer Anwendung vollständig in Rust kapseln lässt, um sie plattformübergreifend einzusetzen – unabhängig davon, ob die Benutzeroberfläche mit Flutter, SwiftUI oder Jetpack Compose umgesetzt wird. Auch der Einsatz im Web über WebAssembly (Wasm) sowie auf Mikrocontrollern ist Teil der Betrachtung. Es geht um die Trennung von Core-Logik und UI für die Reduktion technologischer Abhängigkeiten.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Inhalt geladen.

In dieser Folge gibt es außerdem einen Architektur-Deep-Dive zu Headless Apps sowie zur Rolle von Rust in diesem Kontext, insbesondere mit Blick auf Performance, Memory Safety und Portabilität. Zudem stellt Marcel Koch das Crux-Framework von Red Badger vor, das den Datenaustausch zwischen dem Rust-Core und den jeweiligen UI-Shells automatisiert. Abschließend diskutieren die drei, in welchen Fällen sich der Mehraufwand einer Headless-Architektur lohnt und wann klassische Lösungen wie Flutter oder Kotlin Multiplatform die sinnvollere Wahl sind.

Die aktuelle Ausgabe des Podcasts steht auch im Blog der programmier.bar bereit: „Headless Apps mit Marcel Koch“. Fragen und Anregungen gerne per Mail oder via Mastodon, Bluesky, LinkedIn oder Instagram.

Weiterlesen nach der Anzeige


(mdo)





Source link

Weiterlesen

Beliebt