Künstliche Intelligenz
Empfehlungsalgorithmen bei TikTok erklärt: Die Maschine hinter dem Endlos‑Feed
Nur mal eben TikTok öffnen, mit ein paar Videos entspannen. Schnell verrinnen die Minuten, eine Stunde, noch eine. Wieder nicht gelernt, wieder kaum geschlafen, wieder in den Sog des Kurzvideostroms geraten – einer endlosen Aneinanderreihung aus aufregenden, belanglosen, lustigen, bisweilen informativen und überraschenden Clips. Weltweit zieht TikTok Milliarden Menschen in seinen Bann, überwiegend Jugendliche und junge Erwachsene. Im Schnitt öffnen sie die App zehnmal pro Tag und verharren dort 53 bis 95 Minuten.
Kritiker sehen Parallelen zwischen der Kurzvideo-App und Glücksspielautomaten, die das Gehirn in einen vergleichbaren „Autoplay-Modus“ versetzen: Beim einarmigen Banditen etwa zieht man den Hebel nach unten, um den Spielalgorithmus zu starten. Bei TikTok wischt man nach oben, um den nächsten Clip vorgeschlagen zu bekommen. Beide verheißen Spannung und Belohnung. Die Soziologin Dr. Julie Albright erläutert im Interview mit dem Magazin Forbes: „Jedes Mal, wenn du scrollst, kannst du gewinnen oder verlieren. Wenn du gewinnst, siehst du etwas, das deine Aufmerksamkeit erregt. Dann wird jedes Mal etwas Dopamin im Belohnungszentrum deines Hirns freigesetzt. Also wirst du weiterscrollen, weil du den nächsten Kick willst.“
- Kurzvideoplattformen wie TikTok binden Nutzer mit endlosen Feeds und personalisierten Empfehlungen.
- Der Artikel analysiert, wie moderne Recommender‑Systeme aus Milliarden Clips individuelle Videoströme zusammenstellen.
- Dabei zeigt sich, wie wenige, leicht messbare Verhaltensdaten ausreichen, um Aufmerksamkeit gezielt zu steuern.
Jede Social-Media-Plattform von Facebook über YouTube bis Instagram legt es darauf an, dass Nutzer die App möglichst oft öffnen und sich dann darin verlieren. TikTok hat es aber wie kein anderer Dienst geschafft, dieses System nach allen Regeln der Psychologie zu perfektionieren. Allein das App-Design weckt Erwartungen: Die nächste Belohnung in Form eines besonders coolen Clips scheint nie weit weg, dafür nimmt man auch mal mehrere enttäuschende Wischer in Kauf. Jeder Swipe löst einen kleinen Dopamin-Kick aus. Empfehlungsalgorithmen (Recommender-Systeme) wiederum liefern fein dosiert den Stoff, der das Publikum bei Laune hält; zuverlässig und unerschöpflich, zu jeder Tages- und Nachtzeit, an jedem Ort. Das ganze System wird optimiert durch das Monitoring einiger weniger Aktivitäten, die sich sehr leicht und in großer Dichte erfassen lassen: im Wesentlichen Verweildauer pro Video und Swipe-Verhalten. Wir durchleuchten, wie das ausgeklügelte System aus App-Design und Algorithmen funktioniert.
Das war die Leseprobe unseres heise-Plus-Artikels “ Empfehlungsalgorithmen bei TikTok erklärt: Die Maschine hinter dem Endlos‑Feed“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Kommentar: Wer räumt den giftigen KI-Müll weg?
Generative KI vermüllt das Internet. Ein bis zwei Fünftel der Inhalte dort, je nach Schätzung, sind nicht menschengemacht. Zumindest nicht direkt, denn Menschen bedienen die Content-Schleudern.
Weiterlesen nach der Anzeige
Skurrile Videos mit Kindern oder Katzen, Selbstporträts als Actionfigur oder wortreiche SEO-Texte: Solcher KI-Krempel ist zwar schnell und kostengünstig mit wenigen Klicks generiert. Doch die Menschheit und den Planeten könnte diese digitale Müllflut teuer zu stehen kommen.
Lesen Sie auch
Denn um die Nachfrage nach GenAI-Systemen zu befriedigen, ziehen die Anbieter Rechenzentren hoch, die so viel Strom schlucken wie eine Großstadt. Um den in die Höhe schießenden Energiebedarf zu übertünchen, investieren sie in halbgare Zukunftstechnik wie Small Modular Reactors oder Kernfusion. Nach dem Motto: Wird schon irgendwie, Hauptsache, wir können jetzt mit dem Hype Geld scheffeln.
KI-Müll ist nicht harmlos
Hinzu kommt, dass der KI-Müll inhaltlich selten so harmlos ist wie KI-generierte Traumstrände und Engelskinder-Fotos. Im Zusammenhang mit dem Krieg im Nahen Osten verbreiten sich irreführende KI-generierte Inhalte unkontrolliert – und das ist nicht das erste Mal. Sobald eine vermeintliche Nachricht ein Narrativ bestätigt, wird sie flugs geteilt, ohne ihren Wahrheitsgehalt zu prüfen. Diese Lügen wieder einzufangen, ist kaum möglich.

Greta Friedrich ist Redakteurin bei c’t. Im Ressort für Internet, Datenschutz und Anwendungen testet sie unter anderem Tools und Apps, recherchiert zu gesperrten Microsoft-Konten, stellt Websites vor und erklärt Messenger. Dabei lernt sie täglich Neues und wenn das Grundlagenwissen aus ihrem Studium im Bereich Technische Redaktion nicht reicht, fragt sie ihre Kolleginnen und Kollegen aus.
Damit sind generative KI-Systeme praktische Werkzeuge für alle, die diffuse Angst säen und schüren wollen. Sie helfen dabei, gefühlte Wahrheiten scheinbar zu bestätigen und so Meinungen zu beeinflussen. Sie machen es zum Beispiel leicht, gefälschte Mobilmachungsbefehle oder Scheinbeweise für Kriegsverbrechen in die Welt zu setzen und wahllos Chaos zu stiften.
Weiterlesen nach der Anzeige
Und sie tragen dazu bei, dass das Vertrauen in seriöse Medien erodiert. Denn die Menschen bekommen zunehmend das Gefühl, ihren Augen nicht mehr trauen zu können. Diese Irritation erreicht sogar das lineare Fernsehen, weil auch etablierte Medien nicht immer sicher im Umgang mit KI-Inhalten sind.
Eine Handvoll Tech-Riesen hätte die Macht, daran etwas zu ändern. Sie besitzen oft sowohl Social-Media-Plattformen als auch KI-Tools: YouTube und Gemini (Google), Face- und Moltbook sowie Meta AI (Meta), X und Grok … Es sind ewige Kreisläufe aus Content und Klicks.
Deren Betreiber müssen endlich Verantwortung übernehmen. Sie müssen maßvoll mit Wasser und Strom umgehen, müssen verbindliche Regeln für ihre Plattformen aufstellen und durchsetzen: Wie kennzeichnen wir KI-Inhalte, wie melden und entfernen wir Schädliches, wer bekommt Werbeeinnahmen und wer nicht? Provokante und irreführende Inhalte mit KI-Hilfe in die Welt zu kippen, darf sich nicht länger lohnen.
(gref)
Künstliche Intelligenz
Wikipedia verbietet KI-generierte Artikel, KI darf nur noch unterstützen
Die englischsprachige Wikipedia weist ihre Autoren an, keine KI-Modelle für die Erstellung von Artikeln zu verwenden. Denn per künstlicher Intelligenz (KI) erstellte Texte würden oft gegen etliche Wikipedia-Richtlinien für Inhalte verstoßen. Es gibt allerdings Ausnahmen, in denen KI genutzt werden darf, etwa bei Übersetzungen und grundsätzlicher Textbearbeitung. Sowohl Autoren als auch Moderatoren sind dabei aber bestimmten Regeln unterworfen.
Weiterlesen nach der Anzeige
Die deutschsprachige Wikipedia hat bereits ein umfassendes KI-Verbot beschlossen, nachdem eine Mehrheit von fast zwei Dritteln der Teilnehmer den Vorschlag für neue KI-Richtlinien im Februar angenommen hat. Demnach sind Artikel, die mit großen Sprachmodellen (LLMs, Large Language Models) erzeugt wurden, ausdrücklich verboten. Ausnahmen sind auch hier maschinelle Übersetzungen, die sich auf KI stützen, KI-unterstützte Fehlererkennung und reine Recherche mit KI.
KI-Verbot nun auch in Englisch
Die englischsprachige Wikipedia hat dies nun ebenfalls in die eigenen Richtlinien integriert. Verboten sind damit Artikel, die komplett per KI generiert oder mithilfe von KI umgeschrieben wurden. Allerdings warnt die Wikipedia, dass die Erkennung reiner KI-Texte schwierig sein kann. Denn manche Menschen „können einen ähnlichen Schreibstil wie LLMs haben“. Deshalb sollten Artikel nicht allein wegen eines KI-nahen Stils abgelehnt werden; Redakteure sollen sich auf die „Einhaltung der Kerninhaltsrichtlinien des Textes“ konzentrieren sowie die letzten Änderungen des fraglichen Autors betrachten, bevor sie einen Artikel wegen des KI-Verbots ablehnen.
KI wird auch nicht grundsätzlich verteufelt. Sprachmodelle sind erlaubt, etwa für die Nachbearbeitung von Texten, solange die KI „keine eigenen Inhalte hinzufügt“. Auch werden KI-unterstützte, maschinelle Übersetzungen von Wikipedia-Artikeln anderer Sprachen akzeptiert. Allerdings wird dabei vorausgesetzt, dass der Redakteur die fremde Sprache ausreichend beherrscht, um bestätigen zu können, dass die Übersetzung korrekt ist. Zudem sollen eventuelle KI-Halluzinationen im Text entfernt und die Quellen des Originalartikels geprüft werden.
Weiterlesen nach der Anzeige
KI-Flut: Erst Schnelllöschung, jetzt Prävention
Die neuen KI-Richtlinien sind eine weitere Reaktion auf die Zunahme von KI-Artikeln bei der Online-Enzyklopädie. Schon im August 2025 reagierte die Wikipedia auf die KI-Flut mit einer angepassten Richtlinie zur Schnelllöschung. Das soll Administratoren ermöglichen, offensichtlich maschinell erstellte und ungeprüfte Beiträge ohne die übliche einwöchige Diskussionsphase zu löschen, wenn sie bestimmte Kriterien erfüllen.
Lesen Sie auch
Denn normalerweise erfordert das Löschen eines Wikipedia-Artikels einen Konsens, der in einer siebentägigen Diskussion gefunden wird. Sollten Artikel offensichtliche Zeichen eines KI-Modells zeigen, können sie umgehend gelöscht werden, wie zuvor bereits bei eindeutigen Fällen wie Vandalismus oder reiner Werbung. Mit der nun um das Verbot von KI-generierten Artikeln erweiterten Richtlinie will die Wikipedia sowohl im englischsprachigen als auch deutschsprachigen Raum präventiv handeln, statt nur schneller löschen zu können.
(fds)
Künstliche Intelligenz
Autonomes Fahren: Pony.ai bringt Robotaxis nach Zagreb
Kroatien bekommt als erstes Land in Europa einen kommerziellen Dienst mit autonomen Taxis. Das haben der US-Fahrdienst Uber, das chinesische Robotaxiunternehmen Pony.ai und das kroatische Start-up Verne bekannt gegeben. Die Robotaxis sollen zuerst in der Hauptstadt Zagreb zum Einsatz kommen.
Weiterlesen nach der Anzeige
Die Fahrzeuge sind Alpha T5 des chinesischen Herstellers Arcfox, die Pony.ai mit seinem System für autonomes Fahren ausstattet, wie das chinesische Unternehmen mitteilte. Verne wird Eigentümer und Betreiber der Flotte, Uber übernimmt das Angebot in seine App und wird den Dienst zusammen mit Verne vermarkten.
Pony.ai testet die Robotaxis bereits in Zagreb. Einen Starttermin für den regulären Dienst gibt es indes noch nicht. Nach der Freigabe in Zagreb wollen die drei Unternehmen den Dienst auch in weiteren europäischen Städten anbieten.
Robotaxis für Europa
Neben Pony.ai streben auch andere Anbieter autonomer Taxis nach Europa: Die Alphabet-Tochter Waymo kündigte im Herbst 2025 einen Start in London in diesem Jahr an. Auch die US-Fahrdienste Uber und Lyft zieht es in die britische Hauptstadt, ebenso wie das britische Unternehmen Wayve.
Der estnische Fahrdienstvermittler Bolt kooperiert zum einen mit Pony.ai, zum anderen mit dem Autokonzern Stellantis, für Dienste in Europa, ließ aber noch offen, wo. Die Volkswagen-Tochter Moia testet seit einiger Zeit autonomes Fahren in Hamburg mit dem autonomen ID. Buzz AD sowie mit einem autonomen Kleinbus des Paderborner Unternehmens Holon. Auch die Lyft-Tochter Freenow will autonome Taxis in der Hansestadt auf die Straße bringen.
(wpl)
-
Künstliche Intelligenzvor 3 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 4 WochenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Künstliche Intelligenzvor 1 Monat
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 1 MonatCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 3 MonatenAumovio: neue Displaykonzepte und Zentralrechner mit NXP‑Prozessor
-
Künstliche Intelligenzvor 3 MonatenÜber 220 m³ Fläche: Neuer Satellit von AST SpaceMobile ist noch größer
-
Künstliche Intelligenzvor 2 MonateneHealth: iOS‑App zeigt Störungen in der Telematikinfrastruktur
