Künstliche Intelligenz
Tiktok USA soll separaten Algorithmus und andere Eigentümer bekommen
Oracle und der Finanzinvestor Silver Lake sollen in Zukunft eine wesentliche Rolle bei Tiktok in den Vereinigten Staaten von Amerika spielen. Der Kurzvideodienst soll in dem Land bald anders laufen, als im Rest der Welt. Zwar wird Tiktok den für die Auswahl der vorgesetzten Videos genutzten Algorithmus an Tiktok USA lizenzieren, doch soll er dann neu trainiert werden, unter Verwendung von Nutzerdaten in den USA.
Das hat ein hochrangiger Funktionär des Weißen Hauses der New York Times verraten. Demnach werden US-Investoren, darunter Oracle und Silver Lake, rund 80 Prozent Tiktok USAs übernehmen. Die genaue Zusammensetzung der Käufergruppe ist noch nicht festgezurrt. Tiktoks chinesischer Mutterkonzern Bytedance und andere chinesische Unternehmen sollen jedenfalls weniger als 20 Prozent an Tiktok USA halten. Bytedance soll einen von sieben Sitzen im Verwaltungsrat der bisherigen US-Tochter bekommen. Dieser soll ausschließlich mit Personen besetzt werden, die von der US-Regierung eine Genehmigung erhalten haben (national security clearance).
Oracle übernimmt die lukrative Aufgabe, die Daten der US-Nutzer Tiktoks in einer speziell dafür geschaffenen Cloud zu hosten. Außerdem soll Oracle Veränderungen am Algorithmus und Updates der Tiktok-App „überwachen“. Der Zugriff auf amerikanische Nutzerdaten von China aus wird vertraglich untersagt. Da Retraining des Auswahlalgorithmus wird beeinflussen, welche Videos Amerikaner zu sehen bekommen.
Die Übereinkunft ist der Versuch eines Spagats zwischen dem US-Verbot Tiktoks und chinesischem Recht, das auf chinesische Kontrolle des Algorithmus abstellt. Bytedance steht mehrheitlich im Eigentum westlicher Investoren, was die Bereitschaft zu so einem Kompromiss fördert. Bis zur Ausarbeitung aller Details und der Verträge könnten noch Monate verstreichen. Bis dahin wird Tiktok in den USA trotz geltenden Verbots weiterlaufen. US-Präsident Donald Trump hat eine Ausnahmegenehmigung um weitere 120 Tage verlängert. Sie sind im Gesetz nur für den Fall vorgesehen, dass Bytedance echte Schritte auf dem Weg hin zu einem Verkauf Tiktoks vorweisen kann. Da ein kompletter Verkauf nicht beabsichtigt ist, dürfte diese Voraussetzung nicht gegeben sein. Offiziell heißt das Gesetz Protecting Americans from Foreign Adversary Controlled Applications Act.
(ds)
Künstliche Intelligenz
iX-Workshop Keycloak: Die Grundlagen für effizientes IAM und SSO
Mit dem quelloffenen Anmelde-Provider Keycloak lassen sich Benutzer aus Verzeichnisdiensten wie Active Directory oder LDAP mittels Single Sign-On (SSO) und Mehrfaktor-Authentifizierung sicher an verschiedenen Webanwendungen anmelden.
Weiterlesen nach der Anzeige
In der dreitägigen Online-Schulung Identity & Access Management (IDM/IAM) und SSO mit Keycloak lernen Sie, wie Sie Keycloak als Identity Provider für Ihr Unternehmen einrichten, konfigurieren und mit Diensten und Anwendungen integrieren. Das in Keycloak integrierte OTP-Verfahren unterstützt Soft-Tokens (Smartphone und App) und bietet ein Self-Service-Portal zur Konfiguration. Diese integrierte One-Time-Password-Funktion wird in der Schulung demonstriert und erklärt.
Der Workshop findet in einer browserbasierten Lern- und Übungsumgebung statt und richtet sich an DevOps Engineers und (Linux-)Administrierende, die Keycloak als Identity & Access Management System (IDM/IAM) für die eigenen Unternehmensanwendungen einsetzen wollen. Der Trainer Tilman Kranz verfügt über langjährige Erfahrung in der Entwicklung, Administration und Einrichtung von Verzeichnisdiensten.
Die Teilnahme an diesem praxisorientierten Workshop ist auf 12 Personen begrenzt, um einen regen Austausch mit dem Trainer und den anderen Teilnehmern zu ermöglichen.

(ilk)
Künstliche Intelligenz
KI simuliert Evolution: So entstehen Insekten- und Linsenaugen
Ein internationales Team aus Forschern des MIT, der Rice University und der Universität Lund hat die Evolution des Auges simuliert und zeigt auf, dass die Vielfalt von Augenformen in der Natur kein Zufall ist, sondern das Ergebnis von Selektion. Das Team um Kushagra Tiwary vom MIT entwickelte ein Framework namens „What if Eye…?“, das Agenten in einer 3D-Umgebung evolvieren lässt – ähnlich wie Spielfiguren in einem Videospiel, die jedoch nicht von Menschen gesteuert werden, sondern lernen und sich verändern. Dabei entstanden – ohne externe Vorgaben – sowohl die Facettenaugen von Insekten als auch die hochauflösenden Linsenaugen von Raubtieren und Menschen.
Weiterlesen nach der Anzeige
Die Studie erschien kürzlich im Fachjournal „Science Advances“; eine Preprint-Fassung der Arbeit ist seit Anfang des Jahres bei arXiv verfügbar.
Evolution als Single-Player-Game
Zentral an der Arbeit ist ein Framework auf Basis der sogenannten Embodied AI (verkörperte Künstliche Intelligenz). Die Forschenden modellierten ihre Agenten als Single-Player-Games mit spezifischen Spielregeln: Ein Agent erhält Belohnungspunkte für erfolgreiche Aktionen (sogenannte „Rewards“), genau wie ein Spieler Punkte sammelt. Diese Reward-Struktur treibt die Evolution an.
Anders als bei klassischen Computer-Vision-Modellen, die lediglich statische Bilder in Datenbanken klassifizieren, simulierten die Forschenden ganze Agenten in einer physikalisch korrekten 3D-Umgebung auf Basis der MuJoCo-Physics-Engine. Die Agenten bewegen sich durch diese Welt wie NPCs (Non-Player-Characters) in einem Videospiel – mit Sensorik, Körper und Motorik.
Dabei griffen die Wissenschaftler auf einen methodisch anspruchsvollen Mix zurück: Ein genetischer Algorithmus (CMA-ES) steuerte über hunderte von Generationen hinweg die Mutationen des „Genoms“, das sowohl die Bauform der Augen als auch die Architektur des Gehirns festlegte. Innerhalb ihrer „Lebensspanne“ trainierten die individuellen Agenten dann ihr neuronales Netz mittels Reinforcement Learning. Dieses Verfahren wird auch bei modernen Videospiel-KIs wie AlphaGo verwendet. Dabei sollten die Agenten mit der ihnen gegebenen Hardware bestmöglich zurechtkommen. Jeder löste also sein persönliches Mini-Spiel – und wer am besten spielte, durfte seine Gene weitergeben. Dieser Ansatz der Co-Evolution zwang das System dazu, Hardware und Software gleichzeitig zu optimieren – ein hochauflösendes Auge bringt schließlich keinen Vorteil, wenn das Gehirn die Datenflut nicht verarbeiten kann.
Um zu prüfen, ob der Selektionsdruck tatsächlich die Bauform der Augen diktiert, konfrontierte das Team die Agenten mit zwei grundlegend verschiedenen Spiel-Szenarien. Im ersten Szenario war die Mission: schneller durch ein Labyrinth navigieren. Die Belohnung kam für jede Sekunde Zeit, die gespart wurde. Die Evolution brachte hier eine Lösung hervor, die stark an die Facettenaugen von Insekten erinnert. Die Agenten entwickelten ein Netzwerk aus weit verteilten, einfachen Augen, die den Kopf umrundeten. Diese Konfiguration opferte Detailschärfe zugunsten eines enormen Sichtfeldes von rund 135 Grad, um den optischen Fluss zur Hinderniserkennung zu nutzen. Wer nicht sehen konnte, was links und rechts kommt, prallte gegen die Wand und verlor Punkte.
Weiterlesen nach der Anzeige
Bei einem zweiten Spiel-Szenario mussten die Agenten ein spezifisches Zielobjekt (Nahrung) identifizieren und es erreichen, während sie täuschend ähnliche Objekte (Gift) meiden mussten. Einen Reward gab es nur für den korrekten Fund. Unter diesem Druck selektierte die Simulation gnadenlos in Richtung des „Kamera-Auges“: Die Agenten reduzierten die Anzahl der Augen, richteten sie frontal aus und erhöhten die Dichte der Photorezeptoren massiv. Das Resultat war eine Konstruktion, die funktional den Augen von Raubtieren oder Primaten gleicht. Die Simulation liefert damit den experimentellen Nachweis, dass es keine universell „beste“ Augenform gibt, sondern dass die Spiel-Anforderung – oder in der Natur: die ökologische Nische – die Architektur des Sinnesorgans bestimmt.
Linsen als physikalische Notwendigkeit
Besonders aufschlussreich ist der Teil der Studie, der sich mit der Entstehung der Linse befasst. Die Forschenden implementierten ein physikalisch korrektes Wellenmodell des Lichts – eine realistische Physics-Engine für optische Effekte. Ihre Frage: Wie „findet“ die Evolution die Lösung, wenn die Spielregeln physikalisch kompliziert sind?
In den ersten Generationen „entdeckten“ die Agenten lediglich das Prinzip der Lochkamera: Kleinere Pupillen sorgten für schärfere Bilder. Doch diese Strategie führte schnell in eine Sackgasse – ein klassisches Game-Over-Szenario. Kleine Pupillen lassen nur wenig Licht durch, wodurch das Signal-Rausch-Verhältnis (SNR) so schlecht wurde, dass die Agenten ihre Leistung nicht mehr steigern konnten. Sie waren in einem „lokalen Optimum“ gefangen.
Erst als die Simulation Mutationen zuließ, die den Brechungsindex des Materials veränderten – also die Spielregeln neuen Content hinzufügten –, brach das System aus diesem Dilemma aus. Anfangs entstanden Strukturen, die eher diffusen Klumpen glichen – gescheiterte Versuche. Doch über hunderte Generationen hinweg schliff die Selektion diese zu präzisen Linsen mit glatten Oberflächen. Dies erlaubte es den Agenten, ihre Pupillen wieder zu öffnen, um mehr Licht einzufangen, ohne dabei an Bildschärfe zu verlieren. Die Linse erscheint in der Simulation somit nicht als zufällige Laune der Natur, sondern als die eine naheliegende physikalische Lösung, um den Kompromiss zwischen Lichtempfindlichkeit und Auflösung aufzulösen. Ein brillanter Exploit der Natur.
Skalierungsgesetze für Gehirn und Sensor
Bereits kleine Verbesserungen der Sehschärfe erfordern laut Analyse eine überproportional größere Menge an neuronalen Ressourcen zur Verarbeitung. Die Simulation zeigte, dass eine Verbesserung der optischen Hardware nur dann einen evolutionären Vorteil brachte, wenn gleichzeitig das neuronale Netz wuchs. Ein gutes Auge ohne schnelles Gehirn bringt keine höhere Punktzahl.
Dieses Ergebnis deckt sich mit Beobachtungen aus der Biologie, wo Arten mit hochauflösendem Sehen – wie etwa Cephalopoden oder Vögel – im Verhältnis deutlich größere Gehirne besitzen als Organismen mit simplen Lichtsensoren wie Plattwürmer oder Quallen.
(mack)
Künstliche Intelligenz
Einfaches Logmanagement mit Logging Made Easy
Cyberangriffe verlaufen oft lautlos und bleiben ohne zentrales Monitoring unentdeckt – bis es zu spät ist. Gerade die Komplexität verteilter Infrastrukturen verlangt nach einer zentrale Loginstanz, um Sicherheitsvorfälle zeitnah analysieren zu können. Vor allem kleinere Organisationen stehen vor der Herausforderung, eine Infrastruktur für zentrales Logmanagement ressourcenschonend umzusetzen.
Logging Made Easy (LME) bietet einen niedrigschwelligen Einstieg: Die von der US-amerikanischen Cybersecurity and Infrastructure Security Agency (CISA) bereitgestellte Open-Source-Software ermöglicht es, sicherheitsrelevante Logdaten zentral zu sammeln und auszuwerten. Sie hilft auf Basis von Elastic Stack Bedrohungen frühzeitig zu erkennen – ohne großen Lizenz- und Verwaltungsaufwand.
- Zentrales Logging ist unverzichtbar, um in komplexen IT-Umgebungen Angriffe und Anomalien schnell erkennen und nachvollziehen zu können.
- Logging Made Easy (LME) kombiniert etablierte Open-Source-Werkzeuge wie Elastic Stack, Wazuh und ElastAlert 2 zu einer leicht installierbaren Komplettlösung.
- Mit vorkonfigurierten Dashboards und Detection Rules ermöglicht LME einen schnellen Einstieg in Security Monitoring und Alerting – auch ohne eigenes Security Operations Center.
Mehr Sicherheit durch zentrales Logging
Firewalls, EDR-Systeme (Endpoint Detection and Response) und Intrusion-Detection-Systeme sind fester Bestandteil moderner IT-Sicherheitsarchitekturen. Sie erkennen Angriffe in Echtzeit, blockieren bekannte Bedrohungen oder detektieren verdächtige Verhaltensmuster. Doch so wichtig diese Schutzmechanismen auch sind, liefern sie meist nur Momentaufnahmen oder agieren lokal begrenzt. Was fehlt, ist der Kontext – die Möglichkeit, sicherheitsrelevante Ereignisse systemübergreifend zu erfassen, zu korrelieren und nachvollziehbar zu analysieren. Hier setzt zentrales Logging an.
Das war die Leseprobe unseres heise-Plus-Artikels „Einfaches Logmanagement mit Logging Made Easy“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Künstliche Intelligenzvor 2 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Künstliche Intelligenzvor 2 MonatenNeue PC-Spiele im November 2025: „Anno 117: Pax Romana“
-
Entwicklung & Codevor 1 MonatKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 2 MonatenDonnerstag: Deutsches Flugtaxi-Start-up am Ende, KI-Rechenzentren mit ARM-Chips
-
UX/UI & Webdesignvor 2 MonatenArndt Benedikt rebranded GreatVita › PAGE online
