Connect with us

Künstliche Intelligenz

Fußball-WM 2026: YouTube und FIFA vereinbaren Kooperation


Die Videoplattform YouTube und der Fußball-Weltverband FIFA haben eine strategische Zusammenarbeit für die anstehende Fußball-Weltmeisterschaft in den Vereinigten Staaten, Kanada und Mexiko geschlossen. Mit der am Dienstag verkündeten Vereinbarung wird YouTube zu einer „bevorzugten Plattform“ des Turniers. Offizielle Medienpartner und YouTuber erhalten damit nach Vorstellung der FIFA mehr Möglichkeiten und Formate, das Turniergeschehen zu präsentieren.

Weiterlesen nach der Anzeige

„Sie können u. a. ausführliche Zusammenfassungen, Hintergrundberichte, Shorts und Video-on-Demand-Inhalte veröffentlichen, um das Publikum auf YouTube zu begeistern und so die Reichweite und die Beteiligung insgesamt zu erhöhen“, heißt es in einer Pressemitteilung der FIFA. Erstmals in der WM-Geschichte erhalten Medienpartner die Möglichkeit, die ersten zehn Minuten jedes Spiels auf ihrem YouTube-Kanal live zu zeigen, so die FIFA weiter.

Ausgewählte Partien dürfen auch in voller Länge gezeigt werden. Darüber hinaus öffnet die FIFA ihr digitales Archiv und zeigt auf dem YouTube-Kanal der FIFA Aufzeichnungen früherer WM-Spiele in voller Länge sowie „viele weitere legendäre Momente der Sportgeschichte“, wie es heißt.

FIFA und YouTube wollen, so die Ankündigung, zudem einer Gruppe von YouTube-Redakteuren aus aller Welt einen „beispiellosen Zugang zur Fußball-Weltmeisterschaft“ bieten. Der Weltverband erhofft sich von „dieser einzigartigen, frischen Perspektive mit persönlichen Geschichten, taktischen Analysen und Blicken hinter die Kulissen“ eine lebendigere Berichterstattung, die neue Zielgruppen rund um den Globus ansprechen soll.

Für deutsche Fußballanhänger bringt die Kooperation möglicherweise einige Veränderungen mit sich. Nach bisheriger Planung will der Rechteinhaber Telekom auf seiner Plattform MagentaTV alle 104 Turnierspiele live übertragen. Überdies haben die öffentlich-rechtlichen Sender ARD und ZDF Sublizenzen erworben. Sie dürfen 60 Spiele im frei empfangbaren Fernsehen zeigen, darunter alle Partien der deutschen Nationalmannschaft, das Eröffnungsspiel, die Halbfinals und das Finale.

Weiterlesen nach der Anzeige

Nach Informationen von Branchenkennern laufen aktuell Gespräche mit den deutschen Lizenznehmern, um zwischen 15 und 30 WM-Spiele live auf YouTube zu übertragen, wie die Nachrichtenagentur dpa meldet. Um welche Begegnungen es sich dabei handeln soll, stehe bislang aber nicht fest.


(akn)



Source link

Künstliche Intelligenz

2028 kommen gestapelte GPUs | heise online


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Gestapelte Logikchips sollen 2028 Realität werden. Nvidia will bei seiner übernächsten Generation Feynman mehrere GPU-Dies für seine KI-Beschleuniger übereinanderstapeln. Das bestätigte Firmenchef Jensen Huang bei der Eröffnung der Hausmesse GTC 2026 (im Video ab 2:12:33).

Weiterlesen nach der Anzeige

Eine GPU-Skizze auf Nvidias Roadmap sieht daher deutlich kleiner aus als die nächsten beiden KI-Beschleuniger Rubin sowie Rubin Ultra. Dort sitzen GPU-Dies und Speicherstapel nebeneinander, wobei ein Silizium-Interposer die Datenverbindungen herstellt. Diese Konstruktion nennen Hersteller 2,5D-Stacking.



Feynman folgt auf Rubin und Rubin Ultra.

(Bild: Nvidia)

3D-Stacking mit mehreren Logikchips übereinander hat Vorteile, vor allem bei der Signalführung. Bisher konnten Chipfertiger allerdings ein Problem noch nicht für ein Serienprodukt lösen: die Wärmeabfuhr der unteren Dies. Die Kühllösung wird bei Feynman besonders spannend, da der KI-Beschleuniger über 2000 Watt elektrische Leistungsaufnahme gehen könnte. Zu den Details hat sich Nvidia bislang allerdings nicht geäußert.

3D-Stacking gibt es bislang nur mit Cache-Chiplets in größerem Maßstab. Der Chipauftragsfertiger TSMC und AMD etwa stapeln bei den Ryzen-X3D-Prozessoren CPU-Chiplets und Level-3-Cache. In dem Fall erzeugt der Speicher wenig Abwärme, sodass die Kühlung hinhaut. AMD forscht ebenfalls an komplexeren 3D-Stacking-Konstruktionen.

Weiterlesen nach der Anzeige

Zusätzlich zur Stapelbauweise will Nvidia bei Feynman erstmals Custom High-Bandwidth Memory (cHBM) einsetzen. Dabei handelt es sich um einen Vorstoß der Speicherhersteller Samsung, SK Hynix und Micron sowie Zulieferern wie Marvell: Kunden wie Nvidia können beim cHBM eigene Logik zur Ansteuerung der Speicherstapel entwerfen und diese in eigene Prozessoren oder GPUs integrieren.

Bisher sitzt die Logik immer in einem Basis-Die, das die Speicherhersteller produzieren und unter die DRAM-Ebenen setzen. Der größte Nachteil dabei: Die Fertigungstechnik der Speicherhersteller ist auf DRAM spezialisiert. Wandern die Basis-Die-Transistoren in eine CPU oder GPU, kann sie etwa TSMC mit Logikfokus produzieren. Das spart potenziell Platz und erhöht die Effizienz. Zudem können Kunden die cHBM-Ansteuerung so an die eigenen Bedürfnisse anpassen.

Zusätzlich zu Feynman erscheint 2028 eine Fülle neuer Chips: Nvidias eigener ARM-Prozessor Rosa, der Netzwerkprozessor Bluefield-5, mehrere Switches und der auf Inferenz spezialisierte KI-Beschleuniger LP40 in Kooperation mit Groq.


(mma)



Source link

Weiterlesen

Künstliche Intelligenz

Bolt setzt für Robotaxis auf Nvidia-Technik


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Der estnische Fahrdienstvermittler Bolt plant eine Zusammenarbeit mit Nvidia im Bereich Robotaxis. Während Nvidia die Technologie liefern soll, will Bolt Daten aus seinem Fahrbetrieb beisteuern.

Weiterlesen nach der Anzeige

Die technische Grundlage liefert Nvidias Drive Hyperion, eine Plattform, die Hardware, Sensorik und Software für den Einsatz von Robotaxis auf Level-4-Niveau bündelt. Bolt wiederum will seine umfangreichen Fahrdaten nutzen, um darauf basierende KI-Systeme zu trainieren. Darüber hinaus bleibt die Partnerschaft vage: Konkrete Schritte und ein Zeitplan nennen die Partner nicht.

Bolt stellt heraus, dass die Verarbeitung der Flottendaten unter Wahrung der Privatsphäre erfolgen und den Anforderungen der DSGVO sowie europäischen Cybersicherheitsstandards entsprechen soll. Zudem will das Unternehmen zentrale Werkzeuge, Schnittstellen, Referenzimplementierungen und mehr als Open Source zugänglich machen, um europäische Unternehmen und Forschungseinrichtungen zu stärken und die Abhängigkeit von außereuropäischen Ökosystemen zu verringern.

Für Bolt ist die Partnerschaft ein strategischer Schritt, um sich im entstehenden Markt für autonome Fahrdienste zu positionieren, ohne selbst die zugrunde liegende Technologie entwickeln zu müssen.

Ende 2025 hatte Bolt bereits eine Zusammenarbeit mit dem Autokonzern Stellantis angekündigt sowie eine Partnerschaft mit dem chinesischen Entwickler Pony.ai, der in China fahrerlose Robotaxi-Dienste betreibt. Mit Stellantis will Bolt Testfahrzeuge für den Einsatz in europäischen Ländern entwickeln mit dem Ziel einer industriellen Produktion ab 2029.

Weiterlesen nach der Anzeige

US-Anbieter treiben derweil eigene Robotaxi-Projekte voran: Waymo betreibt in den USA bereits kommerzielle Robotaxi-Dienste und plant, diese 2026 nach London auszuweiten. Auch Uber und Lyft treiben entsprechende Projekte voran und wollen dort noch in diesem Jahr erste Robotaxi-Tests starten. Beide Unternehmen planen zudem Tests in Deutschland. Bis zu einem kommerziellen Einsatz dürfte allerdings noch einige Zeit vergehen.


(tobe)



Source link

Weiterlesen

Künstliche Intelligenz

Framework: Gas Town orchestriert Coding-Agenten nach Kubernetes-Vorbild


Coding-Agenten wie Claude Code und Codex CLI versprechen eine schnellere Entwicklung, doch Studien zeigen, dass der Aufwand sich häufig ins Promptschreiben, in Codereviews und das Warten auf Ergebnisse verschiebt. Hier setzt das in Go geschriebene Open-Source-Framework Gas Town an: Statt einzelne Agenten zu verbessern, orchestriert es viele Agenten gleichzeitig, die nach festen Rollen zusammenarbeiten und deren Fehler durch die Orchestrierungsschicht kompensiert werden.

Der Entwickler Steve Yegge hat Gas Town nach den Konzepten von Temporal und Kubernetes im Dezember 2025 entwickelt und Anfang Januar 2026 der Öffentlichkeit vorgestellt (Beitrag auf Medium und GitHub).

Der Name Gas Town ist der gleichnamigen postapokalyptischen Raffineriestadt aus der Mad-Max-Filmreihe entlehnt. Die chaotischen Zustände in der Stadt repräsentieren das Chaos, das sich oft bei der Koordination mehrerer Coding-Agenten ergibt. Um dieses Chaos Herr zu werden, gibt es feste Rollen und Abläufe.


Das war die Leseprobe unseres heise-Plus-Artikels „Framework: Gas Town orchestriert Coding-Agenten nach Kubernetes-Vorbild“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Beliebt