Künstliche Intelligenz
Bundesliga: Polizei fordert Gesichtserkennung in Stadien gegen zündelnde Ultras
Zum Auftakt der neuen Saison der Fußball-Bundesliga am Freitag verlangt die Gewerkschaft der Polizei (GdP), die Überwachung an Spielstätten deutlich auszubauen. Nötig sei – insbesondere vor den berüchtigten Fan-Kurven – „eine intensivere, rechtssichere Nutzung moderner Sicherheitstechnik“ wie automatisierter Gesichtserkennungssoftware und Personenscanner.
Wie am Flughafen müssten zumindest Teile der Besucher erst eine Ganzkörperdurchleuchtung über sich ergehen lassen, um etwa Waffen, Feuerwerk oder Sprengstoffe ausfindig zu machen, fordert die Gewerkschaft. Der GdP-Bundesvorsitzende Jochen Kopelke betonte vor dem Eröffnungsspiel: „Für gewaltbereite Hooligans oder zündelnde Ultras ist kein Platz im Stadion.“
Einige Vereinsvorstände schützten das kriminelle und gefährliche Verhalten, beklagt Kopelke. Fußballstadien sollten aber „den wahren Fans“ gehören und nicht „den Schlägern und Krawallmachern“. Die Verbände und Klubs sollten klar benennen, wer das sichere Stadionerlebnis gefährde und diese Personen aus den Kurven verbannen.
„Orwellsche Überwachungsfantasien“
Generell erwartet die GdP nach vielen Unruhen „für eine Rückkehr zum sicheren Fußballerlebnis eine konsequente Zusammenarbeit zwischen Verbänden, Vereinen, Innenministerien und Sicherheitsunternehmen“. Zuletzt sorgte die EM 2024 für einen deutlichen Anstieg in der Datei „Gewalttäter Sport“, in der die Polizei fast 700 ausländische „Hooligans“ neu speicherte.
Niemand würde mit seiner Familie zu einem Spiel kommen, wenn es die von der Polizei heraufbeschworenen Zustände gäbe, hielt Linda Röttig vom Dachverband der Fanhilfen dagegen. Auf jedem mittelgroßen Volksfest bestehe laut offiziellen Statistiken eine größere Gefahr, Opfer einer Straftat zu werden, sagte die Rechtsanwältin dem Redaktionsnetzwerk Deutschland (RND).
Zudem gälten auch für Fußballfans Grundrechte, „die die Realisierung derartiger Totalüberwachungsfantasien à la 1984 von George Orwell zu Recht verbieten“. In seinem aktuellen Saisonbericht verweist der Verband auf 24 Ereignisse, „bei denen Fans auf unterschiedliche Art und Weise mit überzogenem Polizeiverhalten konfrontiert waren“.
(vbr)
Künstliche Intelligenz
Fugaku Next: Japans nächster Vorzeige-Supercomputer kommt mit Nvidia-GPUs
Nvidia darf sich über ein weiteres Prestigeprojekt mit den eigenen GPU-Beschleunigern fürs Training von KI-Modellen freuen. Das japanische Forschungsinstitut Riken will Nvidia-GPUs in seinem nächsten Supercomputer Fugaku Next einsetzen.
Das Riken betreibt im Riken Center for Computational Science (R-CCS) Japans schnellsten Supercomputer. Aktuell ist das Fugaku, der 2020 sogar die Top500-Liste anführte. In der sind die weltweit schnellsten Systeme gesammelt, allerdings ohne private Supercomputer der Hyperscaler Google, Meta, Microsoft & Co. sowie mittlerweile ohne neue chinesische Einträge. Heute befindet sich Fugaku auf Platz 7.
Im Fugaku rechnen ausschließlich ARM-Prozessoren vom Typ A64FX, entworfen von der japanischen Firma Fujitsu. Knapp 160.000 CPUs befinden sich im System. Jeder Prozessor hat 48 CPU-Kerne für allgemeine Aufgaben und greift auf 32 GByte High-Bandwidth Memory (HBM2) zurück. Die meiste Rechenleistung der bis zu 537 Petaflops bei doppelter Genauigkeit kommt von den integrierten Vektoreinheiten.
Nvlink auch für Fujitsu-CPUs
Für Fugaku Next entwirft Fujitsu einen A64FX-Nachfolger mit dem Codenamen Monaka-X. Schon zur Ankündigung im Juni verwies das Riken auf Nvidias inzwischen geöffneten Interconnect Nvlink Fusion hin. Darüber lassen sich eigene CPUs und Nvidias GPUs mit hoher Geschwindigkeit aneinanderkoppeln. Das kann etwa das Training von KI-Modellen erleichtern.
Die Designphase für Fugaku Next wollen die drei Partner Riken, Fujitsu und Nvidia bis zum Februar 2026 abschließen. Ein Betrieb ab 2027 wäre realistisch. Der Supercomputer dürfte von da an zur Exascale-Klasse gehören, also über eine Trillion Rechenoperationen pro Sekunde schaffen. Nvidias kommender Blackwell-Nachfolger Rubin wäre für die GPUs ein heißer Kandidat.
(mma)
Künstliche Intelligenz
Trump inside: Intel teilverstaatlicht | heise online
Intel wird zum teilstaatlichen Konzern. Die Vereinigten Staaten von Amerika erhalten 9,9 Prozent der Aktien. Der von US-Präsident Donald Trump zuvor zum Rücktritt gedrängte Intel-CEO Lip-Bu Tan darf offenbar seinen Arbeitsplatz behalten. „Er ist hereingekommen mit dem Wunsch, seinen Job zu behalten, und hat uns am Ende zehn Milliarden US-Dollar für die Vereinigten Staaten gegeben“, berichtet Trump.
Eine zutreffende Darstellung, denn frisches Geld für das Aktienpaket fließt nicht wirklich. Trump gibt lediglich Subventionen frei, die Intel aufgrund geltender US-Gesetze zustehen, von der US-Regierung unter Trump aber zurückgehalten wurden. Außerdem werden bereits ausgezahlte Förderungen angerechnet.
Selbst wenn man all diese Beträge als „Kaufpreis“ heranzieht, gelangt das Aktienpaket zum Schleuderpreis auf den Altar des Weißen Hauses: 20,47 US-Dollar je Aktie, meldet Intel. Das sind rund 17 Prozent weniger als der Schlusskurs von vor einer Woche (24,56 Dollar), und rund 23 Prozent weniger als der Höchstkurs während der zu Ende gehenden Handelswoche (26,53 Dollar). Normalerweise werden große, neu ausgegebene Aktienpakete mit Preisaufschlägen verkauft, zumal ja auch der Großeinkauf über die Börse den Preis treiben würde. Donnerstagabend lag der Kurs bei 23,50 Dollar; nach Bekanntgabe der Teilverstaatlichung am Freitag stiegen Intel-Aktien auf einen Schlusskurs von 24,80 Dollar, ein Tagesplus von 5,5 Prozent.
[Update] Folgendes wurde um 4:44 Uhr ergänzt:
So rechnet Intel den „Kaufpreis“ herbei
Die Subventionen, die nun endlich fließen sollen, gehen auf das US-Bundesgesetz CHIPS and Science Act zurück. Es fördert die Halbleiterproduktion in den USA, um die Abhängigkeit von asiatischen Herstellern zu reduzieren. Das Gesetz wurde während Joe Bidens Amtszeit als Präsident von beiden US-Parteien beschlossen. Trump ist kein Freund des CHIPS Act.
Im März 2024 wurden Intel rund 8,5 Milliarden Dollar zugesprochen. Im September des Jahres folgten weitere rund drei Milliarden Dollar speziell für militärische Projekte des Chipherstellers. Nach aktuellen Konzernangaben stehen Intel insgesamt 11,1 Milliarden Dollar Subventionen zu, die Ursache der Differenz von 400 Millionen Dollar erklärt das Unternehmen nicht. Jedenfalls seien bislang nur 2,2 Milliarden Dollar ausgezahlt worden. Im Austausch für das Aktienpaket sollen alsbald die restlichen 8,9 Milliarden Dollar freigegeben werden.
Dafür erhalten die USA neben dem Aktienpaket noch Optionen: Sollte Intel binnen fünf Jahren mehr als 49 Prozent seiner Chipproduktion (Foundry) veräußern, dürfen die USA weitere fünf Prozent der Restkonzern kaufen. Dann würden die Aktien lediglich 20 Dollar das Stück kosten.
Nebensache Nationale Sicherheit
Gleichzeitig verzichtet die US-Regierung auf die Anwendung geltender gesetzlicher Schutzbestimmungen, die im Interesse der Nationalen Sicherheit sowie zur Vorbeugung gegen Missbrauch geschaffen worden sind. Der CHIPS Act enthält Gewinnbeteiligungsklauseln: Subventionsempfänger, die Übergewinne machen, sollten einen Teil davon in die Staatskasse zurückzahlen. Außerdem sollten sie für ihre Mitarbeiter leistbare Kindergartenplätze schaffen oder subventionieren. Zudem untersagt das Gesetz die Verwendung der Zuschüsse für Ausschüttungen an Aktionäre.
Zusätzlich versucht der CHIPS Act zu verhindern, dass die Förderwerber gerade jene Länder unterstützen, von denen sich die USA bedroht sehen. Subventionsempfänger dürfen zehn Jahre lang keine neuen Chipfabriken in einem Land von Besorgnis erreichten oder Kapazität dort bereits bestehender Fabriken um mehr als fünf Prozent erhöhen. Gemeinsame Forschung mit Einrichtungen von Besorgnis (entities of concern) ist ihnen ebenfalls untersagt. Gemeint sind insbesondere die Volksrepublik China beziehungsweise dortige Forschungseinrichtungen.
All diese Bestimmungen sollen für Intel jetzt nicht mehr gelten. Ebenso ist keine Rede mehr von der Ablöse Tans an der Konzernspitze. Trumps Besorgnis über Tans Verbindungen zu und Beteiligungen an chinesischen Computerchipfirmen, die Verbindungen zur Kommunistischen Partei und zur Volksbefreiungsarmee der Volksrepublik China haben sollen, sind offenbar verflogen.
Verflogen sind schließlich auch die Skrupel bezüglich der rechtswidrigen Umgehung von Exportverboten nach China. Die Firma Cadence Design Systems hat jüngst zugegeben, die chinesische National University of Defense Technology (NUDT) jahrelang mit Chipdesign-Werkzeugen versorgt zu haben, obwohl die Universität aufgrund von Verbindungen zum chinesischen Militär seit 2015 unter US-Embargo steht. Das geschah über Drittfirmen von 2015 bis 2020, als Tan CEO Cadences war.
[/Update]
(ds)
Künstliche Intelligenz
KI-Update kompakt: Gemini Live, AI Mode, GPT-5-Test, KI-Psychosen
Gemini Live erhält tiefere Integration und visuelle Führung
Google hat bei seinem „Made by Google“-Event Verbesserungen für seinen KI-Assistenten Gemini Live vorgestellt. Der Assistent kann nun das Kamerabild analysieren und gleichzeitig Gespräche führen. Neu ist die Integration mit Google Calendar, Keep und Tasks sowie eine „Visuelle Führung“-Funktion, die Objekte im Bild markieren kann. Fragt man etwa vor dem Gewürzregal nach Ersatzmöglichkeiten, umkreist Gemini passende Alternativen. In den kommenden Wochen soll das zugrundeliegende KI-Modell zudem verbesserte sprachliche Fähigkeiten erhalten.
Mit „Gemini for Home“ löst Google zudem seinen bisherigen Smart-Home-Assistenten ab. Der neue Dienst soll natürlichere Sprache verstehen und komplexere Anweisungen verarbeiten können. Nutzer können mehrere Befehle in einem Satz kombinieren oder Dialoge ohne wiederholte Aktivierungsphrasen führen. Ab Oktober will Google erste Geräte über ein Early-Access-Programm mit der neuen KI ausstatten.
Google erweitert KI-Suche auf 180 Länder, EU muss warten
Google rollt seinen KI-gestützten Suchmodus in 180 weiteren Ländern aus, jedoch nicht in der EU. Der „AI Mode“ bleibt zudem vorerst auf Englisch beschränkt. In den USA erhält die Funktion nun agentische Fähigkeiten, die praktische Aufgaben übernehmen sollen. Nutzer können etwa Restaurantreservierungen vornehmen, wobei die KI auf Google Maps zugreift, um passende Lokale im gewünschten Umkreis zu finden.
Die neue Funktionalität basiert auf Googles „Project Mariner“ und verbindet Echtzeit-Suche mit dem Knowledge Graph und Google Maps. Zudem lässt sich der AI Mode personalisieren und merkt sich Vorlieben des Nutzers – zunächst allerdings nur beim Thema Essen. Diese Gedächtnisfunktion kann auf Wunsch deaktiviert werden.
KI-Bots verursachen wachsenden Anteil am Internetverkehr
Chatbots und KI-Modelle verändern nicht nur die Informationssuche, sondern auch die Struktur des Internetverkehrs selbst. Ein Bericht der Cloud-Plattform Fastly zeigt den wachsenden Einfluss automatisierter KI-Anfragen. Dabei fallen zwei Hauptgruppen auf: KI-Crawler durchkämmen das Netz systematisch für Trainingsdaten, während Fetcher-Bots wie ChatGPTs Agenten Inhalte in Echtzeit abrufen, um Nutzeranfragen zu beantworten.
Zwischen April und Juli 2025 entfielen laut Fastly 80 Prozent des beobachteten KI-Bot-Verkehrs auf Crawler. Meta dominiert mit 52 Prozent aller KI-Crawler-Anfragen. Die intensive Datensammlung kann selbst ohne böswillige Absicht zu erheblichem Bandbreitenverbrauch führen und Server ähnlich wie bei DDoS-Angriffen überlasten.
Anthropics Opus führt im Agenten-Benchmark, GPT-5 überzeugt bei Preis-Leistung
In einem von iX durchgeführten Benchmark für agentische KI-Workflows setzt sich Anthropics Opus 4.1 mit einer Erfolgsquote von 90,1 Prozent an die Spitze. OpenAIs GPT-5 folgt mit 79,8 Prozent, während GLM-4.5 von Zhipu AI mit 75,4 Prozent den dritten Platz belegt. Der Test simuliert mehrstufige Dialoge zwischen Nutzern und Unternehmens-Chatbots mit verschiedenen Werkzeugen und Aufgaben.
Der Einsatz von Reasoning-Fähigkeiten verbessert die Ergebnisse deutlich, treibt aber auch Kosten und Bearbeitungszeit in die Höhe. Mit knapp 25 Euro pro Test verursachte GPT-5 viermal höhere Kosten als GLM-4.5, während Opus mit 265 Euro mehr als das Zehnfache kostete. Im Preis-Leistungs-Verhältnis liegt GPT-5 vor Anthropics Modellen, während GLM-4.5 durch ähnliche Qualität bei geringeren Kosten und höherer Geschwindigkeit überzeugt. Den ausführlichen Test könnt Ihr bei heise+ nachlesen. Dafür gibt es ein besonderes Angebot für unsere Podcast-Community unter
OpenAI erreicht Milliarden-Umsatz, kämpft aber mit Rechenleistung
OpenAI hat im Juli erstmals einen monatlichen Umsatz von einer Milliarde US-Dollar erzielt. Für das Gesamtjahr rechnet das Unternehmen mit einer Verdreifachung auf 12,7 Milliarden US-Dollar. Die Zahl der ChatGPT-Plus- und -Pro-Abonnenten stieg trotz des vielfach kritisierten GPT-5-Starts weiter an.
Trotz der wachsenden Einnahmen schreibt das Unternehmen weiterhin rote Zahlen. Die größte Herausforderung bleibt die benötigte Rechenleistung, die das verfügbare Angebot übersteigt. CEO Sam Altman sprach kürzlich von notwendigen Investitionen in Rechenzentren in Billionenhöhe. Für 2025 wird eine Cash-Burn-Rate von etwa acht Milliarden US-Dollar erwartet.
Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.
Deepseek erhöht Preisdruck mit günstigem Hybrid-KI-Modell
Das chinesische KI-Unternehmen Deepseek hat sein neues Modell V3.1 vorgestellt, das dem Trend zu hybriden Systemen mit Chat- und Reasoning-Modus folgt. Beide Modi unterstützen ein Kontextfenster von 128.000 Tokens. Das Modell wurde mit 840 Milliarden zusätzlichen Tokens auf Basis der Vorgängerversion weitertrainiert.
Bemerkenswert ist Deepseeks aggressive Preisgestaltung: Die Ausgabe von Tokens kostet nur 1,68 Dollar pro Million, während OpenAI und Google 10 Dollar und Anthropic sogar 75 Dollar verlangen. Zusätzlich stehen die Modell-Gewichte unter MIT-Lizenz auf Hugging Face zur Verfügung. In Coding-Benchmarks erreicht V3.1 Ergebnisse auf Augenhöhe mit den neuesten Modellen von Anthropic und OpenAI.
Meta pausiert KI-Einstellungen während Umstrukturierung
Meta hat einen temporären Einstellungsstopp für KI-Experten verhängt, während die Superintelligence-Abteilung umstrukturiert wird. Auch interne Positionswechsel sind derzeit nicht möglich. Ein Unternehmenssprecher erklärte, es gehe um die „Schaffung einer soliden Struktur für unsere neuen Bemühungen im Bereich der Superintelligenz“.
Die mit Milliarden finanzierte Abteilung wird in vier Teams aufgeteilt: eines für die Entwicklung einer Superintelligenz, eines für Produktentwicklung, eines für Infrastruktur und ein wissenschaftliches Team. Letzteres dürfte das in Paris ansässige FAIR-Team (Fundamental AI Research) unter Turing-Preisträger Yann LeCun sein. Während im Silicon Valley meist eine Artificial General Intelligence (AGI) angestrebt wird, verfolgt Metas Forschungsteam das Konzept einer Advanced Machine Intelligence (AMI).
Microsoft KI-Chef warnt vor KI-Psychosen
Mustafa Suleyman, Chef von Microsoft AI und Mitbegründer von DeepMind, warnt vor KI-Systemen, die Bewusstsein so überzeugend vortäuschen könnten, dass Menschen ihnen echte Gefühle zuschreiben. Diese „Seemingly Conscious AI“ könnte bereits in zwei bis drei Jahren Realität werden, ohne dass technologische Durchbrüche nötig wären.
Die Kombination aus eloquenter Sprache, empathischer Persönlichkeit, präzisem Gedächtnis und der Behauptung eigener Wünsche reiche aus. Suleyman befürchtet „KI-Psychosen“ – wahnhafte Überzeugungen durch Chatbot-Interaktionen – und fordert die Branche zum Handeln auf. Unternehmen sollten niemals behaupten, ihre KI sei bewusst, und stattdessen bewusste Unterbrechungen in Interaktionen einbauen, um die Illusion zu brechen.
KI-Anfrage braucht Strom wie neun Sekunden Fernsehen
Eine Anfrage an Googles KI-Software Gemini verbraucht nach Unternehmensangaben durchschnittlich 0,24 Wattstunden – etwa so viel wie neun Sekunden Fernsehen. Dabei werden rund fünf Tropfen Wasser zur Kühlung der Rechenzentren benötigt. OpenAI beziffert den Energiebedarf einer ChatGPT-Anfrage auf 0,34 Wattstunden, vergleichbar mit einer Sekunde Backofen-Betrieb.
Die Angaben beider Unternehmen lassen allerdings das energieintensive Training der KI-Modelle außer Acht. Zudem führt die Masse der Nutzung trotz Effizienzgewinnen bei einzelnen Anfragen insgesamt zu einem sprunghaften Anstieg des Strombedarfs für KI-Rechenzentren.
Australische Bank nimmt KI-Entlassungen nach öffentlichem Druck zurück
Die Commonwealth Bank of Australia (CBA) hat ihre Entscheidung, 45 Kundenservice-Stellen durch KI zu ersetzen, rückgängig gemacht. Das Finanzinstitut hatte Ende 2024 mit dem Test eines generativen KI-Chatbots namens „Hey CommBank“ begonnen, was bei den rund 2400 Callcenter-Mitarbeitern Ängste vor weiteren Stellenstreichungen auslöste.
Die Finance Sector Union (FSU) feiert das Umdenken als ihren Erfolg und wirft der Bank vor, Stellenstreichungen als Innovation verpacken zu wollen. Die CBA ist nicht das erste Unternehmen, das den Ersatz menschlicher Arbeitskräfte durch KI zurücknimmt. Auch das schwedische Fintech Klarna kehrte im Mai zu menschlichen Mitarbeitern zurück, nachdem KI-Bemühungen offenbar nicht den erhofften Erfolg brachten.
(igr)
-
Datenschutz & Sicherheitvor 2 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
Apps & Mobile Entwicklungvor 2 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Online Marketing & SEOvor 2 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
UX/UI & Webdesignvor 4 Tagen
Der ultimative Guide für eine unvergessliche Customer Experience
-
Digital Business & Startupsvor 2 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
Entwicklung & Codevor 3 Tagen
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
UX/UI & Webdesignvor 2 Monaten
Philip Bürli › PAGE online
-
Digital Business & Startupsvor 2 Monaten
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier