Connect with us

Künstliche Intelligenz

Bundesliga: Polizei fordert Gesichtserkennung in Stadien gegen zündelnde Ultras


Zum Auftakt der neuen Saison der Fußball-Bundesliga am Freitag verlangt die Gewerkschaft der Polizei (GdP), die Überwachung an Spielstätten deutlich auszubauen. Nötig sei – insbesondere vor den berüchtigten Fan-Kurven – „eine intensivere, rechtssichere Nutzung moderner Sicherheitstechnik“ wie automatisierter Gesichtserkennungssoftware und Personenscanner.

Wie am Flughafen müssten zumindest Teile der Besucher erst eine Ganzkörperdurchleuchtung über sich ergehen lassen, um etwa Waffen, Feuerwerk oder Sprengstoffe ausfindig zu machen, fordert die Gewerkschaft. Der GdP-Bundesvorsitzende Jochen Kopelke betonte vor dem Eröffnungsspiel: „Für gewaltbereite Hooligans oder zündelnde Ultras ist kein Platz im Stadion.“

Einige Vereinsvorstände schützten das kriminelle und gefährliche Verhalten, beklagt Kopelke. Fußballstadien sollten aber „den wahren Fans“ gehören und nicht „den Schlägern und Krawallmachern“. Die Verbände und Klubs sollten klar benennen, wer das sichere Stadionerlebnis gefährde und diese Personen aus den Kurven verbannen.

Generell erwartet die GdP nach vielen Unruhen „für eine Rückkehr zum sicheren Fußballerlebnis eine konsequente Zusammenarbeit zwischen Verbänden, Vereinen, Innenministerien und Sicherheitsunternehmen“. Zuletzt sorgte die EM 2024 für einen deutlichen Anstieg in der Datei „Gewalttäter Sport“, in der die Polizei fast 700 ausländische „Hooligans“ neu speicherte.

Niemand würde mit seiner Familie zu einem Spiel kommen, wenn es die von der Polizei heraufbeschworenen Zustände gäbe, hielt Linda Röttig vom Dachverband der Fanhilfen dagegen. Auf jedem mittelgroßen Volksfest bestehe laut offiziellen Statistiken eine größere Gefahr, Opfer einer Straftat zu werden, sagte die Rechtsanwältin dem Redaktionsnetzwerk Deutschland (RND).

Zudem gälten auch für Fußballfans Grundrechte, „die die Realisierung derartiger Totalüberwachungsfantasien à la 1984 von George Orwell zu Recht verbieten“. In seinem aktuellen Saisonbericht verweist der Verband auf 24 Ereignisse, „bei denen Fans auf unterschiedliche Art und Weise mit überzogenem Polizeiverhalten konfrontiert waren“.


(vbr)



Source link

Künstliche Intelligenz

Fugaku Next: Japans nächster Vorzeige-Supercomputer kommt mit Nvidia-GPUs


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Nvidia darf sich über ein weiteres Prestigeprojekt mit den eigenen GPU-Beschleunigern fürs Training von KI-Modellen freuen. Das japanische Forschungsinstitut Riken will Nvidia-GPUs in seinem nächsten Supercomputer Fugaku Next einsetzen.

Das Riken betreibt im Riken Center for Computational Science (R-CCS) Japans schnellsten Supercomputer. Aktuell ist das Fugaku, der 2020 sogar die Top500-Liste anführte. In der sind die weltweit schnellsten Systeme gesammelt, allerdings ohne private Supercomputer der Hyperscaler Google, Meta, Microsoft & Co. sowie mittlerweile ohne neue chinesische Einträge. Heute befindet sich Fugaku auf Platz 7.

Im Fugaku rechnen ausschließlich ARM-Prozessoren vom Typ A64FX, entworfen von der japanischen Firma Fujitsu. Knapp 160.000 CPUs befinden sich im System. Jeder Prozessor hat 48 CPU-Kerne für allgemeine Aufgaben und greift auf 32 GByte High-Bandwidth Memory (HBM2) zurück. Die meiste Rechenleistung der bis zu 537 Petaflops bei doppelter Genauigkeit kommt von den integrierten Vektoreinheiten.


Für Fugaku Next entwirft Fujitsu einen A64FX-Nachfolger mit dem Codenamen Monaka-X. Schon zur Ankündigung im Juni verwies das Riken auf Nvidias inzwischen geöffneten Interconnect Nvlink Fusion hin. Darüber lassen sich eigene CPUs und Nvidias GPUs mit hoher Geschwindigkeit aneinanderkoppeln. Das kann etwa das Training von KI-Modellen erleichtern.

Die Designphase für Fugaku Next wollen die drei Partner Riken, Fujitsu und Nvidia bis zum Februar 2026 abschließen. Ein Betrieb ab 2027 wäre realistisch. Der Supercomputer dürfte von da an zur Exascale-Klasse gehören, also über eine Trillion Rechenoperationen pro Sekunde schaffen. Nvidias kommender Blackwell-Nachfolger Rubin wäre für die GPUs ein heißer Kandidat.


(mma)



Source link

Weiterlesen

Künstliche Intelligenz

Trump inside: Intel teilverstaatlicht | heise online


Intel wird zum teilstaatlichen Konzern. Die Vereinigten Staaten von Amerika erhalten 9,9 Prozent der Aktien. Der von US-Präsident Donald Trump zuvor zum Rücktritt gedrängte Intel-CEO Lip-Bu Tan darf offenbar seinen Arbeitsplatz behalten. „Er ist hereingekommen mit dem Wunsch, seinen Job zu behalten, und hat uns am Ende zehn Milliarden US-Dollar für die Vereinigten Staaten gegeben“, berichtet Trump.

Eine zutreffende Darstellung, denn frisches Geld für das Aktienpaket fließt nicht wirklich. Trump gibt lediglich Subventionen frei, die Intel aufgrund geltender US-Gesetze zustehen, von der US-Regierung unter Trump aber zurückgehalten wurden. Außerdem werden bereits ausgezahlte Förderungen angerechnet.

Selbst wenn man all diese Beträge als „Kaufpreis“ heranzieht, gelangt das Aktienpaket zum Schleuderpreis auf den Altar des Weißen Hauses: 20,47 US-Dollar je Aktie, meldet Intel. Das sind rund 17 Prozent weniger als der Schlusskurs von vor einer Woche (24,56 Dollar), und rund 23 Prozent weniger als der Höchstkurs während der zu Ende gehenden Handelswoche (26,53 Dollar). Normalerweise werden große, neu ausgegebene Aktienpakete mit Preisaufschlägen verkauft, zumal ja auch der Großeinkauf über die Börse den Preis treiben würde. Donnerstagabend lag der Kurs bei 23,50 Dollar; nach Bekanntgabe der Teilverstaatlichung am Freitag stiegen Intel-Aktien auf einen Schlusskurs von 24,80 Dollar, ein Tagesplus von 5,5 Prozent.

[Update] Folgendes wurde um 4:44 Uhr ergänzt:

Die Subventionen, die nun endlich fließen sollen, gehen auf das US-Bundesgesetz CHIPS and Science Act zurück. Es fördert die Halbleiterproduktion in den USA, um die Abhängigkeit von asiatischen Herstellern zu reduzieren. Das Gesetz wurde während Joe Bidens Amtszeit als Präsident von beiden US-Parteien beschlossen. Trump ist kein Freund des CHIPS Act.

Im März 2024 wurden Intel rund 8,5 Milliarden Dollar zugesprochen. Im September des Jahres folgten weitere rund drei Milliarden Dollar speziell für militärische Projekte des Chipherstellers. Nach aktuellen Konzernangaben stehen Intel insgesamt 11,1 Milliarden Dollar Subventionen zu, die Ursache der Differenz von 400 Millionen Dollar erklärt das Unternehmen nicht. Jedenfalls seien bislang nur 2,2 Milliarden Dollar ausgezahlt worden. Im Austausch für das Aktienpaket sollen alsbald die restlichen 8,9 Milliarden Dollar freigegeben werden.

Dafür erhalten die USA neben dem Aktienpaket noch Optionen: Sollte Intel binnen fünf Jahren mehr als 49 Prozent seiner Chipproduktion (Foundry) veräußern, dürfen die USA weitere fünf Prozent der Restkonzern kaufen. Dann würden die Aktien lediglich 20 Dollar das Stück kosten.

Gleichzeitig verzichtet die US-Regierung auf die Anwendung geltender gesetzlicher Schutzbestimmungen, die im Interesse der Nationalen Sicherheit sowie zur Vorbeugung gegen Missbrauch geschaffen worden sind. Der CHIPS Act enthält Gewinnbeteiligungsklauseln: Subventionsempfänger, die Übergewinne machen, sollten einen Teil davon in die Staatskasse zurückzahlen. Außerdem sollten sie für ihre Mitarbeiter leistbare Kindergartenplätze schaffen oder subventionieren. Zudem untersagt das Gesetz die Verwendung der Zuschüsse für Ausschüttungen an Aktionäre.

Zusätzlich versucht der CHIPS Act zu verhindern, dass die Förderwerber gerade jene Länder unterstützen, von denen sich die USA bedroht sehen. Subventionsempfänger dürfen zehn Jahre lang keine neuen Chipfabriken in einem Land von Besorgnis erreichten oder Kapazität dort bereits bestehender Fabriken um mehr als fünf Prozent erhöhen. Gemeinsame Forschung mit Einrichtungen von Besorgnis (entities of concern) ist ihnen ebenfalls untersagt. Gemeint sind insbesondere die Volksrepublik China beziehungsweise dortige Forschungseinrichtungen.

All diese Bestimmungen sollen für Intel jetzt nicht mehr gelten. Ebenso ist keine Rede mehr von der Ablöse Tans an der Konzernspitze. Trumps Besorgnis über Tans Verbindungen zu und Beteiligungen an chinesischen Computerchipfirmen, die Verbindungen zur Kommunistischen Partei und zur Volksbefreiungsarmee der Volksrepublik China haben sollen, sind offenbar verflogen.

Verflogen sind schließlich auch die Skrupel bezüglich der rechtswidrigen Umgehung von Exportverboten nach China. Die Firma Cadence Design Systems hat jüngst zugegeben, die chinesische National University of Defense Technology (NUDT) jahrelang mit Chipdesign-Werkzeugen versorgt zu haben, obwohl die Universität aufgrund von Verbindungen zum chinesischen Militär seit 2015 unter US-Embargo steht. Das geschah über Drittfirmen von 2015 bis 2020, als Tan CEO Cadences war.

[/Update]


(ds)



Source link

Weiterlesen

Künstliche Intelligenz

KI-Update kompakt: Gemini Live, AI Mode, GPT-5-Test, KI-Psychosen


Google hat bei seinem „Made by Google“-Event Verbesserungen für seinen KI-Assistenten Gemini Live vorgestellt. Der Assistent kann nun das Kamerabild analysieren und gleichzeitig Gespräche führen. Neu ist die Integration mit Google Calendar, Keep und Tasks sowie eine „Visuelle Führung“-Funktion, die Objekte im Bild markieren kann. Fragt man etwa vor dem Gewürzregal nach Ersatzmöglichkeiten, umkreist Gemini passende Alternativen. In den kommenden Wochen soll das zugrundeliegende KI-Modell zudem verbesserte sprachliche Fähigkeiten erhalten.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO

Mit „Gemini for Home“ löst Google zudem seinen bisherigen Smart-Home-Assistenten ab. Der neue Dienst soll natürlichere Sprache verstehen und komplexere Anweisungen verarbeiten können. Nutzer können mehrere Befehle in einem Satz kombinieren oder Dialoge ohne wiederholte Aktivierungsphrasen führen. Ab Oktober will Google erste Geräte über ein Early-Access-Programm mit der neuen KI ausstatten.

Google rollt seinen KI-gestützten Suchmodus in 180 weiteren Ländern aus, jedoch nicht in der EU. Der „AI Mode“ bleibt zudem vorerst auf Englisch beschränkt. In den USA erhält die Funktion nun agentische Fähigkeiten, die praktische Aufgaben übernehmen sollen. Nutzer können etwa Restaurantreservierungen vornehmen, wobei die KI auf Google Maps zugreift, um passende Lokale im gewünschten Umkreis zu finden.

Die neue Funktionalität basiert auf Googles „Project Mariner“ und verbindet Echtzeit-Suche mit dem Knowledge Graph und Google Maps. Zudem lässt sich der AI Mode personalisieren und merkt sich Vorlieben des Nutzers – zunächst allerdings nur beim Thema Essen. Diese Gedächtnisfunktion kann auf Wunsch deaktiviert werden.

Chatbots und KI-Modelle verändern nicht nur die Informationssuche, sondern auch die Struktur des Internetverkehrs selbst. Ein Bericht der Cloud-Plattform Fastly zeigt den wachsenden Einfluss automatisierter KI-Anfragen. Dabei fallen zwei Hauptgruppen auf: KI-Crawler durchkämmen das Netz systematisch für Trainingsdaten, während Fetcher-Bots wie ChatGPTs Agenten Inhalte in Echtzeit abrufen, um Nutzeranfragen zu beantworten.

Zwischen April und Juli 2025 entfielen laut Fastly 80 Prozent des beobachteten KI-Bot-Verkehrs auf Crawler. Meta dominiert mit 52 Prozent aller KI-Crawler-Anfragen. Die intensive Datensammlung kann selbst ohne böswillige Absicht zu erheblichem Bandbreitenverbrauch führen und Server ähnlich wie bei DDoS-Angriffen überlasten.

In einem von iX durchgeführten Benchmark für agentische KI-Workflows setzt sich Anthropics Opus 4.1 mit einer Erfolgsquote von 90,1 Prozent an die Spitze. OpenAIs GPT-5 folgt mit 79,8 Prozent, während GLM-4.5 von Zhipu AI mit 75,4 Prozent den dritten Platz belegt. Der Test simuliert mehrstufige Dialoge zwischen Nutzern und Unternehmens-Chatbots mit verschiedenen Werkzeugen und Aufgaben.

Der Einsatz von Reasoning-Fähigkeiten verbessert die Ergebnisse deutlich, treibt aber auch Kosten und Bearbeitungszeit in die Höhe. Mit knapp 25 Euro pro Test verursachte GPT-5 viermal höhere Kosten als GLM-4.5, während Opus mit 265 Euro mehr als das Zehnfache kostete. Im Preis-Leistungs-Verhältnis liegt GPT-5 vor Anthropics Modellen, während GLM-4.5 durch ähnliche Qualität bei geringeren Kosten und höherer Geschwindigkeit überzeugt. Den ausführlichen Test könnt Ihr bei heise+ nachlesen. Dafür gibt es ein besonderes Angebot für unsere Podcast-Community unter

OpenAI hat im Juli erstmals einen monatlichen Umsatz von einer Milliarde US-Dollar erzielt. Für das Gesamtjahr rechnet das Unternehmen mit einer Verdreifachung auf 12,7 Milliarden US-Dollar. Die Zahl der ChatGPT-Plus- und -Pro-Abonnenten stieg trotz des vielfach kritisierten GPT-5-Starts weiter an.

Trotz der wachsenden Einnahmen schreibt das Unternehmen weiterhin rote Zahlen. Die größte Herausforderung bleibt die benötigte Rechenleistung, die das verfügbare Angebot übersteigt. CEO Sam Altman sprach kürzlich von notwendigen Investitionen in Rechenzentren in Billionenhöhe. Für 2025 wird eine Cash-Burn-Rate von etwa acht Milliarden US-Dollar erwartet.


KI-Update

KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Das chinesische KI-Unternehmen Deepseek hat sein neues Modell V3.1 vorgestellt, das dem Trend zu hybriden Systemen mit Chat- und Reasoning-Modus folgt. Beide Modi unterstützen ein Kontextfenster von 128.000 Tokens. Das Modell wurde mit 840 Milliarden zusätzlichen Tokens auf Basis der Vorgängerversion weitertrainiert.

Bemerkenswert ist Deepseeks aggressive Preisgestaltung: Die Ausgabe von Tokens kostet nur 1,68 Dollar pro Million, während OpenAI und Google 10 Dollar und Anthropic sogar 75 Dollar verlangen. Zusätzlich stehen die Modell-Gewichte unter MIT-Lizenz auf Hugging Face zur Verfügung. In Coding-Benchmarks erreicht V3.1 Ergebnisse auf Augenhöhe mit den neuesten Modellen von Anthropic und OpenAI.

Meta hat einen temporären Einstellungsstopp für KI-Experten verhängt, während die Superintelligence-Abteilung umstrukturiert wird. Auch interne Positionswechsel sind derzeit nicht möglich. Ein Unternehmenssprecher erklärte, es gehe um die „Schaffung einer soliden Struktur für unsere neuen Bemühungen im Bereich der Superintelligenz“.

Die mit Milliarden finanzierte Abteilung wird in vier Teams aufgeteilt: eines für die Entwicklung einer Superintelligenz, eines für Produktentwicklung, eines für Infrastruktur und ein wissenschaftliches Team. Letzteres dürfte das in Paris ansässige FAIR-Team (Fundamental AI Research) unter Turing-Preisträger Yann LeCun sein. Während im Silicon Valley meist eine Artificial General Intelligence (AGI) angestrebt wird, verfolgt Metas Forschungsteam das Konzept einer Advanced Machine Intelligence (AMI).

Mustafa Suleyman, Chef von Microsoft AI und Mitbegründer von DeepMind, warnt vor KI-Systemen, die Bewusstsein so überzeugend vortäuschen könnten, dass Menschen ihnen echte Gefühle zuschreiben. Diese „Seemingly Conscious AI“ könnte bereits in zwei bis drei Jahren Realität werden, ohne dass technologische Durchbrüche nötig wären.

Die Kombination aus eloquenter Sprache, empathischer Persönlichkeit, präzisem Gedächtnis und der Behauptung eigener Wünsche reiche aus. Suleyman befürchtet „KI-Psychosen“ – wahnhafte Überzeugungen durch Chatbot-Interaktionen – und fordert die Branche zum Handeln auf. Unternehmen sollten niemals behaupten, ihre KI sei bewusst, und stattdessen bewusste Unterbrechungen in Interaktionen einbauen, um die Illusion zu brechen.

Eine Anfrage an Googles KI-Software Gemini verbraucht nach Unternehmensangaben durchschnittlich 0,24 Wattstunden – etwa so viel wie neun Sekunden Fernsehen. Dabei werden rund fünf Tropfen Wasser zur Kühlung der Rechenzentren benötigt. OpenAI beziffert den Energiebedarf einer ChatGPT-Anfrage auf 0,34 Wattstunden, vergleichbar mit einer Sekunde Backofen-Betrieb.

Die Angaben beider Unternehmen lassen allerdings das energieintensive Training der KI-Modelle außer Acht. Zudem führt die Masse der Nutzung trotz Effizienzgewinnen bei einzelnen Anfragen insgesamt zu einem sprunghaften Anstieg des Strombedarfs für KI-Rechenzentren.

Die Commonwealth Bank of Australia (CBA) hat ihre Entscheidung, 45 Kundenservice-Stellen durch KI zu ersetzen, rückgängig gemacht. Das Finanzinstitut hatte Ende 2024 mit dem Test eines generativen KI-Chatbots namens „Hey CommBank“ begonnen, was bei den rund 2400 Callcenter-Mitarbeitern Ängste vor weiteren Stellenstreichungen auslöste.

Die Finance Sector Union (FSU) feiert das Umdenken als ihren Erfolg und wirft der Bank vor, Stellenstreichungen als Innovation verpacken zu wollen. Die CBA ist nicht das erste Unternehmen, das den Ersatz menschlicher Arbeitskräfte durch KI zurücknimmt. Auch das schwedische Fintech Klarna kehrte im Mai zu menschlichen Mitarbeitern zurück, nachdem KI-Bemühungen offenbar nicht den erhofften Erfolg brachten.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO


(igr)



Source link

Weiterlesen

Beliebt