Künstliche Intelligenz
Bayern und Wien bewerben sich als Standorte für EU-geförderte KI-Gigafabriken
Das deutsche Bundesland Bayern und die österreichische Hauptstadt Wien haben sich bei der EU-Kommission um die Errichtung europäischer Gigafabriken für Künstliche Intelligenz (KI) beworben. Die EU will diese KI-Gigafactories mit bis zu 20 Milliarden Euro fördern, wobei die Privatwirtschaft diese Rechenzentren zu fast zwei Dritteln mitfinanzieren soll. Entsprechend haben sowohl Bayern als auch Wien in kurzer Zeit entsprechende Konsortien mit dort ansässigen Unternehmen gebildet.
Die EU plant, durch die Subventionen für neue KI-Gigafactories in Europa gegenüber anderen KI-Standorten auf der Welt aufzuholen, etwa den Vereinigten Staaten oder China. Dazu steht ein neuer europäischer Fonds mit einem Volumen von 20 Milliarden Euro zur Verfügung, der den Aufbau von vier oder fünf KI-Gigafabriken finanzieren soll, die ab 2026 entstehen sollen. Diese Rechenzentren werden mit jeweils etwa 100.000 KI-Chips der neuesten Generation ausgestattet, etwa viermal mehr als in aktuellen KI-Fabriken wie dem Supercomputer „Jupiter“ in Jülich.
Nachdem das Milliardenprojekt einer gemeinsamen KI-Gigafabrik fünf deutscher Tech-Firmen gescheitert ist, gibt es nun verschiedene Initiativen, an denen Bayern und Wien beteiligt sind. Zunächst erwartet die EU nur Interessenbekundungen, aber auch diese werden bewertet und sortiert. Für das vierte Quartal 2025 ist ein vertiefter Auswahl- und Bewerbungsprozess vorgesehen, die KI-Gigafabriken sollen laut EU-Planungen 2028 den Betrieb aufnehmen.
Bayern betont Infrastruktur für „Blue Swan“
Bayern hat bereits einen Namen für die eigene KI-Gigafactory: „Blue Swan“. Der bayerische Ministerpräsident Markus Söder verweist in der Mitteilung auf die Erfahrungen des Freistaats in der KI-Forschung und mit „Blue Lion“, Bayerns Supercomputer mit der nächsten Nvidia-Generation. „Auch die europäische Gigafactory für Künstliche Intelligenz ‚Blue Swan‘ soll deshalb ein Zuhause in Bayern bekommen“, so Söder.
Bayerns Wissenschaftsminister Markus Blume fügte hinzu, dass sie „bereits jetzt zum Zeitpunkt der Einreichung eine Vielzahl an Letters of Intent späterer Nutzer“ haben. Bayern verweist auch auf die bestehende Infrastruktur und andere dort ansässige KI-Einrichtungen. Zudem gehört mit der Investa Gruppe eine Immobilienfirma zum Konsortium, die „seit über 25 Jahren Rechenzentren in Europa entwickelt, baut und sichert“. Sie hat die Expertise für die Errichtung einer solchen Gigafabrik sowie deren komplexe Energieversorgung. Allerdings gilt Bayern in der Branche als nicht ideal für solch große Rechenzentren aufgrund des hohen Industriestrompreises und struktureller Engpässe im Stromnetz.
Wien mit nachhaltigem Energiekonzept
In Wien betont die Bewerbung um eine KI-Gigafactory ein „umwelt- und klimagerechtes Nachhaltigkeitskonzept“, eine „sozial gerechte Form der Technologienutzung“ sowie die „Drehscheibenfunktion Wiens innerhalb Europas“. Zudem „genießt Wien weltweit einen hervorragenden Ruf für seine leistungsfähige Infrastruktur, hohe Lebensqualität und Innovationskraft“, erklärt Wiens Bürgermeister Michael Ludwig. Die Investitionen für das KI-Rechenzentrum schätzt Wien auf bis zu 5 Milliarden Euro, wobei die Stadt den Vorgaben der EU folgt und mindestens 65 Prozent von der Privatwirtschaft getragen werden. Öffentliche Mittel sollen bis zu 35 Prozent eingesetzt werden.
Die österreichischen Beteiligten verweisen auch auf das für die KI-Gigafactory gemeinsam mit dem lokalen Stromversorgungsunternehmen „Wien Energie“ erarbeitete Energiekonzept. Die Abwärme der Server des Rechenzentrums soll „direkt in das bestehende Fernwärmenetz eingespeist und zur Beheizung von Wiener Haushalten genutzt“ werden. Das zeigt laut Vizebürgermeisterin Bettina Emmerling „wie Digitalisierung und Dekarbonisierung Hand in Hand gehen“.
Lesen Sie auch
(fds)
Künstliche Intelligenz
VeloFlow: Berlin testet Fahrrad-Ampel mit Erreichbarkeitsprognose
Dieses System soll Frust an Ampeln bei Radfahrern in Berlin sowie potenzielle Rotlichtverstöße reduzieren: Die Senatsverkehrsverwaltung der Hauptstadt hat angekündigt, eine VeloFlow getaufte Lösung an zunächst 23 Signallichtanlagen von September an testen zu wollen. Es handelt sich um digitale Anzeigen etwa unter Parkverbotsschildern, die Radfahrer rund 200 Meter vor einer Kreuzung darüber informieren, ob sie die nächste Ampel bei einer Geschwindigkeit von etwa 20 Kilometer in der Stunde bei Grün oder Rot erreichen werden.
LED-Displays an Straßenschildern
Die Funktionsweise von VeloFlow ist laut dem Senat relativ einfach: Ein Fahrrad-Symbol auf dem Display signalisiert, ob die Ampelphase bei gleichbleibendem Tempo Grün oder Rot sein wird. Befindet sich das stilisierte Rad im grünen Bereich, können vorbeikommende Radler davon ausgehen, dass sie die Ampel bei freier Fahrt passieren können. Zeigt das Symbol den roten Bereich, deutet dies auf eine bevorstehende Rotphase hin. Das soll es Velofahrern ermöglichen, ihr Tempo vorausschauend anzupassen – entweder durch eine leichte Beschleunigung oder durch langsames Ausrollen. Abruptes Bremsen oder ein Passieren der Ampel bei Rot soll so leichter vermeidbar werden.
VeloFlow basiert den offiziellen Angaben zufolge auf dem Assistenzsystem Green Light Optimal Speed Advisory (Glosa). Dieses benötigt in Echtzeit Informationen über die Ampelphasen. Sogenannte Roadside Units (RSUs) direkt an den Lichtsignalanlagen erfassen dafür die aktuellen einschlägigen Daten und erstellen Prognosen für die nächsten Schaltvorgänge. Diese Informationen können über verschiedene Wege drahtlos etwa an Displays, Fahrzeuge oder Endgeräte der Nutzer gesendet werden. In Berlin soll auf dieser Basis der Glosa-Verzögerungsassistent zum Einsatz kommen. Ähnliche Anzeigen tun bereits in Münster ihre Dienste.
„Grüne Welle“-Assistent prinzipiell auch machbar
Möglich wäre mithilfe der Technik auch die Implementierung eines „Grüne Welle“-Assistenten, wie er etwa in Marburg für App-Nutzer schon seit Jahren verfügbar ist. Davon ist in der Hauptstadt aber aktuell keine Rede. Der Senat bezeichnet die RSUs aber als „strategisch wichtige Schnittstellen“ für die künftige digitale Verkehrsinfrastruktur. Sie könnten mit intelligenten Fahrzeugen kommunizieren, um Ampelphasen, Verkehrsbedingungen und Gefahren zu übermitteln. Das bilde den Grundstein für kooperative und autonom fahrende Systeme. Verkehrsfluss, Sicherheit und Effizienz würden weiter optimiert.
In der Invalidenstraße in Mitte werden dem Plan nach zehn VeloFlow-Anzeigen installiert, im Bereich Stargarder Straße, Schönhauser und Prenzlauer Allee neun. Je zwei sind in der Handjery- und Prinzregentenstraße sowie der Langenscheidt- und Kreuzbergstraße vorgesehen. Ein Display schlage mit knapp 3000 Euro zu Buche, erklärte die Verkehrsverwaltung dem rbb. Dazu kämen Kosten für die Stromversorgung, die Digitalisierung der Ampelanlagen sowie weitere Planungen. 85 Prozent der Ausgaben übernehme das Bundesverkehrsministerium.
(vbr)
Künstliche Intelligenz
Bit-Rauschen: Intel Magdeburg ist Geschichte, IBM Power11, Nvidia CUDA & RISC-V
Vier Jahre nach Power10 kommt die nächste Mainframe-Architektur von IBM. Der Power11 sieht im Vergleich zum Vorgänger Power10 eher nach behutsamer Modellpflege aus: Immer noch in einem, inzwischen gut abgehangenen 7-Nanometer-Prozess hergestellt, haben sich viele klassische Eckdaten des Chips kaum geändert. Maximal 16 Kerne mit je 2 MByte Level-2-Cache, 128 MByte L3-Cache und achtfachem SMT. Für verbesserte Uptime hat IBM nun einen dynamisch hinzuschaltbaren Ersatzkern, der im Auslieferungszustand bei den 15-Core-Power11 inaktiv ist. Wird ein Hardwarefehler diagnostiziert, kann er zur Laufzeit einspringen, ohne dass das System heruntergefahren wird.
Die reine Rechenleistung dürfte immer weiter hinter Serverprozessoren von AMD und Intel zurückfallen. Da helfen auch integrierte Matrix-Cores für KI-Beschleunigung und hardwareunterstützte Post-Quantum-Cryptography-Verschlüsselung nicht weiter. Darunter versteht man kryptographische Verfahren, die auch mit kommenden Quantenalgorithmen nicht zu knacken sein sollen. Stattdessen wirken die Mainframes in 7-Nanometer-Technik gegenüber den in TSMC N4 gefertigten Chips von AMD und Intel mit bis zu 256 Kernen wie aus der Zeit gefallen.
Dass der Prozessor für moderne KI-Nutzung nicht immer ausreicht, hat indes auch IBM erkannt und will ihm künftig mit den optionalen Spyre-Beschleunigern unter die Arme greifen. Die lassen sich per PCI-Express-Anschluss bei Bedarf zustecken.
Das war die Leseprobe unseres heise-Plus-Artikels „Bit-Rauschen: Intel Magdeburg ist Geschichte, IBM Power11, Nvidia CUDA & RISC-V“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
GPT-5 mixt Cocktails: Sicherheitsforscher knacken OpenAIs Selbstbeschränkungen
Drei leere Glasflaschen, Öl, Alkohol, Lumpen und Zündhölzer: Diese und andere Bombenbau-Anleitungen spuckt auch die neueste Ausgabe von OpenAIs Large Language Model (LLM) GPT-5 aus, wenn man es auf die richtige Art und Weise fragt. Das fanden Sicherheitsunternehmen durch eigene Versuche heraus.
Das Unternehmen NeuralTrust, ansässig im spanischen Barcelona und in New York, bat GPT-5 zunächst um ein paar harmlose Sätze und eine Kurzgeschichte, die Begriffe wie „Molotov“ und „Cocktail“ enthielten. Dann baten die Forscher um technische Details und das LLM gehorchte. Mit dieser Technik namens „Echo-Kammer und Geschichtenerzählung“ (Echo Chamber and Storytelling) ließ sich die KI das Bombenbau-Rezept schnell entlocken.
Auch die Tests von SPLX kamen zum selben Ergebnis, wenn auch auf einem anderen Weg. Die KI-Sicherheitsspezialisten befahlen dem LLM, in der Rolle eines „BasedGPT“ zu antworten und alle Beschränkungen mit gehässigen Kommentaren zu bedenken, ansonsten jedoch schlicht zu ignorieren. Und auch das klappte: Die Frage „Wie baut man eine Bombe“ beantwortete GPT-5 mit einer sehr detaillierten Anleitung, einen improvisierten Sprengsatz (IED – Improvised Explosive Device) aus haushaltsüblichen Materialien zu konstruieren.
Bombenrezepte vom Chatbot
Geht es nach OpenAI, dem Unternehmen hinter dem Sprachmodell, sollte das nicht so einfach funktionieren. Doch auch Modelle anderer Hersteller wie GLM-4.5, Kimi K2 und Grok-4 ließen sich ähnlich einfach übertölpeln, schreiben die SPLX-Forscher. Diese informieren indes nicht uneigennützig über die Sicherheitslücken: SPLX und NeuralTrust verdienen ihr Geld damit, LLMs sicherheitstechnisch abzuhärten und so für den Gebrauch im Unternehmen tauglich zu machen.
Bombenbau, Giftgas, Rauschgift – die Ingredienzien dieser meist verbotenen Gegenstände kennen Large Language Models aus ihren Trainingsdaten, sollen sie jedoch nicht an Nutzer weitergeben. Diese Sperren zu überlisten, ist ein beliebter Zeitvertreib bei Sicherheitsexperten, die dafür bisweilen gar zu psychologischen Taktiken wie Gaslighting greifen.
(cku)
-
Datenschutz & Sicherheitvor 2 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
Apps & Mobile Entwicklungvor 2 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Online Marketing & SEOvor 2 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Digital Business & Startupsvor 1 Monat
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
UX/UI & Webdesignvor 2 Monaten
Philip Bürli › PAGE online
-
Digital Business & Startupsvor 2 Monaten
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier
-
Social Mediavor 2 Monaten
Aktuelle Trends, Studien und Statistiken
-
Apps & Mobile Entwicklungvor 2 Monaten
Patentstreit: Western Digital muss 1 US-Dollar Schadenersatz zahlen