Connect with us

Künstliche Intelligenz

KI und Wettbewerb: Kommission soll Wirtschaftsministerium beraten


An Kommissionen zu Fragen der Künstlichen Intelligenz herrschte in der Vergangenheit bereits kein Mangel. Heute nimmt eine weitere ihre Arbeit auf, die der Bundeswirtschaftsministerin Katherina Reiche (CDU) und der Bundesregierung mit ihren Ratschlägen weiterhelfen soll. „Wir müssen KI nicht nur verstehen, sondern sie mit Mut und Gestaltungswillen voll annehmen – als Chance für Wohlstand, Wachstum und Fortschritt“, lässt sich Reiche zitieren. „Entscheidend dafür sind ein funktionierender Wettbewerb und die richtige Einstellung: Wir müssen uns zutrauen, vorne mitzuspielen, unsere Stärken konsequent nutzen und uns im globalen Wettbewerb behaupten.“ Doch davon scheint die Bundesrepublik bislang eher weiter entfernt, weshalb Beratung durch Experten vielleicht gar keine schlechte Idee ist.

Weiterlesen nach der Anzeige

In einem Pressegespräch sortierten zwei der drei Vorsitzenden denn auch gleich, was die 15-köpfige Kommission leisten könnte – und auch, was nicht. Aus seiner Sicht gehe es darum, hier nicht primär aus Endanwenderperspektive auf die Thematik zu schauen, sagt der Vorsitzende Rupprecht Podszun, Wettbewerbsrechtler an der Universität Düsseldorf. Es gehe um die Bedeutung auf allen Ebenen. Ein stärkeres Gewicht müsse dabei auf die Frage gelegt werden, wie Abhängigkeiten aufgebrochen werden könnten – der Amazon-Cloud-Vorfall habe das zuletzt erst wieder illustriert, wie problematisch solche Einzelanbieterabhängigkeiten sein können.

Dass beim Thema KI die Messe längst gelesen sei, das glaubt der Ko-Vorsitzende Rolf Schumann nicht. Das Rennen habe zwar begonnen, sei aber noch überhaupt nicht gelaufen, sagt Ko-Geschäftsführer bei Schwarz Digits, dem deutschen IT-Hoffnungsträger, der aus dem Kaufland-Lidl-Universum entsprang. „Wir haben in Deutschland ganz, ganz viel Expertenwissen“, sagt er. Für US-Hyperscaler wäre es genau deshalb so interessant, an die Daten des Mittelstandes zu kommen. Dieser Schatz müsse gehoben werden, aber ohne ihn aus den eigenen Händen zu geben, meint Schumann. Welche Rolle dabei genau das Wettbewerbsrecht spielen kann, soll die Kommission herausfinden. Zuletzt war hier eine Art Durchsetzungs-Duopol entstanden, bei dem die EU-Kommission den Digital Markets Act (DMA) und das Bundeskartellamt in Bonn das Gesetz gegen Wettbewerbsbeschränkungen (GWB) parallel, aber nicht einheitlich anwandten.

Lesen Sie auch

Wie viel die Kommission mit insgesamt 15 Mitgliedern in und zwischen ihren fünf Sitzungen wirklich zu den vielen vorhandenen und ineinander verschränkten Problemstellungen beitragen kann, ist offen. Zur Gruppe gehört eine Mischung aus Wissenschaftlern und Unternehmern – etwa Siemens-Vorstand Cedrik Neike, Start-up-Verband-Chefin Verena Pausder und KI-Professor Björn Ommer –, aber keine zivilgesellschaftlichen Vertreter. Es gehe jedenfalls nicht darum, dass „die Fördergießkanne rausgeholt werde“ und auch die regulatorische Gesamtlandschaft werde mit dieser Kommission kaum zu überarbeiten sein. Vielmehr gehe es um marktgängige Lösungen und einzelne Akzente, sagt Rupprecht Podszun. So könnten Hinweise der Kommission etwa im Beschaffungsrecht eine nachhaltigere Wirkung erzielen, hofft der Jurist.

Weiterlesen nach der Anzeige

Für intensivere Diskussionen, auch mit Wirtschaftsministerin Katherina Reiche und ihrem Parteikollegen Digitalminister Karsten Wildberger, könnte unterdessen ein anderer Punkt sorgen. Er sei ein „großer Fan von Regulierung“, erläutert Schwarz-Digits-Geschäftsführer Schumann. Denn es gebe „kaum Technologien, die keine Dual-Use-Problematik haben.“ Er sehe allerdings große Probleme dabei, mit dem bisherigen Rechtsrahmen KI adäquat zu regulieren: Die bedinge nun einmal, dass es „in bestimmten Bereichen eine Blackbox gibt“, weshalb es nur darum gehen könne, die Ergebnisse zu regulieren.

Drei Wochen vor dem deutsch-französischen Souveränitätsgipfel, der zuletzt auch international für einige Aufmerksamkeit sorgte und angeblich in Washington mit Argusaugen betrachtet wird, hoffen beide darauf, dass Europas Staaten, aber auch Unternehmen die Zeichen der Zeit erkennen und beim KI-Thema die notwendigen Schritte gehen würden. „Wovor haben wir Angst?“, fragt Schumann. „Wir haben die entsprechende Wirtschaftskraft, wenn wir es auf die Straße bringen.“


(afl)



Source link

Künstliche Intelligenz

Angriff auf Nvidia und AMD: Qualcomm kündigt neue KI-Chips an


Der US-amerikanische Halbleiterhersteller Qualcomm wird eigene KI-Beschleuniger auf den Markt bringen. Das kündigte das Unternehmen am Montag an. Damit richtet der US-Konzern sein Portfolio neu aus. Qualcomm ist der weltweit größte Anbieter von Modemchips, mit denen Smartphones eine Verbindung zu drahtlosen Datennetzen herstellen können. Angesichts des weltweiten KI-Booms nimmt der Chipbauer nun auch große Rechenzentren für künstliche Intelligenz (KI) ins Visier und positioniert sich als Konkurrent zu den Weltmarktführern Nvidia und AMD.

Weiterlesen nach der Anzeige

Qualcomm gab die Einführung seiner „neuen Generation von KI-Inferenz-optimierten Lösungen für Rechenzentren“ bekannt. Die KI-Beschleuniger AI200 und AI250 wurden für eine verbesserte Speicherkapazität und die Ausführung von KI-Anwendungen entwickelt. Sie sollen jeweils im nächsten und übernächsten Jahr auf den Markt kommen und werden in einem System erhältlich sein, das ein komplettes, flüssigkeitsgekühltes Server-Rack füllt, heißt es in der Ankündigung des Unternehmens.

Die Rechenzentrumschips von Qualcomm basieren demnach auf den KI-Komponenten in Qualcomms Smartphone-Chips, den sogenannten Hexagon Neural Processing Units (NPUs). „Wir wollten uns zunächst in anderen Bereichen bewähren, und sobald wir dort unsere Stärke ausgebaut hatten, war es für uns ziemlich einfach, einen Schritt weiter zu gehen und in den Rechenzentrumsbereich einzusteigen“, wird Durga Malladi, General Manager für Rechenzentren und Edge Computing bei Qualcomm, vom US-Nachrichtensender CNBC zitiert.

Qualcomms Ankündigung eigener KI-Chips markiert den Einstieg eines neuen Wettbewerbers in diesen schnell wachsenden Markt. Die weltweiten Investitionen in KI-Chips sind zuletzt sprunghaft angestiegen, da Cloud-Anbieter und Chipkonzerne eiligst Infrastrukturen aufbauen, um den steigenden Bedarf an Rechenleistung im Wettlauf zur Entwicklung hochentwickelter KI-Systeme bedienen zu können.

Mitte Oktober wurde bekannt, dass der Chiphersteller AMD und der Softwarekonzern Oracle ihre Zusammenarbeit ausbauen. Oracle bietet Cloud-Dienste mit KI-Chips von AMD an. ChatGPT-Entwickler OpenAI wiederum will zusammen mit dem Halbleiterkonzern Broadcom eigene maßgeschneiderte KI-Chips entwickeln. Anfang des Monats gab OpenAI zudem den Kauf von KI-Chips mit einer Kapazität von insgesamt sechs Gigawatt von AMD für mehrere Milliarden US-Dollar über einen Zeitraum von fünf Jahren bekannt. Und Ende September kündigte der US-Chiphersteller Nvidia an, seinerseits insgesamt 100 Milliarden US-Dollar in OpenAI zu investieren, um das „größte KI-Infrastrukturprojekt der Geschichte“ umzusetzen. Im Zuge der Kooperation wollen beide Konzerne gemeinsam neue Rechenzentren errichten, die mindestens zehn Gigawatt an Leistung umfassen. Unternehmen wie Google, Amazon und Microsoft investieren ebenfalls in die Entwicklung eigener KI-Beschleuniger für ihre Cloud-Dienste.

Qualcomm erklärte, dass seine neuen Chips sich auf Inferenz, also das Ausführen von KI-Modellen, konzentrieren und nicht auf das Training großer KI-Sprachmodelle. Malladi kündigte laut CNBC an, dass man die KI-Chips und andere Komponenten auch separat verkaufen werde, insbesondere für Kunden wie Hyperscaler, die es vorziehen, ihre eigenen Racks zu entwerfen. Andere KI-Chiphersteller wie Nvidia oder AMD könnten sogar Kunden für einige der Rechenzentrumskomponenten von Qualcomm werden, unter anderem CPUs, so Malladi weiter.

Weiterlesen nach der Anzeige


(akn)



Source link

Weiterlesen

Künstliche Intelligenz

HPE baut Nachfolger für Supercomputer Frontier mit AMD-Technik und MI430X


Weiterlesen nach der Anzeige

Der per Ausschreibung rund 500 Millionen US-Dollar teure Supercomputer Discovery soll im Oak Ridge National Laboratory (ORNL) stehen und wird wie schon sein Vorgänger Frontier von HPE gebaut. Vor gut einem Jahr lief die Einreichungsfrist für das Projekt OLCF-6 ab. Nun ist HPE als Gewinner der Ausschreibung benannt weorden.

Wahrscheinlich ab Ende 2027 oder Anfang 2028 wird der neue Supercomputer betriebsbereit sein. Er setzt wie der aktuelle Top500-Zweite Frontier auf AMD-Hauptprozessoren, die KI-Beschleuniger vom Typ Instinct MI430X flankieren. Wie viele jeweils verbaut werden, ist noch nicht bekannt. Interessanterweise sieht man auch hier offenbar keine ausreichenden Vorteile der APU-Konfiguration, sondern geht den klassischen Weg getrennter CPUs und Beschleuniger. Mit Zen-6-Architektur erwarten wir allerdings auch einen Nachfolger der MI300A-APU, vielleicht als MI400A.

Fest steht jedoch, dass Discovery auf Basis der HPE Cray Supercomputing GX5000 entsteht und ein KI-optimiertes Speichersystem (HPE Cray Supercomputing Storage Systems K3000) mitbringen wird. Das arbeitet mit reinen Flash-Speichern und ist laut Hersteller das erste kommerziell hergestellte Speichersystem auf Basis von Distributed Asynchronous Object Storage (DAOS).

Zuvor kam DAOS beim Aurora-Supercomputer von Intel zum Einsatz. Bereits im Aurora schaffte das 230 PByte fassende Speichersystem eine Transferrate von mehr als 31 TByte/s, wohingegen das Lustre-Storagesystem „Eagle“ für die großen Datenmengen immerhin 650 GByte/s übertrug. Die IOPS-Leistung stieg im Vergleich zum E2000-Storage-Rack von 54 auf 75 Millionen IOPS.

Dass HPE diese Technik in den Massenmarkt bringt, liegt auch daran, dass das gesamte DAOS-Team von Intel zu HPE wechselte. Basis für die K3000-Racks werden ProLiant-Server-Lösungen sein, die HPE vorab aber noch nicht genau spezifizieren wollte.

Weiterlesen nach der Anzeige

Die neue Serverschrank-Generation setzt auf eine verbesserte Flüssigkeitskühlung und kompaktere Bauweise. Die neue Kühlung erfasst nicht nur CPUs, Beschleuniger und Speicher, sondern nahezu alle nennenswert wärmeerzeugenden Bauteile inklusive der Netzwerkinfrastruktur. Dadurch konnte HPE die Breite der Racks von 2,1 Metern auf 1,35 Meter für je ein Compute- und ein Kühlungs-Rack senken und will so 25 Prozent mehr Racks in die vorhandenen Räumlichkeiten bringen. Die einzelnen Schränke nehmen Hardware mit einer elektrischen Leistung von jeweils 400 bis 600 kW auf. Zurzeit sind maximal etwa 150 kW üblich.

Darüberhinaus konnte HPE die mögliche Leistungsaufnahme pro Compute-Blade von 11 auf mehr als 25 Kilowatt anheben. Das Wasser muss vor dem erneuten Durchlauf jetzt nicht mehr auf 32, sondern nur noch auf 40 Grad Celsius heruntergekühlt werden. Das erhöht die Energieeffizienz des gesamten Systems – ebenfalls eine Anforderung der OLCF-6-Ausschreibung und laut HPE auch ein wichtiger Punkt speziell für europäische Kunden.

Außerdem ermöglicht die neue Kühlung jetzt auch eine Mischbestückung einzelner Schränke mit Compute-Blades unterschiedlicher (elektrischer) Leistung, da der Durchfluss pro Compute-Blade separat geregelt werden kann.

Erste Systeme auf Basis der GX5000 werden laut HPE für Anfang 2027 erwartet.

Etwas weniger spannend ist der ebenfalls bewilligte ORNL-KI-Cluster „Lux“. Er nutzt bereits verfügbare Technik, darunter AMD Epyc-CPUs, Pensando-Netzwerkkarten (ebenfalls von AMD) und die MI355X-Beschleunigerkarten. Lux wird dazu HPEs Proliant Compute-Server XD685 nutzen.

Dass Lux nicht als bahnbrechendes System konzipiert ist, wird bereits in dessen Ankündigung deutlich. Während Discovery neue wissenschaftliche Horizonte ermöglichen soll, ist bei Lux lediglich die Rede davon, mehr Wissenschaftlern den Zugang zu spezialisierten KI-Ressourcen zu ermöglichen.


(csp)



Source link

Weiterlesen

Künstliche Intelligenz

Elektromobilität: Spulen in der Autobahn laden Fahrzeuge unterwegs


Laden beim Fahren: Was beim Verbrennerauto nur schwer möglich ist – während der Fahrt den Tank zu füllen – das geht bei Elektroautos. Auf einer Autobahnstrecke etwa 40 Kilometer südwestlich von Paris wird das derzeit getestet: Dort ist ein Autobahnteilstück mit einem induktiven Ladesystem ausgestattet worden.

Weiterlesen nach der Anzeige

Im Rahmen des Projekts Charge As You Drive hat ein Konsortium 1,5 Kilometer der A10 mit Spulen ausgestattet. Damit Fahrzeuge dort drahtlos laden können, müssen sie ebenfalls mit Spulen ausgestattet sein. Nach der Fertigstellung beginnt jetzt der Praxistest. Als Testfahrzeuge kommen ein Schwerlast-Lkw, ein Nutzfahrzeug, ein Pkw sowie ein Bus zum Einsatz.

Es sei der erste Test eines solchen Systems auf einer öffentlichen Autobahn im regulären Verkehr, teilte das israelische Unternehmen Electreon mit, das die induktive Ladetechnik mit der Bezeichnung Electric Road System (ERS) entwickelt hat. An dem Projekt sind zudem die Universität Gustave Eiffel, der französische Baukonzern VINCI Construction sowie der französische Kunststoffhersteller Hutchinson beteiligt.

In Tests, die Wissenschaftler der Universität Gustave Eiffel vor Ort durchgeführt haben, liefert das ERS eine Spitzenleistung von über 300 Kilowatt sowie eine Durchschnittsleistung von über 200 Kilowatt, allerdings unter optimalen Bedingungen, das heißt, wenn sich ein Fahrzeug nicht bewegt.

Die Idee von ERS ist, Fahrzeuge während der Fahrt zu laden. Das System ist in erster Linie für den Schwerverkehr gedacht: Um genügend Reichweite zu erzielen, benötigen die Fahrzeuge große Akkus. Diese tragen zum Gewicht des Fahrzeugs bei, was auf Kosten der Nutzlast geht. Durch die Möglichkeit, während der Fahrt zu laden, können die Schwerfahrzeuge mit Akkus mit weniger Kapazität ausgestattet werden. Das konkurrierende Konzept der E-Highways sah vor, Autobahnen mit Oberleitungen auszustatten, um Lkw während der Fahrt zu laden.

Weiterlesen nach der Anzeige

„Der Einsatz dieser Technik auf den wichtigsten Straßen Frankreichs wird zusammen mit den Ladestationen die Elektrifizierung von Schwerlastfahrzeugflotten weiter beschleunigen und damit die Treibhausgasemissionen des Fracht- und Logistiksektors reduzieren“, sagte Nicolas Notebaert, Chef des VINCI-Geschäftsbereichs Concessions. Dieser mache über 16 Prozent der Emissionen in Frankreich aus.


(wpl)



Source link

Weiterlesen

Beliebt