Connect with us

Künstliche Intelligenz

AMD und Sony zeigen erste Technik der mutmaßlichen Playstation 6


AMD will die Fertigkeiten seiner Radeon-Grafikeinheiten in Spielekonsolen, Notebooks und Desktop-PCs deutlich ausbauen. Drei zentrale Neuerungen einer kommenden Grafikarchitektur stellt Jack Huynh, Leiter von AMDs Computing and Graphics Group, zusammen mit dem Playstation-Chefarchitekt Mark Cerny im Video vor.

Um Ray- beziehungsweise Pathtracing-Grafikeffekte erheblich zu beschleunigen, schaut AMD bei Nvidia ab. AMD will kommende GPUs um sogenannte Radiance Cores erweitern. Diese eigenständigen Logikblöcke nehmen den Shader-Kernen das sogenannte Traversal der Bounding Volume Hierarchy (BVH) ab.

Die Bounding Volume Hierarchy stellt eine Baumstruktur dar, die Shader-Kerne auf Treffer zwischen den virtuellen Lichtstrahlen (Rays) und der Geometrie in einer 3D-Szene überprüfen. Dieser Schritt ist essenziell, um die Anzahl der berechneten Strahlen und Abpraller einzugrenzen und so Echtzeit-Raytracing zu ermöglichen.

Allerdings ist das Traversal auch einer der aufwendigsten Rechenschritte, die den Shader-Kernen Zeit für ihre eigentlichen Render-Aufgaben wegnimmt. Das ist der Hauptgrund, warum Raytracing auf Nvidias GeForce-Grafikkarten bisher schneller läuft als auf Radeon-GPUs. Dort gibt es längst eigenständige BVH-Traveral-Hardware.

KI-Algorithmen will AMD auf den eigenen Grafikeinheiten deutlich beschleunigen. Nicht etwa durch noch stärkere KI-Einheiten (Neural Processing Units, NPUs), sondern durch eine Anpassung der Compute Units. In den Compute Units sitzen die Shader-Kerne (bisher je 64). AMD will mehrere Compute Units innerhalb einer sogenannten Shader Engine zu einem sogenannten Neural Array zusammenfassen.

Die Compute Units sind stärker als bisher untereinander vernetzt und sollen gemeinsam KI-Aufgaben lösen, statt parallel einzeln KI-Algorithmen auszuführen. AMD verspricht sich davon eine deutlich höhere Effizienz. Zusammen mit Sony sollen etwa neue Bild-Upscaler entstehen.



AMD will die Shader-Cluster (Compute Units) innerhalb einer Shader-Engine künftig untereinander statt nur zentral über den Cache vernetzen.

(Bild: Sony / AMD)

Als dritte Neuerung kündigen AMD und Sony eine universelle Komprimierungstechnik (Universal Compression) an. GPUs sollen alle möglichen Daten besser komprimieren als bisher, um Bandbreite zwischen RAM und Grafikeinheit zu sparen. Im einfachsten Fall soll das Platz bei den Texturen in Spielen sparen. Aber auch speicherlastige KI-Algorithmen könnten profitieren.

Cerny verspricht die Neuerungen in einer neuen Sony-Konsole, die in ein paar Jahren erscheinen soll. Vermutlich handelt es sich hier um die Playstation 6. Huynh verspricht sie für sämtliche Gaming-Plattformen, also auch PCs. Schon seit Generationen nimmt AMD Sonys Feedback für neue GPU-Funktionen entgegen, die dann plattformübergreifend kommen.

Aktuell handelt es sich noch um „vielversprechende Simulationen“. Unklar ist, ob die Architektur mit Radiance Cores, Neural Arrays und Universal Compression noch einen Ableger der RDNA-Architektur darstellt oder zum Nachfolger UDNA gehört.


(mma)



Source link

Künstliche Intelligenz

Leuchtmittelwahl: Mit passendem Licht fit und munter durch den Winter


Das Sonnenlicht: warm, hell und im Winter leider selten da. Da Winterschlaf keine Option ist, muss Ersatz her. Mit der richtigen Beleuchtung bleiben Sie im Homeoffice frisch und munter, sehen in Videokonferenzen natürlich statt blass und grau aus und fühlen sich in der dunklen Jahreszeit insgesamt besser.

Durch ausreichende Helligkeit und flimmerfreies Licht ermüden weder die Augen noch der Kopf zu schnell. Und wenn der Winterblues zuschlägt, kann eine Tageslichtlampe dagegen helfen.

  • Flimmerfrei und mindestens 500 Lux hell – damit bleibt man im Homeoffice frisch und fokussiert.
  • In Videokonferenzen sorgt neutralweißes Licht zusätzlich für natürliche Farben.
  • Tageslichtlampen vertreiben mit intensivem, kaltweißem Licht den Winterblues.

Im Arbeitszimmer, in der Küche und im Bad liegt die empfohlene Beleuchtungsstärke mit 500 oder mehr Lux deutlich über der im Wohn- oder Schlafzimmer. Obwohl das Arbeitszimmer auf den ersten Blick auch bei deutlich weniger als 500 Lux hell genug zu sein scheint, ermüden die Augen in zu dunklen Räumen besonders bei filigranen Arbeiten viel schneller.


Das war die Leseprobe unseres heise-Plus-Artikels „Leuchtmittelwahl: Mit passendem Licht fit und munter durch den Winter „.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

Studie: Rechenzentren rund um Frankfurt kurbeln Wirtschaft an


Frankfurt und das umliegende Rhein-Main-Gebiet haben sich zu einem der wichtigsten digitalen Hubs Europas entwickelt. Eine neue Studie des Instituts der deutschen Wirtschaft (IW Consult) und des Beratungshauses Detecon für den eco-Verband der deutschen Internetwirtschaft unterstreicht die enorme ökonomische Bedeutung der dort ansässigen Rechenzentrumsbranche. Im Gegensatz zur Gesamtwirtschaft, die in Frankfurt und der Region Rhein-Main in den vergangenen fünf Jahren um rund 16 Prozent wuchs, verdoppelte sich dort gleichzeitig das Bruttoinlandsprodukt (BIP) im Sektor der Betreiber von Rechenzentren.

Weiterlesen nach der Anzeige

Die Prognosen sehen laut der Analyse ein ungebremstes Wachstum voraus, schreibt der eco: Das Branchen-BIP soll in den kommenden fünf Jahren in der hessischen Gegend voraussichtlich um weitere 175 Prozent steigen.

Die Wertschöpfung beschränke sich dabei nicht nur auf die Betreiber selbst, heißt es: Jeder in Rechenzentren erwirtschaftete Euro soll weitere 51 Cent an wirtschaftlicher Leistung anstoßen – 24 Cent davon direkt in der Region. Zudem generierte die Branche 2023 ein Steueraufkommen von 405 Millionen Euro. Davon sollen 287 Millionen Euro direkt auf die Betreiber und weitere 117 Millionen Euro auf Zulieferer entfallen sein. Geschätzt blieben etwa zehn Prozent des Steueraufkommens in den Standortkommunen, größtenteils aufgrund von Gewerbesteuern.

Noch bedeutender sind die „Spillover-Effekte“ für Anwenderindustrien: Unternehmen, die Rechenzentrumsinfrastruktur nutzen, sind laut der IW-Studie wesentlich innovativer. Sie konnten rund 18 Prozent ihrer Umsätze mit neuen Produkten oder Dienstleistungen erzielen, während Unternehmen ohne die Inanspruchnahme von Rechenzentren nur knapp 8 Prozent erreichten. Dieser Effekt wird durch den gegenwärtigen KI-Hype verstärkt, da entsprechende Anwendungen einen massiven Bedarf an Rechenleistung und schnellen Netzen haben.

Diese Sogwirkung wird auch durch den in Frankfurt angesiedelten De-Cix verdeutlicht, den weltweit größten Internetknoten. Die dort herrschende Infrastrukturdichte zieht heimische wie internationale Unternehmen an, die jährlich mindestens zwei Milliarden Euro in die digitale Infrastruktur der Mainmetropole investieren.

Trotz der hervorstechenden Wachstumszahlen stehen Betreiber in Frankfurt und ganz Deutschland zunehmend vor großen Herausforderungen. Die IW-Studie benennt die kritischen Standortfaktoren: hohe Energiekosten, lange Genehmigungsverfahren, regulatorische Unsicherheit und Flächenknappheit.

Ein akutes Problem ist dabei die Stromversorgung. Hier droht der digitale Boom, die Netze der Region an ihre Grenzen zu bringen, wie jüngst auch eine Analyse von AlgorithmWatch ergab. Der rapide steigende Energiehunger – insbesondere durch den Einsatz von KI – führt laut Branchenbeobachtern zu Engpässen bei der Energieversorgung und gefährdet die Netzstabilität. Ein modernes Rechenzentrum kann so viel Strom verbrauchen wie eine Großstadt. Künftige, rein KI-getriebene Rechenzentren dürften einen noch deutlich höheren Bedarf haben.

Weiterlesen nach der Anzeige

Diese Entwicklung birgt das Risiko, dass die dringend benötigten kurzfristig verfügbaren zusätzlichen Stromkapazitäten in großem Maßstab in der Region nicht mehr gewährleistet werden können. Dies verschlechtert die Rahmenbedingungen für die Betreiber massiv.

Béla Waldhauser, Sprecher der unter dem Dach des eco gegründeten Allianz zur Stärkung digitaler Infrastrukturen, warnt daher eindringlich vor einer Abwanderung in andere europäische Länder. Er schielt dabei etwa auf Skandinavien, wo attraktivere Konditionen in Form günstigerer Energiepreise und eines einfacheren sowie leistungsfähigeren Netzzugangs herrschten.

Waldhausers Forderung an Politik und Kommunen: Es braucht ein eindeutiges politisches Engagement für die digitale Infrastruktur. Bezahlbarer Strom müsste sichergestellt sowie beschleunigte und verlässliche Genehmigungsverfahren eingeführt werden, um Frankfurt und die gesamte Region als digitales Zentrum langfristig zu bewahren. Dieses Standbein der digitalen Wirtschaft dürfe nicht gekappt werden.


(nie)



Source link

Weiterlesen

Künstliche Intelligenz

Studie: Bundesverwaltung soll bei generativer KI auf Eigenentwicklungen setzen


Die dynamische Entwicklung generativer Künstlicher Intelligenz (KI), die vor allem die großen Sprachmodelle (LLMs) hinter ChatGPT, Gemini oder Claude verdeutlichen, stellt Staaten und Verwaltungen weltweit vor eine wichtige strategische Frage: Wie lassen sich solche Instrumente zur Textgenerierung, Wissenserschließung und Prozessunterstützung gezielt verwenden, ohne dabei die digitale Souveränität zu opfern?

Weiterlesen nach der Anzeige

Leistungsfähige moderne LLMs benötigen riesige Datenmengen, teure Hardware und viel Energie – Ressourcen, die heute primär von wenigen, zumeist außereuropäischen Tech-Giganten kontrolliert werden. Für den Staat ist es deshalb laut Experten entscheidend, sich Handlungsfähigkeit, Transparenz und Kontrolle über diese Schlüsseltechnologie zu verschaffen.

Das Kompetenzzentrum Öffentliche IT (Öfit) am Fraunhofer-Institut Fokus hat in einer jetzt veröffentlichten, vom Bundesinnenministerium geförderten Studie die LLM-basierten Systeme der Bundesverwaltung daraufhin untersucht, wie unabhängig sie aufgestellt sind. Digitale Souveränität bedeutet demnach, dass Deutschland zusammen mit Europa zentrale digitale Infrastrukturen, Daten und Rechnerinfrastrukturen eigenständig, sicher und nach individuellen Regeln gestalten und betreiben kann.

Die Analyse der LLM-Projekte erfolgte entlang von drei strategischen Zielen, die sich aus der Digitalpolitik des Bundes ableiten lassen: die Wechselmöglichkeit, also die faktische Verfügbarkeit alternativer Lösungen und die Austauschbarkeit von Systemkomponenten. Die Forscher blickten ferner auf die Gestaltungsfähigkeit, die etwa die eigenen technischen und organisatorischen Kompetenzen zur Bewertung, zum Betrieb und zur Weiterentwicklung von Systemen umfasst. Zudem fokussierten sie sich auf den Einfluss auf Anbieter, der durch Markt- und Verhandlungsmacht, etwa bei der Beschaffung, gewährleistet wird.

Die gute Nachricht der Studie lautet: Im Bereich der LLMs konnte im Gegensatz zu früher festgestellten „Schmerzpunkten“ bei Bürosoftware oder Datenbankprodukten keine kritische singuläre Abhängigkeit von einem einzelnen Großkonzern festgestellt werden. Die Bundesverwaltung hat es demnach geschafft, für viele typische Anwendungsfälle LLM-basierter Systeme Eigenentwicklungen aufzubauen. Dadurch muss für einen Großteil der alltäglichen Aufgaben nicht zwingend auf die Produkte großer, oft nicht-europäischer Konzerne zurückgegriffen werden. Das mindert das Risiko von vornherein, in neue Interdependenzen gegenüber Dritten zu geraten.

Die Risiken für die staatliche Handlungsfähigkeit sind den Wissenschaftlern zufolge aus heutiger Sicht überschaubar, da die entwickelten Lösungen derzeit ausschließlich der Arbeitsunterstützung für Verwaltungsmitarbeitende dienen. Ein Ausfall würde die staatliche Handlungsfähigkeit nicht unmittelbar gefährden. Technisch gesehen trägt zur Souveränität bei, dass die LLMs meist auf eigener Hardware laufen und bei Bedarf mit geringem bis mittlerem Aufwand ausgetauscht werden können.

Weiterlesen nach der Anzeige

Auf der Ebene der Sprachmodelle selbst setzt die Bundesverwaltung mehrheitlich auf nicht-europäische Open-Source-Modelle, die in verwaltungsinterner Infrastruktur betrieben werden. Das stärkt laut der Untersuchung zwar die Wechselmöglichkeit, da die LLMs auf eigener Infrastruktur gehostet und bei Bedarf ersetzt werden können. Es verbleibe jedoch eine strategische Lücke: Angesichts des sich wandelnden Open-Source-Verständnisses im KI-Kontext empfehlen die Autoren dringend zu prüfen, ob die Entwicklung eines eigenen, offen bereitgestellten europäischen LLMs anzustreben sei. Ziel müsse es sein, eine dauerhafte Unabhängigkeit von marktbeherrschenden LLM-Anbietern zu erreichen und die Modelle auf einer eigenständigen europäischen Werte- und Normenbasis zu verankern.

Einschlägige LLM-Projekte bei Behörden sehen sich zudem mit Hürden konfrontiert, die weiteres Wachstum und Nachnutzbarkeit behindern. Dazu gehören laut der Studie als zu kompliziert wahrgenommene rechtliche KI-Vorschriften, die Entwicklungen verzögern und umfassende juristische Kompetenzen in den Ämtern erfordern. Diese Unsicherheiten und die teils als gering eingestufte rechtliche Kompetenz schränkten die Veröffentlichung der Entwicklungen als Open Source ein, heißt es. Ferner äußerten befragte Projektverantwortliche mehrfach den Wunsch nach einer KI-spezifischen Cloud-Infrastruktur, die mit entsprechend geschultem Personal ausgestattet ist, um den Betrieb zu vereinfachen.

Die Studie enthält diverse Handlungsempfehlungen, um die digitale Souveränität nachhaltig zu sichern. Dazu zählen der Ausbau gemeinsamer LLM-Infrastrukturen über Ressortgrenzen hinweg und die Stärkung von Open-Source-Ansätzen. Zudem sollen einheitliche rechtliche Leitplanken etabliert werden etwa durch einen verpflichtenden „Souveränitätscheck“ für kritische LLM-Projekte. Die Beschaffung sei über föderale Ebenen hinweg zu bündeln um Kriterien zur digitalen Souveränität durchzusetzen und die Verhandlungsmacht gegenüber großen Anbietern zu stärken. Bundesdigitalminister Karsten Wildberger (CDU) wertet die Ergebnisse als Bestätigung, „dass wir bereits auf dem richtigen Weg sind, ein solides Fundament für unabhängige KI‑Lösungen in der Bundesverwaltung“ zu schaffen.

Lesen Sie auch


(nie)



Source link

Weiterlesen

Beliebt