Connect with us

Künstliche Intelligenz

Kommentar: Who you gonna call?


Kennen Sie das? Die Maus streikt, das Druckerpapier staut sich, die Datei für die Präsentation steckt irgendwo im Nirwana der Verzeichnisebenen. Langsam werden Sie nervös, Sie schauen auf die Uhr. In fünfzehn Minuten will die Chefetage die neuesten Quartalszahlen an die Wand werfen. Die Wand steht, allein die Powerpoint-Präsentation hat sich in Luft aufgelöst. Es ist wie ein Fluch, das Gespenst des Schicksals schlägt zu, wie immer, wenn es kurz vor knapp ist.

Wen holt man bei Schreckgespenstern? Who you gonna call? Nein, nicht die Jungs mit den Protonenpäckchen auf dem Rücken, sondern die Jungs und Mädels aus der IT. Und bevor Sie jetzt ein Ticket schreiben, nehmen Sie für schnelle Hilfe lieber den kurzen Dienstweg und die Treppen nach unten. Dafür sind Admins doch schließlich da, oder? Na ja, es ist kompliziert.

Denn für einen reibungslosen und ausfallsicheren Betrieb, die Verwaltung von Hard- und Software, die Härtung der IT-Infrastruktur gegen Cyberbanden sowie für Pflege und Wartung der Client-Server-Architektur sind Sys-Admins auch verantwortlich. Bestens informiert und am Puls der IT-Zeit, erweitern und aktualisieren sie bestehende Systeme und denken ständig über Verbesserungen von Architekturen und Prozessen nach. Admins schlafen nie. Viele von ihnen haben Rufbereitschaft.

Davon bekommen die meisten Angestellten eines Unternehmens allerdings nichts mit. Das ist auch gut so. Der Laden läuft. Kein unwesentlicher Teil, der dazu beiträgt, dass die Chefetage schwarze Zahlen an die weiße Wand werfen könnte, wenn nur wieder die Präsentation auftauchen würde.

Sie schauen auf die Uhr, noch fünf Minuten. Schweiß steht ihnen auf der Stirn. „Fertig“ sagt die Kollegin aus der IT. Sie hat Ihre vermisste Datei aus dem Backup gezogen. Stimmt, Backups machen Admins ja auch. Sie klatschen vor Freude leise in die Hände. Das Gespenst verschwindet.

Klatschen Sie ruhig mal laut und feiern mit mir am 25. Juli unsere Admins. Sie müssen nicht gleich einen Kuchen backen. Admins freuen sich über kleine Gesten. Schließlich sind Wertschätzung und Anerkennung ebenso schmackhaft, und das an jedem Tag des Jahres.

Wir brennen für kritischen und fundierten IT-Journalismus. Sie auch? Wenn Ihnen dieser Artikel gefallen hat, dann unterstützen Sie uns jetzt mit einem Abonnement und freuen sich auf detaillierte Anleitungen, umfangreiche Tests und tiefgehende Reportagen.

Jedes Jahr am letzten Freitag im Juli findet der inoffizielle „System Administrator Appreciation Day“ statt. Vielleicht backen Sie doch noch was …?


(aki)



Source link

Künstliche Intelligenz

Nvidia Rubin CPX: Spezialbeschleuniger für KI-Inferencing kommt Ende 2026


Nvidia will Ende 2026 einen speziellen Beschleunigerchip auf den Markt bringen, den Rubin CPX. Er soll speziell KI-Anwendungen mit enormen Context-Anforderungen (siehe unten) beschleunigen, denen wiederum eine besonders hohe Profitabilität unterstellt wird. Darunter sind KIs, die Programmcode liefern oder KI-Filme aus dem Nichts erstellen. Rubin CPX soll die spezifischen Flaschenhälse bei der Verarbeitung solcher KI-Modelle gezielt angehen.

Der Chip gehört zu Nvidias 2026 kommender Vera-Rubin-Generation von Rechenzentrumsbeschleunigern, die bereits ihren Tape-Out hinter sich hat. Er ist entweder direkt im Rackeinschub integriert oder als Zusatz-Beschleuniger in separaten Einschüben zu bekommen.

Die aktuell angesagten KI-Modelle wie DeepSeek R1, Llama4 Maverick, gpt-ossm, Qwen3 oder auch Kimi K2 verwenden eine Technik, die man Mixture-of-Experts nennt. Dabei kommen verschieden spezialisierte neuronale Netze (die Experts) für unterschiedliche Anfragen(teile) zum Einsatz. Das wiederum führt bei den einzelnen Experten zu geringeren Anforderungen an Speicher und Rechenleistung.

Der Trick ist, die optimale Mixtur von Experten für jede Anfrage hinzubekommen; die Verteilung der Anfragen auf die Experten wird entscheidend. Gerade in Verbindung mit Reasoning müssen die einzelnen Experten miteinander kommunizieren und das MoE-Modell als Ganzes wird aufwendiger.

Zugleich werden die Antworten von KI-Anwendungen um Größenordnungen komplexer, etwa durch die Ausgabe ganzer Programmcode-Sequenzen oder künstlich erzeugter Filme. Das lässt die Anzahl der Token, die ständig berücksichtigt werden müssen, exponentiell ansteigen. Ein Token ist dabei die kleinste Informationseinheit, die innerhalb einer KI eine numerische ID zugewiesen bekommt, um die Berechnungen zu vereinfachen. Ein Token kann Informationen von einem Buchstaben bis hin zu kurzen Phrasen repräsentieren. Schätzungen setzen ein englisches Wort im Durchschnitt mit 1,5 Token gleich.



Nvidias Vera Rubin-Beschleuniger in einer künstlerischen Darstellung. Damit ausgerüstete Systeme sollen 2026 in Rechenzentren ankommen.

Damit die Antwort in sich konsistent ist, muss die KI intern noch weitaus mehr Token bei der Gewichtung berücksichtigen als im Antwortfenster ausgegeben werden, das nennt man Context. Chat-GPT 3.5 hatte anfangs ein Context-Window von 4096 Token. GPT-4o ist schon bei 128.000 Token, Google Gemini 1.5 Pro bei 2 Millionen Token.

Ein dadurch entstandener Optimierungsansatz ist das entkoppelte Beantworten der Anfragen (disaggregated serving). Dabei werden Context- und Prefill-Stufen bei der Beantwortung einer Anfrage verschiedenen Beschleunigern zugewiesen. Nvidia nutzt das bereits mit aktuellen GB200-Blackwell-Systemen. So arbeiten etwa in den optimierten Einreichungen zu den KI-Benchmarks der MLCommons MLPerf Inference v5.1 von den 72 Blackwell-GPUs eines NVL72-Racks 56 GPUs nur am Context und nur die restlichen 16 erzeugen die Inhalte. Diese Optimierung bringt geschätzt anhand eines ungenau beschrifteten Diagramms einen Performance-Sprung von 40 bis 45 Prozent auf Blackwell.

Nvidia macht sich dabei noch eine Eigenschaft dieser LLMs zunutze: Sie kommen mit entsprechendem Feintuning auch mit recht niedriger Rechengenauigkeit aus, sodass das hauseigene, 4-bittige Floating-Point-Format NVFP4 mit blockweise geteiltem Exponenten für die erforderliche Antwortgenauigkeit bei MLPerf Inference ausreicht.

Bereits Blackwell Ultra (GB300) hat Nvidia auf maximalen Durchsatz bei diesem Format optimiert. Dafür haben die Ingenieure die Exponent-2-Funktion aufgebohrt, die im Attention-Layer aller KI-Modelle mit Transformer-Technik eine große Rolle spielt. Da diese außerhalb der auf KI-Durchsatz spezialisierten Tensorkerne in den SFU-Einheiten (Special Function Units) laufen, sind sie in Blackwell bereits zum Flaschenhals geworden, denn die EX2-Leistung gegenüber Hopper ist kaum gewachsen. Blackwell Ultra verdoppelt den EX2-Durchsatz gegenüber Blackwell von 5 auf 10,7 Billionen Exponential-Berechnungen pro Sekunde.

Ein NVL72-Schrank GB300 schafft rund 1,1 ExaFLOPS in NVFP4, Rubin NVL144 wird von Nvidia auf 3,6 EFlops projektiert und ein Rubin-CPX-Rack auf satte 8 EFlops.

Ein Rubin CPX soll Ende 2026 gegenüber dem heutigen GB300 den dreifachen Exponential-Durchsatz von 30 PFlops NVFP4 schaffen. Da die Context-Phase weniger schnellen RAM benötigt und hauptsächlich von den Berechnungen limitiert wird, setzt Nvidia bei Rubin CPX auf 128 GByte GDDR7-Speicher.


(csp)



Source link

Weiterlesen

Künstliche Intelligenz

Umfrage: Unternehmen klagen über zu viel Aufwand mit dem Datenschutz


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Deutsche Unternehmen sehen sich zunehmend durch Datenschutzregeln belastet, wie aus einer Umfrage des Digitalverbands Bitkom hervorgeht. Demnach hätten 97 Prozent der Befragten einen hohen oder gar sehr hohen Aufwand bei der Umsetzung der Datenschutzvorgaben beklagt. Vor einem Jahr seien das 94 Prozent gewesen.

53 Prozent der befragten Unternehmen hätten dabei von steigendem Aufwand berichtet, 16 Prozent sogar von einem starken Anstieg. Lediglich für 30 Prozent sei die Bürokratie beim Datenschutz gleichgeblieben, keines der befragten Unternehmen habe von Erleichterungen in dem Feld gesprochen. Für die laut Bitkom repräsentative Umfrage wurden den Angaben nach 603 Unternehmen ab 20 Beschäftigten in Deutschland aus allen Branchen herangezogen.

Gerade in kleineren Unternehmen sorgen die Anforderungen des Datenschutzes für Belastungen, befindet der Bitkom. So beklagen 45 Prozent der Unternehmen mit 20 bis 99 Beschäftigten sehr hohen Aufwand, bei Unternehmen mit 500 und mehr Beschäftigten seien es nur 38 Prozent. „Wir haben beim Datenschutz eine viel zu hohe Komplexität geschaffen, mit einer Vielzahl von Aufsichtsbehörden und unterschiedlichen Auslegungen“, kommentierte Bitkom-Präsident Ralf Wintergerst die Ergebnisse der Umfrage. Die Dokumentations- und Berichtspflichten müssten jetzt deutlich reduziert werden, forderte er.

Auf EU-Ebene ist inzwischen auch Bewegung in die Frage gekommen, ob es Erleichterungen bei der Erfüllung des Datenschutzes geben sollte. Im Mai wurde ein Entwurf der EU-Kommission zur Verschlankung der DSGVO bekannt: So sollen Firmen mit bis zu 749 Mitarbeitern im Wesentlichen von DSGVO-Dokumentationspflichten befreit werden.

Verbraucherschützer und NGOs warnten vor einer möglichen Aufweichung der DSGVO mit dieser Reform. Dem Bitkom gehen die Vorschläge der EU-Kommission aber nicht weit genug. Die Risikoeinstufung der Verarbeitungstätigkeit sollte ausschlaggebend für die Dokumentationspflicht sein, nicht die Unternehmensgröße, fordert der Verband. Außerdem brauche es Maßnahmen wie Standardvorlagen und klarere Regeln für Betroffenenanfragen.


(axk)



Source link

Weiterlesen

Künstliche Intelligenz

Womöglich extragalaktisch: Rätselhafter Gammastrahlenausbruch beobachtet


Verschiedene Observatorien haben Anfang Juli einen Gammastrahlenausbruch wie keinen anderen beobachtet – der hat sich einen Tag lang mehrfach wiederholt. Das berichtet die Europäische Südsternwarte ESO und erklärt, dass die genaue Ursache des Signals ein Rätsel sei. Bislang unerklärlich ist demnach nicht nur die enorme Länge des Signals und dessen Wiederholung. Auch habe das Team völlig unerwartet ermittelt, dass es nicht aus unserer Milchstraße stammt und damit noch einmal wesentlich leistungsstärker war als erwartet. Der Ausbruch muss sich demnach in einigen Milliarden Lichtjahren Entfernung ereignet haben. Genau diese Erkenntnis könnte aber der Schlüssel zum Verständnis sein, meint Antonio Martin-Carrillo, einer der beteiligten Astronomen.

Gammastrahlenausbrüche (oder GRB) gehören zu den energiereichsten Explosionen im Universum überhaupt, erläutert die ESO jetzt. Sie haben ihre Ursache etwa bei katastrophalen Zusammenbrüchen massereicher Sterne. Normalerweise dauern sie Millisekunden, maximal aber Minuten. Das am 2. Juli beobachtete Signal hielt demnach aber etwa einen Tag an. Zudem wiederholen sich die Explosionen nie, weil das zugrundeliegende Ereignis ja eine Zerstörung eines Himmelskörpers ist. Von der Quelle mit der Bezeichnung GRB 250702B hat aber alleine das Fermi-Gammastrahlen-Weltraumteleskop der NASA drei Ausbrüche entdeckt, weitere wurden nachträglich in Daten des chinesischen Röntgen-Weltraumteleskopmission Einstein gefunden.

Anfangs dachten die Forscher laut eigener Aussage, dass die Ursache des Ausbruchs in der Milchstraße habe liegen müssen. Das Very Large Telescope (VLT) der ESO aber „hat diese Ansicht grundlegend verändert“, erklärt Andrew Levan, der an der Analyse mitgearbeitet hat. Die Daten enthielten Hinweise, dass die Quelle in einer anderen Galaxie liegen könnte. Später habe das Weltraumteleskop Hubble die Annahme bestätigt. „Was wir entdeckt haben, war noch viel spannender: Die Tatsache, dass dieses Objekt extragalaktisch ist, bedeutet, dass es wesentlich leistungsstärker ist“, meint Martin-Carrillo. Die Nachwirkungen der Explosion wurden mit verschiedenen Instrumenten analysiert.

Sollte der Gammastrahlenausbruch auf die Explosion eines massereichen Sterns zurückgehen, „ist dies ein Zusammenbruch, wie wir ihn noch nie zuvor gesehen haben“, ordnet Levan die Tragweite noch ein. Das hätte maximal Sekunden dauern dürfen. Alternativ könnte der Ausbruch auf einen Stern zurückgehen, der von einem Schwarzen Loch zerrissen wird. Das könnte die Dauer erklären, aber andere Eigenschaften nicht. Dafür „müsste ein ungewöhnlicher Stern von einem noch ungewöhnlicheren Schwarzen Loch zerstört werden“. Der bevorzugten Hypothese zufolge wurde ein Weißer Zwergstern von einem Schwarzen Loch mittlerer Masse zerfetzt, schreibt das Team. Die Forschungsarbeit wurde in den Astrophysical Journal Letter veröffentlicht.


(mho)



Source link

Weiterlesen

Beliebt