Künstliche Intelligenz
KI-Update kompakt: OpenAI, Fahrassistenzsystem, Desinformation, Optimus Bot 2.5
OpenAI liest bei ChatGPT im Zweifel mit
OpenAI scannt offenbar alle ChatGPT-Unterhaltungen auf mögliche Gefahren für andere Menschen. Das Unternehmen erklärte in einem Blogbeitrag, dass Gespräche über potenzielle Verletzungen anderer von einem Team ausgewertet und gegebenenfalls an Strafverfolgungsbehörden weitergereicht werden. Gespräche über Selbstverletzung würden hingegen nicht ausgewertet, um die Privatsphäre zu wahren. OpenAI beantwortete auf Nachfrage nicht, ob auch kostenpflichtige Chats betroffen sind oder welche Behörden informiert werden.
<ir_inline itemname=bilder_mvp_bild:1 type=3>
Parallel verschärft sich der Konflikt zwischen OpenAI und Microsoft. OpenAI will von einer gemeinnützigen zu einer profitorientierten Organisation werden, doch die Anteile für Microsoft sind unklar. Microsoft stattet nun Office 365 teilweise mit KI von Anthropic, einem Konkurrenten, aus. Laut TechCrunch halte Microsoft Anthropics Modelle für besser. Investoren und Philanthropen fordern Regulierer auf, OpenAIs Umwandlung zu stoppen. Die Staatsanwaltschaften in Kalifornien und Delaware untersuchen bereits das Vorhaben.
Qualcomm und BMW bringen automatisiertes Fahrsystem auf den Markt
BMW und Qualcomm haben nach dreijähriger Entwicklung das KI-Fahrassistenzsystem Snapdragon Ride Pilot vorgestellt. Das System nutzt hochauflösende Kameras und Radarsensoren für eine 360-Grad-Abdeckung sowie präzise Kartierung und GNSS-Lokalisierung. Es ermöglicht freihändiges Fahren auf Autobahnen, automatische Spurwechsel und Einparkhilfe. Die Fahrer bleiben allerdings für die Überwachung verantwortlich.
Das System feiert sein Debüt im neuen Elektroauto BMW iX3. Snapdragon Ride Pilot ist ab sofort weltweit für Automobilhersteller und Zulieferer verfügbar.
Salesforce-Chef spart durch KI 4.000 Support-Stellen ein
Salesforce benötigt laut eigener Aussage durch KI-Automatisierung 4.000 weniger Mitarbeiter im Kundensupport. Firmenchef Marc Benioff bezeichnete die Produktivitätsgewinne in einem Podcast-Interview als das Aufregendste der letzten neun Monate bei Salesforce. Die Technologie erledige bereits 50 Prozent der Arbeit, behauptete Benioff gegenüber Bloomberg.
Salesforce strich seit 2023 bereits rund 9.000 Stellen. Etwa 8.000 Mitarbeiter verloren 2023 ihren Job, weitere 1.000 im Jahr 2024. Diese Woche erhielten 262 Beschäftigte in San Francisco ihre Kündigung.
USA beenden internationale Kooperation gegen Desinformation
Die US-Regierung hat ihre Vereinbarungen mit europäischen Ländern zur Bekämpfung von Desinformation aufgekündigt. Die Abkommen waren erst im vergangenen Jahr unter der Biden-Regierung unterzeichnet worden und sollten einen einheitlichen Ansatz gegen Falschinformationen aus Russland, China und dem Iran schaffen.
Die Initiative wurde vom Global Engagement Center (GEC) geleitet, das im Dezember geschlossen wurde. James Rubin, der frühere Leiter, kritisiert den Rückzug als einseitige Abrüstung im Informationskrieg. Republikaner warfen dem GEC Zensur vor, obwohl sich die Arbeit auf Desinformation außerhalb der USA konzentrierte. Die Trump-Regierung löste im April auch das Nachfolgebüro auf.
<ir_inline itemname=podcast_mvp_url:10 type=0>
US-Militär entwickelt mit Anduril und Meta neue Soldaten-Brillen
Die US-Armee hat Aufträge für Mixed-Reality-Brillen für Soldaten vergeben. Das Rüstungsunternehmen Anduril übernimmt die Projektleitung, Meta ist als Technologiepartner beteiligt. Auch das Verteidigungs-Startup Rivet Industries erhielt einen Auftrag über 195 Millionen Dollar. Das neue System soll modular aufgebaut sein und auf dem früheren IVAS-Programm (Integrated Visual Augmentation System) von Microsoft basieren.
Die Brillen werden mit offenen Schnittstellen und verbesserter Software ausgestattet. Soldaten können digitale Informationen direkt in ihr Sichtfeld eingeblendet bekommen. Meta hatte Ende letzten Jahres seine Nutzungsrichtlinien für KI-Modelle gelockert, sodass US-Behörden die Technologie nutzen dürfen.
<ir_inline itemname=dossier_mvp_dossier:1 type=0>
Drohnenhersteller Helsing hilft beim Entwickeln von Robo-Panzern
Die Münchner Rüstungs-Startups Helsing und Arx Robotics haben eine strategische Partnerschaft geschlossen, um unbemannte Waffensysteme durch KI zu vernetzen. Helsing ist auf Drohnen wie die HX-2 spezialisiert, Arx baut unbemannte Bodenfahrzeuge wie kleine Roboter-Panzer. Diese können für Aufklärung, Munitionstransport und die Bergung von Verwundeten eingesetzt werden.
Die Unternehmen wollen alle Waffensysteme wie in einem digitalen Nervennetz verbinden. Kritiker beklagen, dass KI das menschliche Handlungsvermögen untergrabe und Computer über Leben und Tod entscheiden.
Optimus Bot 2.5 mit langsamem Grok und holprigem Gang
Tesla hat seinen humanoiden Roboter Optimus Bot auf Version 2.5 gebracht. Die Integration des KI-Assistenten Grok von xAI funktioniert noch nicht reibungslos. In einem Video von Salesforce-Chef Marc Benioff antwortet der Roboter nur verzögert und abgehackt auf Fragen. Nach mehreren Aufforderungen bewegt sich der Roboter schleppend und mit holprigem Gang.
Für Tesla und Elon Musk ist die erfolgreiche Integration von Grok wichtig. Nur so können die Roboter flexibel in Industrie und Haushalten auf Sprachanweisungen reagieren und Nutzeranfragen beantworten.
KI entwickelt Programmiersprache im Gen-Z-Slang
Der Australier Geoffrey Huntley hat die Programmier-KI Claude Code von Anthropic drei Monate laufen lassen, um eine Programmiersprache im Stil der Generation Z zu entwickeln. Die KI verbesserte die Sprache selbstständig weiter. Das Ergebnis heißt „Cursed“ und ist auf einer eigenen Website verfügbar.
Bekannte Programmierbegriffe wie „for“ oder „case“ werden durch Gen-Z-Wörter wie „bestie“ oder „mood“ ersetzt. Huntley bezeichnet das Projekt als Lernexperiment. Eine Roadmap zur Weiterentwicklung gibt es nicht, die Community soll darüber entscheiden.
Bit-Rauschen erklärt Nvidias Super-Netzwerktechnik
Nvidia jagt von einem Umsatzrekord zum nächsten und ist das wertvollste Unternehmen der Welt. Das liegt vor allem an den starken KI-Beschleunigern, die den aktuellen KI-Hype befeuern. Doch KI-Chips alleine machen noch kein optimales KI-Rechenzentrum – sonst würden Konkurrenten wie AMD oder Cerebras viel mehr davon verkaufen. Es braucht noch mehr Zutaten, etwa die etablierte Programmierschnittstelle CUDA. Weniger im Rampenlicht steht eine weitere wichtige Komponente: die Vernetzungstechnik NVLink. Nvidia hat sie geschickt fortentwickelt und tief in die KI-Beschleuniger integriert.
Was NVLink so besonders macht, erklärt mein Kollege Carsten Spille von der c’t in der aktuellen Folge von „$(LB4932691:Bit-Rauschen: Der Prozessor-Podcast von c’t. Hört doch mal rein auf der Podcast-Plattform Eurer Wahl.
<ir_inline itemname=bilder_mvp_bild:2 type=0>
<ir_inline itemname=inline_branding type=0>
(igr)
Künstliche Intelligenz
Revolut erhält die Banklizenz für Mexiko
Revolut treibt seine weltweite Expansion weiter voran. Das britische Fintech hat nun die endgültige Genehmigung der Nationalen Bank- und Wertpapierkommission (CNBV) mit Zustimmung der mexikanischen Zentralbank erhalten, um seine Geschäftstätigkeit als Bank in dem nordamerikanischen Land aufzunehmen. Das teilte Revolut in der vergangenen Woche mit.
Weiterlesen nach der Anzeige
„Diese entscheidende Genehmigung ist der letzte erforderliche regulatorische Schritt, bevor die Bank ihre Türen für die Öffentlichkeit öffnen kann, und festigt ihr langfristiges Engagement auf dem mexikanischen Markt“, so das Unternehmen in einer Erklärung. Revolut ist damit nach eigenen Angaben die erste unabhängige Digitalbank, die „von Grund auf“ direkt den vollständigen Lizenzierungs- und Genehmigungsprozess im Land beantragt und erfolgreich abgeschlossen hat. In den vergangenen Jahren haben verschiedene Fintech-Unternehmen begonnen, Finanzdienstleistungen in Mexiko anzubieten, aber die meisten von ihnen werden nicht vom mexikanischen Bankensystem unterstützt.
Besserer Kundenschutz und Einlagensicherung
Als vollständig regulierte Bank kann Revolut in Mexiko wie jedes andere Bankinstitut agieren und seinen Kunden eine umfassende Palette von Finanzdienstleistungen mit verbessertem Kundenschutz anbieten, darunter eine von der mexikanischen Regierung garantierte Einlagensicherung in Höhe von bis zu 3,4 Millionen mexikanischen Pesos (rund 159.000 Euro). Revolut wird in Mexiko zunächst eine Beta-Phase mit einigen Nutzern starten und hofft, Anfang kommenden Jahres den Betrieb in großem Stil aufzunehmen. Interessierte Nutzer können sich laut Revolut über die Website des Unternehmens auf eine Warteliste setzen lassen.
Die britische Neobank bekräftigte, dass sie – auf ihrer Präsenz in den USA und Brasilien aufbauend – auf dem amerikanischen Kontinent weiter expandieren wolle. Neben einer „wichtigen Rolle im mexikanischen Finanzsektor“ strebt Revolut auch eine Vollbanklizenz in Kolumbien an und ist dabei, eine Bank in Argentinien zu erwerben. Die Wachstumspläne werden gestützt von einem gewaltigen Umsatzplus und Rekordgewinn im Vorjahr. Zur Eröffnung seines neuen Hauptsitzes in London vor wenigen Wochen kündigte das Unternehmen globale Investitionen in Höhe von 11,5 Milliarden Euro in den nächsten fünf Jahren an. Ziel sei es, bis Mitte 2027 die Marke von 100 Millionen Privatkunden zu erreichen. Aktuell hat Revolut weltweit mehr als 65 Millionen Privatkunden.
(akn)
Künstliche Intelligenz
Angriff auf Nvidia und AMD: Qualcomm kündigt neue KI-Chips an
Der US-amerikanische Halbleiterhersteller Qualcomm wird eigene KI-Beschleuniger auf den Markt bringen. Das kündigte das Unternehmen am Montag an. Damit richtet der US-Konzern sein Portfolio neu aus. Qualcomm ist der weltweit größte Anbieter von Modemchips, mit denen Smartphones eine Verbindung zu drahtlosen Datennetzen herstellen können. Angesichts des weltweiten KI-Booms nimmt der Chipbauer nun auch große Rechenzentren für künstliche Intelligenz (KI) ins Visier und positioniert sich als Konkurrent zu den Weltmarktführern Nvidia und AMD.
Weiterlesen nach der Anzeige
Qualcomm gab die Einführung seiner „neuen Generation von KI-Inferenz-optimierten Lösungen für Rechenzentren“ bekannt. Die KI-Beschleuniger AI200 und AI250 wurden für eine verbesserte Speicherkapazität und die Ausführung von KI-Anwendungen entwickelt. Sie sollen jeweils im nächsten und übernächsten Jahr auf den Markt kommen und werden in einem System erhältlich sein, das ein komplettes, flüssigkeitsgekühltes Server-Rack füllt, heißt es in der Ankündigung des Unternehmens.
Die Rechenzentrumschips von Qualcomm basieren demnach auf den KI-Komponenten in Qualcomms Smartphone-Chips, den sogenannten Hexagon Neural Processing Units (NPUs). „Wir wollten uns zunächst in anderen Bereichen bewähren, und sobald wir dort unsere Stärke ausgebaut hatten, war es für uns ziemlich einfach, einen Schritt weiter zu gehen und in den Rechenzentrumsbereich einzusteigen“, wird Durga Malladi, General Manager für Rechenzentren und Edge Computing bei Qualcomm, vom US-Nachrichtensender CNBC zitiert.
Umkämpfter KI-Markt
Qualcomms Ankündigung eigener KI-Chips markiert den Einstieg eines neuen Wettbewerbers in diesen schnell wachsenden Markt. Die weltweiten Investitionen in KI-Chips sind zuletzt sprunghaft angestiegen, da Cloud-Anbieter und Chipkonzerne eiligst Infrastrukturen aufbauen, um den steigenden Bedarf an Rechenleistung im Wettlauf zur Entwicklung hochentwickelter KI-Systeme bedienen zu können.
Mitte Oktober wurde bekannt, dass der Chiphersteller AMD und der Softwarekonzern Oracle ihre Zusammenarbeit ausbauen. Oracle bietet Cloud-Dienste mit KI-Chips von AMD an. ChatGPT-Entwickler OpenAI wiederum will zusammen mit dem Halbleiterkonzern Broadcom eigene maßgeschneiderte KI-Chips entwickeln. Anfang des Monats gab OpenAI zudem den Kauf von KI-Chips mit einer Kapazität von insgesamt sechs Gigawatt von AMD für mehrere Milliarden US-Dollar über einen Zeitraum von fünf Jahren bekannt. Und Ende September kündigte der US-Chiphersteller Nvidia an, seinerseits insgesamt 100 Milliarden US-Dollar in OpenAI zu investieren, um das „größte KI-Infrastrukturprojekt der Geschichte“ umzusetzen. Im Zuge der Kooperation wollen beide Konzerne gemeinsam neue Rechenzentren errichten, die mindestens zehn Gigawatt an Leistung umfassen. Unternehmen wie Google, Amazon und Microsoft investieren ebenfalls in die Entwicklung eigener KI-Beschleuniger für ihre Cloud-Dienste.
Qualcomm erklärte, dass seine neuen Chips sich auf Inferenz, also das Ausführen von KI-Modellen, konzentrieren und nicht auf das Training großer KI-Sprachmodelle. Malladi kündigte laut CNBC an, dass man die KI-Chips und andere Komponenten auch separat verkaufen werde, insbesondere für Kunden wie Hyperscaler, die es vorziehen, ihre eigenen Racks zu entwerfen. Andere KI-Chiphersteller wie Nvidia oder AMD könnten sogar Kunden für einige der Rechenzentrumskomponenten von Qualcomm werden, unter anderem CPUs, so Malladi weiter.
Weiterlesen nach der Anzeige
(akn)
Künstliche Intelligenz
HPE baut Nachfolger für Supercomputer Frontier mit AMD-Technik und MI430X
Weiterlesen nach der Anzeige
Der per Ausschreibung rund 500 Millionen US-Dollar teure Supercomputer Discovery soll im Oak Ridge National Laboratory (ORNL) stehen und wird wie schon sein Vorgänger Frontier von HPE gebaut. Vor gut einem Jahr lief die Einreichungsfrist für das Projekt OLCF-6 ab. Nun ist HPE als Gewinner der Ausschreibung benannt weorden.
Wahrscheinlich ab Ende 2027 oder Anfang 2028 wird der neue Supercomputer betriebsbereit sein. Er setzt wie der aktuelle Top500-Zweite Frontier auf AMD-Hauptprozessoren, die KI-Beschleuniger vom Typ Instinct MI430X flankieren. Wie viele jeweils verbaut werden, ist noch nicht bekannt. Interessanterweise sieht man auch hier offenbar keine ausreichenden Vorteile der APU-Konfiguration, sondern geht den klassischen Weg getrennter CPUs und Beschleuniger. Mit Zen-6-Architektur erwarten wir allerdings auch einen Nachfolger der MI300A-APU, vielleicht als MI400A.
DAOS-Speichersystem mit Flash
Fest steht jedoch, dass Discovery auf Basis der HPE Cray Supercomputing GX5000 entsteht und ein KI-optimiertes Speichersystem (HPE Cray Supercomputing Storage Systems K3000) mitbringen wird. Das arbeitet mit reinen Flash-Speichern und ist laut Hersteller das erste kommerziell hergestellte Speichersystem auf Basis von Distributed Asynchronous Object Storage (DAOS).
Zuvor kam DAOS beim Aurora-Supercomputer von Intel zum Einsatz. Bereits im Aurora schaffte das 230 PByte fassende Speichersystem eine Transferrate von mehr als 31 TByte/s, wohingegen das Lustre-Storagesystem „Eagle“ für die großen Datenmengen immerhin 650 GByte/s übertrug. Die IOPS-Leistung stieg im Vergleich zum E2000-Storage-Rack von 54 auf 75 Millionen IOPS.
Dass HPE diese Technik in den Massenmarkt bringt, liegt auch daran, dass das gesamte DAOS-Team von Intel zu HPE wechselte. Basis für die K3000-Racks werden ProLiant-Server-Lösungen sein, die HPE vorab aber noch nicht genau spezifizieren wollte.
Weiterlesen nach der Anzeige
HPE Cray Supercomputing GX 5000
Die neue Serverschrank-Generation setzt auf eine verbesserte Flüssigkeitskühlung und kompaktere Bauweise. Die neue Kühlung erfasst nicht nur CPUs, Beschleuniger und Speicher, sondern nahezu alle nennenswert wärmeerzeugenden Bauteile inklusive der Netzwerkinfrastruktur. Dadurch konnte HPE die Breite der Racks von 2,1 Metern auf 1,35 Meter für je ein Compute- und ein Kühlungs-Rack senken und will so 25 Prozent mehr Racks in die vorhandenen Räumlichkeiten bringen. Die einzelnen Schränke nehmen Hardware mit einer elektrischen Leistung von jeweils 400 bis 600 kW auf. Zurzeit sind maximal etwa 150 kW üblich.
Darüberhinaus konnte HPE die mögliche Leistungsaufnahme pro Compute-Blade von 11 auf mehr als 25 Kilowatt anheben. Das Wasser muss vor dem erneuten Durchlauf jetzt nicht mehr auf 32, sondern nur noch auf 40 Grad Celsius heruntergekühlt werden. Das erhöht die Energieeffizienz des gesamten Systems – ebenfalls eine Anforderung der OLCF-6-Ausschreibung und laut HPE auch ein wichtiger Punkt speziell für europäische Kunden.
Außerdem ermöglicht die neue Kühlung jetzt auch eine Mischbestückung einzelner Schränke mit Compute-Blades unterschiedlicher (elektrischer) Leistung, da der Durchfluss pro Compute-Blade separat geregelt werden kann.
Erste Systeme auf Basis der GX5000 werden laut HPE für Anfang 2027 erwartet.
Lux KI-Cluster
Etwas weniger spannend ist der ebenfalls bewilligte ORNL-KI-Cluster „Lux“. Er nutzt bereits verfügbare Technik, darunter AMD Epyc-CPUs, Pensando-Netzwerkkarten (ebenfalls von AMD) und die MI355X-Beschleunigerkarten. Lux wird dazu HPEs Proliant Compute-Server XD685 nutzen.
Dass Lux nicht als bahnbrechendes System konzipiert ist, wird bereits in dessen Ankündigung deutlich. Während Discovery neue wissenschaftliche Horizonte ermöglichen soll, ist bei Lux lediglich die Rede davon, mehr Wissenschaftlern den Zugang zu spezialisierten KI-Ressourcen zu ermöglichen.
(csp)
-
UX/UI & Webdesignvor 2 MonatenDer ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 2 MonatenAdobe Firefly Boards › PAGE online
-
Social Mediavor 2 MonatenRelatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 2 MonatenPosit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 MonatenEventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 1 MonatFake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
UX/UI & Webdesignvor 1 WocheIllustrierte Reise nach New York City › PAGE online
-
Apps & Mobile Entwicklungvor 2 MonatenGalaxy Tab S10 Lite: Günstiger Einstieg in Samsungs Premium-Tablets
