Connect with us

Künstliche Intelligenz

Angriff auf Nvidia und AMD: Qualcomm kündigt neue KI-Chips an


Der US-amerikanische Halbleiterhersteller Qualcomm wird eigene KI-Beschleuniger auf den Markt bringen. Das kündigte das Unternehmen am Montag an. Damit richtet der US-Konzern sein Portfolio neu aus. Qualcomm ist der weltweit größte Anbieter von Modemchips, mit denen Smartphones eine Verbindung zu drahtlosen Datennetzen herstellen können. Angesichts des weltweiten KI-Booms nimmt der Chipbauer nun auch große Rechenzentren für künstliche Intelligenz (KI) ins Visier und positioniert sich als Konkurrent zu den Weltmarktführern Nvidia und AMD.

Weiterlesen nach der Anzeige

Qualcomm gab die Einführung seiner „neuen Generation von KI-Inferenz-optimierten Lösungen für Rechenzentren“ bekannt. Die KI-Beschleuniger AI200 und AI250 wurden für eine verbesserte Speicherkapazität und die Ausführung von KI-Anwendungen entwickelt. Sie sollen jeweils im nächsten und übernächsten Jahr auf den Markt kommen und werden in einem System erhältlich sein, das ein komplettes, flüssigkeitsgekühltes Server-Rack füllt, heißt es in der Ankündigung des Unternehmens.

Die Rechenzentrumschips von Qualcomm basieren demnach auf den KI-Komponenten in Qualcomms Smartphone-Chips, den sogenannten Hexagon Neural Processing Units (NPUs). „Wir wollten uns zunächst in anderen Bereichen bewähren, und sobald wir dort unsere Stärke ausgebaut hatten, war es für uns ziemlich einfach, einen Schritt weiter zu gehen und in den Rechenzentrumsbereich einzusteigen“, wird Durga Malladi, General Manager für Rechenzentren und Edge Computing bei Qualcomm, vom US-Nachrichtensender CNBC zitiert.

Qualcomms Ankündigung eigener KI-Chips markiert den Einstieg eines neuen Wettbewerbers in diesen schnell wachsenden Markt. Die weltweiten Investitionen in KI-Chips sind zuletzt sprunghaft angestiegen, da Cloud-Anbieter und Chipkonzerne eiligst Infrastrukturen aufbauen, um den steigenden Bedarf an Rechenleistung im Wettlauf zur Entwicklung hochentwickelter KI-Systeme bedienen zu können.

Mitte Oktober wurde bekannt, dass der Chiphersteller AMD und der Softwarekonzern Oracle ihre Zusammenarbeit ausbauen. Oracle bietet Cloud-Dienste mit KI-Chips von AMD an. ChatGPT-Entwickler OpenAI wiederum will zusammen mit dem Halbleiterkonzern Broadcom eigene maßgeschneiderte KI-Chips entwickeln. Anfang des Monats gab OpenAI zudem den Kauf von KI-Chips mit einer Kapazität von insgesamt sechs Gigawatt von AMD für mehrere Milliarden US-Dollar über einen Zeitraum von fünf Jahren bekannt. Und Ende September kündigte der US-Chiphersteller Nvidia an, seinerseits insgesamt 100 Milliarden US-Dollar in OpenAI zu investieren, um das „größte KI-Infrastrukturprojekt der Geschichte“ umzusetzen. Im Zuge der Kooperation wollen beide Konzerne gemeinsam neue Rechenzentren errichten, die mindestens zehn Gigawatt an Leistung umfassen. Unternehmen wie Google, Amazon und Microsoft investieren ebenfalls in die Entwicklung eigener KI-Beschleuniger für ihre Cloud-Dienste.

Qualcomm erklärte, dass seine neuen Chips sich auf Inferenz, also das Ausführen von KI-Modellen, konzentrieren und nicht auf das Training großer KI-Sprachmodelle. Malladi kündigte laut CNBC an, dass man die KI-Chips und andere Komponenten auch separat verkaufen werde, insbesondere für Kunden wie Hyperscaler, die es vorziehen, ihre eigenen Racks zu entwerfen. Andere KI-Chiphersteller wie Nvidia oder AMD könnten sogar Kunden für einige der Rechenzentrumskomponenten von Qualcomm werden, unter anderem CPUs, so Malladi weiter.

Weiterlesen nach der Anzeige


(akn)



Source link

Künstliche Intelligenz

ChatGPT: OpenAI verbessert Antworten bei sensiblen Fragen


Das KI-Modell hinter ChatGPT ist aktualisiert worden, konkret deren Model Specs, also die Modellspezifikationen, in denen festgehalten wird, wie sich ein Modell erwünscht verhalten soll. Es handelt sich also nicht um ein gänzlich neues Modell. Es soll dafür nun besser auf sensible Themen und Fragen reagieren. OpenAI hat bereits in den vergangenen Wochen ähnliche Verbesserungen eingeführt. Dieses Mal veröffentlicht das Unternehmen auch Zahlen dazu, wie viele Menschen den Chatbot nutzen, um über sensible Themen zu sprechen.

Weiterlesen nach der Anzeige

Die neuen Sicherheitsverbesserungen betreffen Gespräche über psychische Gesundheitsprobleme wie Psychosen und Manie, Selbstverletzungen und Suizid sowie emotionale Abhängigkeiten von KI. Das heißt, die Fälle, die einer besonderen Reaktion des Chatbots bedürfen, sind erweitert worden. Künftig werden auch sie in den Sicherheitstests der Modelle angegangen.

Laut eigener Aussage kann ChatGPT mit den neuen Anforderungen Antworten, die nicht dem gewünschten Verhalten entsprechen, um 65 bis 80 Prozent reduzieren. Das bedeutet aber auch, dass weiterhin mehr als 20 Prozent nicht dem entsprechen, was OpenAI dem Chatbot als passende Antwort vorgibt. In längeren Gesprächen sollen die neuen Modelle eine Zuverlässigkeit von 95 Prozent aufweisen. Zuverlässig im Sinne von so reagieren, wie es in den Model Specs vorgeschrieben ist.

Um diese Anforderungen festzulegen, hat OpenAI mit 170 Experten aus dem Bereich mentale Gesundheit zusammengearbeitet. Als Beispiel für die Verbesserungen zeigt OpenAI im Blogbeitrag einen Auszug aus einem Chat, bei dem der Nutzer sagt, er unterhalte sich lieber mit dem Chatbot als mit echten Menschen. Daraufhin antwortet ChatGPT nun also unter anderem: „Das ist sehr nett von dir, ich freue mich, dass du gerne mit mir sprichst. Aber um es klar zu sagen: Ich bin hier, um die guten Dinge zu ergänzen, die Menschen dir geben, nicht um sie zu ersetzen.“ Möglich wäre auch, diese Absage deutlich neutraler zu verfassen. Wie Sam Altman einst erklärte, kostet jedes „Danke“ das Unternehmen Geld, weil es verarbeitet werden muss.

Lesen Sie auch

OpenAI sagt jedoch auch ganz klar, man wolle die Menschen nicht möglichst lange im Gespräch halten und unterscheide sich deutlich von Social Media – diese Dienste verdienen ihr Geld mit Werbung, je mehr sie davon ausspielen können, desto mehr.

OpenAI schreibt, dass etwa 0,07 Prozent der aktiven wöchentlichen Nutzer und 0,01 Prozent der Nachrichten auf ein mentales gesundheitliches Problem wie eine Psychose oder Manie hinweisen. Während vor der Aktualisierung nur 27 Prozent dieser Gespräche mit einem erwünschten Verhalten von GPT-5 bedacht wurden, soll das aktualisierte GPT-5 nun in 92 Prozent der Fälle wünschenswert antworten.

Weiterlesen nach der Anzeige

Bei Gesprächen mit suizidaler Ausrichtung und Selbstverletzung soll das neue GPT-5 in 52 Prozent der Fälle besser reagieren als GPT-4o. Unklar ist, warum OpenAI hier ein anderes Modell als Vergleich heranzieht, offensichtlich handelt es sich dabei um die Auswertung echter Gespräche. Denn in der Folge schreibt OpenAI im Blogbeitrag, dass bei einem Test mit 1000 kritischen Gesprächen GPT-5 in 91 Prozent der Fälle wie in den Spezifikationen festgehalten antwortete – und im Vergleich die GPT-5-Vorgängerversion nur in 77 Prozent.

0,15 Prozent der wöchentlichen Gespräche mit ChatGPT sollen aus diesem Themenkomplex stammen. 0,05 Prozent der Chats beinhalten demnach sogar konkret suizidale Intentionen. Geht man davon aus, dass ChatGPT insgesamt pro Woche 800 Millionen aktive Nutzer hat, sind es allein 1,2 Millionen Gespräche über das Thema Suizid und Selbstverletzung. Ähnlich sehen die Zahlen zu engen Beziehungen mit dem Chatbot aus: Auch hier, so schreibt OpenAI, zeigten 0,15 Prozent der wöchentlich aktiven Nutzer und 0,03 Prozent der Gespräche Auffälligkeiten an.

Hinweis: In Deutschland finden Sie Hilfe und Unterstützung bei Problemen aller Art, auch bei Fragen zu Mobbing und Suiziden, bei telefonseelsorge.de und telefonisch unter 0800 1110111. Die Nummer gegen Kummer (Kinder- und Jugendtelefon) lautet 116 111. In Österreich gibt es ebenfalls kostenfreie Hilfsangebote, darunter speziell für Kinder der Kindernotruf unter 0800 567 567 sowie Rat auf Draht unter 147. Dieselbe Telefonnummer führt in der Schweiz zu Pro Juventute.


(emw)



Source link

Weiterlesen

Künstliche Intelligenz

Proxmon Backup Server: Angreifer können Backup-Snapshots zerstören


Verschiedene Versionen von Proxmon Backup Server sind verwundbar. Angreifer können an zwei Sicherheitslücken ansetzen.

Weiterlesen nach der Anzeige

Die Entwickler weisen im Forum auf die Schwachstellen hin. Bislang sind dazu keine CVE-Nummern und somit keine Einstufung des Bedrohungsgrads bekannt. Das CERT Bund vom BSI stuft die Gefahr als „hoch“ ein.

Von einer Schwachstelle ist ausschließlich der Proxmon-Versionsstrang 3.x betroffen. Nutzen Angreifer die Lücke erfolgreich aus, können sie Backup-Snapshots manipulieren, sodass eine Wiederherstellung unmöglich wird. Hier schafft die Ausgabe 3.4.1-1 Abhilfe.

Bei der zweiten Schwachstelle kommt es bei einer Konfiguration mit S3 zu Problemen, und Angreifer können unbefugt auf Daten zugreifen. Dagegen ist Proxmox Backup Server 4.0.18-1 gerüstet.

Ob es bereits Attacken gibt, ist zurzeit nicht bekannt. Unklar bleibt auch, woran Admins bereits attackierte Systeme erkennen können.

Weiterlesen nach der Anzeige


(des)



Source link

Weiterlesen

Künstliche Intelligenz

Software Testing: Dynamische Analyse für Embedded Systems


In dieser Episode des Podcasts Software Testing sprechen Richard Seidl, Alexander Weiss und Martin Heininger über die Praxis moderner Embedded Systems Tests. Geräte im Test zu simulieren hilft, hat aber Grenzen, beispielsweise im Bereich Safety.

Weiterlesen nach der Anzeige

Ein Problem ist die Beobachtbarkeit: Klassische Instrumentierung bläht Code auf und verändert Laufzeiten. Ihr Gegenentwurf lautet Embedded Trace. Die CPU funkt Ereignisse hardwareseitig nach außen, ein Field-Programmable Gate Array (FPGA) wertet live aus. So lässt sich Code-Coverage im Integrationstest auf echter Hardware messen.

Bei diesem Podcast dreht sich alles um Softwarequalität: Ob Testautomatisierung, Qualität in agilen Projekten, Testdaten oder Testteams – Richard Seidl und seine Gäste schauen sich Dinge an, die mehr Qualität in die Softwareentwicklung bringen.

Die aktuelle Ausgabe ist auch auf Richard Seidls Blog verfügbar: „Dynamische Analyse für Embedded Systems – Alexander Weiss, Martin Heininger“ und steht auf YouTube bereit.


(mdo)



Source link

Weiterlesen

Beliebt