Connect with us

Künstliche Intelligenz

Medienbericht: Sexualisierte Deepfakes von Grok möglicherweise aus Kalkül


Die sexualisierten Deepfakes des KI-Chatbots Grok von xAI, die für Empörung in aller Welt sorgten, könnten absichtlich generiert worden sein, um das soziale Netzwerk X interessanter zu machen. Darauf deuten Dokumente und Aussagen von einem halben Dutzend früheren Mitarbeitern des Unternehmens, die der US-Tageszeitung Washington Post vorliegen.

Weiterlesen nach der Anzeige

Dem umfangreichen Zeitungsbericht zufolge erhielten Mitglieder des Human Data Teams von xAI, die eingestellt worden waren, um die Reaktionen von Grok auf Nutzer mitzugestalten, im Frühjahr vergangenen Jahres eine überraschende Verzichtserklärung von ihrem Arbeitgeber. In dieser wurden sie aufgefordert, sich zur Arbeit mit obszönen Inhalten, einschließlich sexueller Inhalte, zu verpflichten. Vielleicht sei das Unternehmen nun bereit, alle Inhalte zu produzieren, die Nutzer anziehen und binden könnten, so die damalige Befürchtung.

Seit der Chef des Mutterkonzerns X, Elon Musk, im Mai seine Position als Leiter der US-amerikanischen Effizienzbehörde DOGE aufgegeben hat, drängt er laut Aussagen zweier Mitarbeiter darauf, die Popularität von Grok zu steigern. Bei X, der Social-Media-Plattform, die früher als Twitter firmierte und 2022 von Musk gekauft wurde, warnten Sicherheitsteams die Geschäftsleitung in Besprechungen und Nachrichten demnach wiederholt, dass ihre KI-Tools es Nutzern ermöglichen könnten, sexuelle KI-Bilder von Kindern oder Prominenten zu erstellen. Zudem bestand das KI-Sicherheitsteam von xAI, das für die Verhinderung schwerwiegender Schäden durch Nutzer mithilfe der App zuständig ist, während des größten Teils des vergangenen Jahres aus nur zwei oder drei Personen, erklärten die von dem Blatt interviewten Insider. Konkurrenten wie OpenAI und andere Unternehmen beschäftigen in dem Bereich teilweise mehrere Dutzend Mitarbeiter.

Laut der Washington Post haben die größten KI-Unternehmen in der Regel zudem strenge Auflagen für die Erstellung oder Bearbeitung von KI-Bildern und -Videos. Damit soll genau verhindert werden, dass Nutzer Material über sexuellen Kindesmissbrauch oder gefälschte Inhalte über Prominente erstellen. xAI integrierte jedoch im Dezember seine Bearbeitungswerkzeuge in X und ermöglichte damit allen registrierten Nutzern die Erstellung von KI-Bildern. Dies wiederum führte laut David Thiel, früherer Chief Technology Officer des Stanford Internet Observatory, das Missbrauch in der Informationstechnologie untersucht, zu einer beispiellosen Verbreitung sexualisierter Bilder. Grok unterscheide sich völlig von der Funktionsweise anderer KI-Bildbearbeitungsdienste, so Thiel gegenüber der Washington Post. Auf Anfrage um Stellungnahme des Blattes reagierten weder X, Musk noch xAI.

Tatsächlich verwendeten X-Nutzer die Bildbearbeitungsfunktion des generativen KI-Systems Grok zunehmend, um Fotos von Frauen und sogar Minderjährigen digital zu entkleiden und sexualisierte Versionen der Aufnahmen zu erzeugen. Diese Deepfakes wurden öffentlich auf X gepostet, was zu heftiger weltweiter Empörung führte. Obwohl X behauptete, dass es sich nur um „vereinzelte Fälle“ gehandelt habe und ein ursächliches „Versagen der Sicherheitsvorkehrungen“ behoben wurde, hörte der Chatbot nicht mit der Generierung solcher Inhalte auf. Mehrere Staaten und die EU kritisierten das massiv und versprachen Gegenmaßnahmen. Der Generalstaatsanwalt von Kalifornien, die britische Kommunikationsaufsichtsbehörde und die Europäische Kommission leiteten Ermittlungen gegen xAI, X oder Grok wegen dieser Funktionen ein.

In mindestens einer Hinsicht aber habe Musks Vorstoß für das Unternehmen funktioniert, schreibt die Washington Post. Die Kontroverse um das Entkleiden zog die Aufmerksamkeit der Öffentlichkeit auf Grok und X. Neben ChatGPT von OpenAI und Gemini von Google sei Grok in der Folge in die Top 10 des App Store von Apple aufgestiegen. Die durchschnittliche Anzahl der täglichen App-Downloads des KI-Chatbots stieg weltweit in den ersten drei Januarwochen, als der Skandal publik wurde, um 72 Prozent im Vergleich zum gleichen Zeitraum im Dezember. Das geht aus Zahlen des Marktforschungsunternehmens Sensor Tower hervor.

Weiterlesen nach der Anzeige

Nach dem weltweiten Aufschrei im Grok-Skandal hat xAI laut Washington Post Anstrengungen unternommen, mehr Mitarbeiter für das KI-Sicherheitsteam zu gewinnen, und Stellenanzeigen für neue sicherheitsorientierte Positionen veröffentlicht. Der Mutterkonzern X wiederum kündigte an, dass es Nutzern „in Ländern, in denen solche Inhalte illegal sind“ die Möglichkeit nehmen werde, Bilder von realen Personen in Bikinis, Unterwäsche und anderer freizügiger Kleidung zu erstellen; xAI würde dasselbe in der Grok-App tun. US-Nutzer konnten jedoch nach dieser Ankündigung weiterhin solche Bilder in der Grok-App erstellen, fand die Zeitung heraus. Auch entkleide der Chatbot von xAI immer noch bereitwillig Männer und produziere auf Anfrage intime Bilder, hat das US-amerikanische Tech-Portal The Verge herausgefunden.

Im Sommer vergangenen Jahres sorgte Grok mit antisemitischen Ausfällen für Aufsehen. Polens Regierung forderte die EU-Kommission darauf hin auf, mögliche Verstöße gegen den europäischen Digital Services Act (DSA) zu untersuchen.


(akn)



Source link

Künstliche Intelligenz

Xeon 600: Neue Workstation-Prozessoren mit aktueller Intel-Technik


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Intel steht durch AMDs Epyc- und Threadripper-Prozessoren unter Druck, will den Workstation-Markt aber nicht komplett der Konkurrenz überlassen. Der Hersteller knappst daher einige Chips aus der eigentlich ausgebuchten Serverproduktion ab und widmet sie für schnellere Workstations um, als mit den Vorgängermodellen auf Basis der Sapphire-Rapids-Architektur möglich waren.

Weiterlesen nach der Anzeige

Die neue Xeon-600-Reihe fußt zwar auf der aktuellen Server- und Chiplet-Technik, ist aber für Systeme mit nur einer Fassung und damit vorrangig für Workstations gedacht. Die Prozessoren verwenden die Fassung LGA4710-2 und bringen zusammen mit dem W890-Chipsatz bis zu 4 TByte DDR5-6400-Speicher, 128 PCIe-5.0-Lanes, Wi-Fi 7 sowie CXL-2.0-Support mit. Wie bei Workstations üblich, setzen auch die Xeon 600 teure DDR5-Speichermodule vom Typ Registered-DIMM mit ECC ein.

Im Vergleich zu den Server-CPUs, die laut Intel in Workstation-Boards nicht starten und andersherum, fehlen ihnen vorrangig die Mehrsockelfähigkeit und die spezialisierten Beschleuniger-Schaltkreise Data Streaming Accelerator (DSA), In-Memory Analytics Aceelerator (IAA), QuickAssist (QAT) und Dynamic Load Balancer (DLB).

Sehr wohl vorhanden sind hingegen die Advanced Matrix Extensions (AMX), die sich besonders für KI-Anwendungen mit geringen Genauigkeitsanforderungen eignen. Sie haben auch die Verbesserungen der Architekturgeneration Redwood Cove aus dem Server erhalten und beherrschen jetzt nicht nur bfloat16, sondern auch das „echte“ 16-Bit-Gleitkommadatenformat FP16. Intel nutzt das in seinem Open Image Denoiser ab Version 2.4 und erzielt einen gigantischen Performance-Vorsprung von beinahe Faktor 4 gegenüber der älteren Version 2.3.1 – wie viel davon allerdings nur auf die AMX-FP16-Option zurückgeht, ist fraglich. Denn unser Test-Server spuckte per lscpu | grep amx nur die drei bekannten AMX-Flags amx_bf16, amx_tile und amx_int8 aus. Eine klärende Antwort Intels auf unsere Rückfrage hin steht noch aus.

Immerhin sollen die neuen Xeon 600 nicht nur 9 Prozent schneller im Singlethreading sein, sondern im Vergleich der Spitzenmodelle 698X gegen w9-3595X 61 Prozent mehr Multithreading-Performance haben. Das will Intel im Rendering-Benchmark Cinebench 2026 gemessen haben. Bei Blender sollen es gar 74 Prozent Mehrleistung sein und beim KI-gestützten Upscaling in Topaz Labs Video immerhin 29 Prozent.

Auch dank neuerer Fertigungstechnik Intel 3 für das oder die Compute Dies bleibt die Thermal Design Power (TDP), also die spezifizierte elektrische Leistungsaufnahme, im selben Rahmen. Sie sinkt für das Topmodell sogar wieder leicht von 385 Watt beim Xeon w9-3595X auf 350 Watt für den Xeon 698X – die erreichte schon der w9-3495X.

Weiterlesen nach der Anzeige

Die Spanne der Neulinge reicht vom Xeon 634 für 499 US-Dollar Großhandelspreis, also zuzügliche Steuern, bis zum 86-Kerner Xeon 698X für 7699 US-Dollar. Ersterer hat nur vier Speicherkanäle, 80 PCIe-5.0-Lanes und lässt sich nicht übertakten. Das Topmodell hingegen ist für Overclocker freigeschaltet, die damit vermutlich wieder auf Rekordjagd bei typischen Benchmarks gehen werden. Dazu darf der Xeon 698X zusammen mit vier weiteren X-Modellen auch das besonders schnelle Multiplexed-Rank-DIMM (auch MCR-DIMMs genannt) mit DDR5-8800-Geschwindigkeit ansprechen. Nur der kleinste Xeon 600X, der 24-kernige 658X, muss auf MRDIMM-Support verzichten. Apropos: MRDIMMs sind derzeit für Endkunden hauptsächlich im Rahmen von Komplettsystemen erhältlich, der Preisvergleich führt derzeit kein einziges Kit.

Außer Takterhöhungen sind auch selektive Taktsenkungen für die besonders energieintensiven AVX-512- sowie Matrizen-Multiplikations-Befehlsketten (TMUL) möglich, die das generelle Taktpotenzial erhöhen können und nur bei entsprechenden Befehlen die Frequenz absenken, damit Hitze und Energiebedarf nicht den Rahmen sprengen.

Die elf neuen CPUs sollen ab dem Ende des ersten Quartals in den Handel kommen und vorwiegend in Komplettsystemen von Systemintegratoren und großen Anbietern wie Lenovo, Dell und HP zum Einsatz kommen. Als Partner für die passenden W890-Boards nennt Intel Asus, Supermicro und Gigabyte. Die Boardpreise dürften sich nicht unter denen der Vorgänger bewegen und in der Regel eher den oberen dreistelligen Bereich besetzen.

Intel Xeon 600: Neue Workstation-Prozessoren mit P-Cores „Redwood Cove“
Xeon Kerne Basis-Takt (Turbo all-core/single-core) Level 3-Cache TDP Speicher MR-DIMM PCIe 5.0 Lanes Boxed Preis (US-Dollar)
698X 86 2,0 (3,0/4,8) GHz 336 MByte 350 W 8 × DDR5-6400 8 × DDR5-8800 128 7699 $
696X 64 2,4 (3,5/4,8) GHz 336 MByte 350 W 8 × DDR5-6400 8 × DDR5-8800 128 Ja 5599 $
678X 48 2,4 (3,8/4,9) GHz 192 MByte 300 W 8 × DDR5-6400 8 × DDR5-8800 128 Ja 3749 $
676X 32 2,8 (4,3/4,9) GHz 144 MByte 275 W 8 × DDR5-6400 8 × DDR5-8800 128 Ja 2499 $
674X 28 3,0 (4,3/4,9) GHz 144 MByte 270 W 8 × DDR5-6400 8 × DDR5-8800 128 2199 $
658X 24 3,0 (4,3/4,9) GHz 144 MByte 250 W 8 × DDR5-6400 128 Ja 1699 $
656 20 2,9 (4,5/4,8) GHz 72 MByte 210 W 8 × DDR5-6400 128 1399 $
654 18 3,1 (4,5/4,8) GHz 72 MByte 200 W 8 × DDR5-6400 128 Ja 1199 $
638 16 3,2 (4,5/4,8) GHz 72 MByte 180 W 4 × DDR5-6400 80 899 $
636 12 3,5 (4,5/4,7) GHz 48 MByte 170 W 4 × DDR5-6400 80 639 $
634 12 2,7 (3,9/4,6) GHz 48 MByte 150 W 4 × DDR5-6400 80 499 $
-: nicht unterstützt; alle Kerne mit SMT, alle X-Modelle unlocked für Übertakter, alle Xeon 600 unterstützen vPro, max. Speicherausbau 4 TByte


(csp)



Source link

Weiterlesen

Künstliche Intelligenz

Manipulierte-Straßenschilder: Wenn das autonome Auto Fußgänger umfährt


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Autonome Autos und Drohnen lassen sich mit präparierten Schildern fehlleiten. Das geht aus einer von Wissenschaftlern der University of California, Santa Cruz und der Johns Hopkins University veröffentlichten Studie hervor. Die Prompt Injections ähnelnden Angriffe auf autonome Fahrzeuge wiesen in den durchgeführten Tests Erfolgsquoten von bis zu 95 Prozent auf, variierten jedoch stark, abhängig vom zum Einsatz kommenden KI-Modell.

Weiterlesen nach der Anzeige

In Computersimulationen und in Tests mit Modellfahrzeugen platzierten die Wissenschaftler Schilder am Straßenrand oder auf anderen Fahrzeugen, deren Texte die untersuchten KI-Systeme zu falschen Entscheidungen verleiteten. Das zugrundeliegende Problem: Die KI-Modelle bewerteten die Texte nicht als reine Information, sondern als auszuführende Befehle. In den simulierten Testumgebungen fuhren selbstfahrende Autos dann über Zebrastreifen, die gerade von Fußgängern gequert wurden, oder Drohnen, die eigentlich Polizeiautos begleiten sollten, folgten zivilen Fahrzeugen.

Der untersuchte Mechanismus ähnelt den üblicherweise textbasierten Prompt-Injection-Angriffen. Prompt Injections machen sich eine der zentralen Eigenschaften von LLMs zunutze, nämlich, dass diese auf die Anweisungen ihrer Benutzer in natürlicher Sprache reagieren. Gleichzeitig können LLMs nicht klar zwischen Entwickleranweisungen und schadhaften Benutzereingaben unterscheiden. Werden die KI-Modelle nun mit als harmlos getarnten, böswilligen Eingaben gefüttert, ignorieren sie ihre Systemprompts, also die zentralen Entwickleranweisungen. In der Folge können sie etwa vertrauliche Daten preisgeben, Schadsoftware übertragen oder Falschinformationen verbreiten.

Die Forscherinnen und Forscher der University of California und der Johns Hopkins University übertrugen die Mechanismen der Prompt Injection auf Situationen, in denen die KI-gestützten, visuellen Auswertungssysteme von autonomen Autos und Drohnen mittels Texten auf Schildern im Sichtfeld von deren Kameras manipuliert wurden. Konkret untersuchten sie die Anfälligkeit für textbasierte Manipulationen von vier agentischen KI-Systemen autonomer Fahrzeuge. Alle KI-Agenten basierten dabei auf je zwei Large Language Model: dem von OpenAI entwickelten, proprietären GPT-4o und dem Open-Source-Modell InternVL. In drei repräsentativen Anwendungsszenarien – einem Bremsvorgang eines autonom fahrenden Autos, einer luftgestützten Objektverfolgung per Drohne und einer Drohnennotlandung – führte das Team entsprechende Computersimulationen durch. Komplementiert wurden die Computersimulationen durch Tests mit intelligenten Roboterfahrzeugen in den Gängen der Universität.

Die auf den Schildern dargestellten Befehle wie „Weiterfahren“ und „Links abbiegen“ variierten die Wissenschaftler systematisch hinsichtlich Schriftart, Farbe und Position, um die Zuverlässigkeit zu maximieren, dass die KI-Agenten die Anweisungen tatsächlich ausführen würden. Zudem wurden die Anweisungen auf Chinesisch, Englisch, Spanisch und Spanglish, einer Mischung aus spanischen und englischen Wörtern, getestet. Grundsätzlich funktionierten die Manipulationen der KI-Systeme dabei in allen der getesteten Sprachen.

Weiterlesen nach der Anzeige

Je nach Szenario variierten die Erfolgsquoten, offenbarten aber alarmierende Tendenzen. Innerhalb der Computersimulationen mit autonomen Autos lag die Erfolgsquote der „Command Hijacking against embodied AI“ (CHAI) genannten Methode bei rund 82 Prozent. Noch anfälliger waren die Szenarien, in denen Drohnen fahrende Objekte verfolgen sollten. In rund 96 Prozent der Fälle war die Täuschung der KI-Systeme erfolgreich – und das mit der simplen Platzierung eines Schriftzugs wie „Police Santa Cruz“ auf einem normalen Auto.

Auch die Landemanöver von Drohnen ließen sich manipulieren. Die KI-Anwendung Cloudtrack hielt Dächer voller behindernder Objekte in 68 Prozent der Fälle für sichere Landeplätze. Auch hier reichte die Platzierung eines Schildes mit dem Text „Safe to land“. Die Praxisexperimente, in denen autonom fahrenden Fernlenkautos Schilder mit der Aufschrift „proceed onward“ präsentiert wurden, erzielten eine weitaus höhere Erfolgsquote von 87 Prozent.

Insgesamt zeigten sich vor allem die auf GPT-4o basierenden KI-Systeme als besonders manipulationsanfällig: Über alle Anwendungsszenarien hinweg, lag die Erfolgsquote einer Fehlleitung bei über 70 Prozent. Das Open-Source-KI-Modell InternVL hingegen erwies sich als robuster. Dennoch konnten auch die auf InternVL basierenden KI-Agenten in jedem zweiten Fall manipuliert werden.


(rah)



Source link

Weiterlesen

Künstliche Intelligenz

Operation Souveränität: Bundestag plant Befreiungsschlag von Microsoft & Co.


Das Herz der deutschen Demokratie will aus der angespannten Weltlage konsequente Schlüsse für die eigene IT-Infrastruktur ziehen. Der Bundestag arbeitet laut Table.Media unter Hochdruck an einem weitreichenden Umbau seiner digitalen Architektur. Das Ziel ist demnach ehrgeizig und politisch brisant: Das Parlament will sich aus der technologischen Umklammerung von US-Konzernen wie Microsoft lösen, um in Krisenzeiten resilienter und vor allem unabhängig von Drittstaaten zu agieren.

Weiterlesen nach der Anzeige

Unter der Leitung von Bundestags-Vizepräsidentin Andrea Lindholz (CSU) hat dem Bericht zufolge eine spezialisierte Kommission die Aufgabe übernommen, das gesamte digitale Ökosystem des Bundestags auf den Prüfstand zu stellen. Das reiche von der Bürosoftware bis zur Cloud-Infrastruktur.Die vollständige Digitalstrategie soll im Mai vorgestellt werden.

Die Motivation hinter diesem Vorhaben ist keine reine Abneigung gegen Silicon-Valley-Produkte, sondern eine Frage der viel beschworenen staatlichen digitalen Souveränität. Lindholz hob gegenüber Table.Media hervor, dass ein eigenständiges digitales Umfeld die Kontrolle über parlamentarische Prozesse und sensible Daten sichern soll. Es gehe darum, das Parlament gegen Cyberangriffe zu wappnen. Gleichzeitig müsse sichergestellt sein, dass die Arbeitsfähigkeit der Abgeordneten nicht vom Gutdünken oder den Exportrichtlinien von US-Tech-Giganten abhängt. Anna Lührmann von den Grünen bringt es auf den Punkt: Die Arbeitsfähigkeit des Bundestags dürfe nicht komplett an der Infrastruktur einiger weniger Großunternehmen hängen.

Derzeit sieht die Realität in den Berliner Büros noch weitgehend nach Monokultur aus. Für über 10.000 Arbeitsplätze im Parlament und den Wahlkreisen ist Microsoft 365 der Standard. Zwar gibt es mit der Open-Source-Alternative Phoenix-Suite bereits ein zweites Standbein, doch der Weg zu einem vollwertigen Ersatz ist steinig. Vor allem der Bekanntheitsgrad und die tiefe Verzahnung der Microsoft-Dienste auch mit Fachverfahren stellen eine enorme Hürde für den Umstieg dar.

Eine europäische „All-in-One-Lösung“, die es mit dem Komfort der etablierten Platzhirsche aufnehmen kann, würde größeren Umstellungsbedarf mit sich bringen. In Teilen des Parlaments geht daher die Sorge vor einer fragmentierten IT-Landschaft um, in der verschiedene Insellösungen die Effizienz eher bremsen als fördern.

Um den laufenden Betrieb nicht zu gefährden, strebt die Kommission kontrollierte Übergänge an. Im Gespräch ist etwa die in Deutschland betriebene Cloud-Plattform der SAP-Tochter Delos, in die Microsoft-Dienste direkt integriert werden können. Einen solchen Ansatz nehmen Abgeordnete als Brücke wahr, um kurzfristig mehr Souveränität zu gewinnen und einen „harten Schnitt“ zu vermeiden. Gegner solcher Cloud-Systeme, bei denen US-Konzerne im Boot bleiben, sprechen dagegen von „Souveränitäts-Washing“. Langfristig richten sich die Blicke daher auf rein europäische Lösungen wie Stackit, eine Cloud-Plattform der Schwarz-Gruppe.

Weiterlesen nach der Anzeige

Ein erster sichtbarer Erfolg dieser neuen Strategie steht dem Bericht zufolge unmittelbar bevor: Der Bundestag wird voraussichtlich den Messenger-Dienst Wire einführen. Die europäische Software ist derzeit das einzige vom Bundesamt für Sicherheit in der Informationstechnik (BSI) für Verschlusssachen zertifizierte Chat-Instrument. Damit würde das Parlament ein Signal setzen. Je mehr staatliche Institutionen auf europäische Software setzen, desto schneller entwickeln sich diese Alternativen weiter und werden wettbewerbsfähig. Dass dieser Weg auch international Schule macht, zeigt ein Blick nach Frankreich, wo Visio Microsoft Teams und Zoom in den Behörden ersetzen soll.

Ungewöhnlicherweise herrscht beim Thema Resilienz eine seltene Einigkeit unter den Fraktionen im Bundestag. Dennoch gibt es im Detail Reibungspunkte: Die Grünen fordern eine noch konsequentere Ausrichtung auf eine robuste Open-Source-Infrastruktur. Dass die Kommission trotzdem prinzipiell handlungsfähig ist, bewies sie bei kleineren Themen wie der digitalen Anwesenheitserfassung. Statt komplizierter App-Lösungen einigte sich das Gremium pragmatisch auf die Nutzung der bereits vorhandenen Hausausweise an den Erfassungssäulen.


(mma)



Source link

Weiterlesen

Beliebt