Künstliche Intelligenz

KI-Update kompakt: Grok, Baustellenunfälle, Bias, vergiftete KI


Elon Musks KI-Dienst Grok wurde nach einer „Verbesserung“ wegen antisemitischer Äußerungen abgeschaltet. Der X-Chef hatte zuvor kritisiert, dass die KI „zu links“ sei und eine Überarbeitung angekündigt. Nach der Anpassung begann das System jedoch, antisemitische Verschwörungsmythen zu verbreiten, Hitler zu loben und sich selbst als „mechanisierten Hitler“ zu bezeichnen. Nutzer hatten gezielt kontroverse Antworten provoziert, die das System bereitwillig lieferte.



X hat den Dienst inzwischen deaktiviert und eine erneute Überarbeitung angekündigt.

Der KI-Anbieter Perplexity hat mit Perplexity Max ein Premium-Angebot gestartet. Für monatlich 200 US-Dollar erhalten Nutzer unbegrenzten Zugang zu allen Diensten sowie künftigen Angeboten. Der Preissprung folgt einem Branchentrend: Auch OpenAI, Anthropic und Google haben ähnlich teure Abonnements eingeführt. Die hohen Kosten spiegeln die wirtschaftliche Realität wider – Entwicklung und Betrieb von KI-Systemen verschlingen enorme Summen, die sich durch günstigere Abos nicht decken lassen. Perplexity Max richtet sich mit Features wie dem Orchestrierungstool Labs und Zugang zu Drittanbieter-Modellen wie OpenAIs o3-pro klar an professionelle Nutzer.

Eine KI-Software namens Safety AI des US-Unternehmens DroneDeploy erkennt mit 95-prozentiger Genauigkeit Sicherheitsverstöße auf Baustellen. Das System analysiert Foto- und Videomaterial vom Baufortschritt und identifiziert Verstöße gegen US-Sicherheitsstandards. Die Technologie nutzt ein visuelles Sprachmodell (VLM), das Objekte wie Leitern oder Schutzhelme erkennt und daraus Schlüsse über mögliche Gefahrensituationen zieht.

Das System wurde mit zehntausenden Bildern von Sicherheitsverstößen trainiert und wird seit Oktober 2023 auf hunderten US-Baustellen eingesetzt. Inzwischen gibt es auch länderspezifische Versionen für Kanada, Großbritannien, Südkorea und Australien. Besonders für überlastete Sicherheitsmanager, die oft für bis zu 15 Baustellen gleichzeitig verantwortlich sind, könnte die Technologie eine wertvolle Unterstützung darstellen.

Mark Zuckerberg verstärkt seine KI-Ambitionen durch die Abwerbung führender Experten von Konkurrenten wie OpenAI, Anthropic, GitHub, Apple und Safe Superintelligence. Die Fachleute sollen das neu gegründete „Meta Superintelligence Labs“ aufbauen. Während die genauen finanziellen Anreize nicht bekannt sind, dürften die Vergütungen in Millionenhöhe liegen.

Meta profitiert dabei von einem entscheidenden Wettbewerbsvorteil: Das Unternehmen kann seine KI-Investitionen durch profitable Geschäftsbereiche, insbesondere Werbung in sozialen Netzwerken, quersubventionieren. Im Gegensatz dazu stehen Start-ups wie OpenAI und Anthropic unter erheblichem Druck, die externe Finanzierung zu sichern, was ihre langfristigen Perspektiven unsicherer macht.

Die meisten deutschen Arbeitnehmer bleiben bei KI-Weiterbildungen außen vor. Einer repräsentativen Bitkom-Umfrage zufolge erhielten nur 20 Prozent der Beschäftigten eine KI-Schulung durch ihren Arbeitgeber. Weitere 6 Prozent haben entsprechende Angebote bisher nicht genutzt, während 70 Prozent keinerlei Fortbildungsmöglichkeiten in diesem Bereich haben.

Jeder siebte Befragte hält es für möglich, beruflich vollständig durch KI ersetzt zu werden. Trotz dieser Sorgen sehen viele in der Technologie ein Mittel gegen den Fachkräftemangel. Bemerkenswert: Ein Drittel der Teilnehmer ist überzeugt, dass KI den eigenen Vorgesetzten ersetzen könnte.




Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Spanische Forscher bestätigen zentrale Beobachtungen aus Apples umstrittener Studie „The Illusion of Thinking“, ziehen jedoch andere Schlüsse. Die Untersuchung des Forschungszentrums für Automatisierung und Robotik bestätigt, dass KI-Modelle wie Gemini 2.5 Pro bei komplexeren Reasoning-Aufgaben tatsächlich scheitern. Doch wo Apple darin einen grundsätzlichen Mangel an Denkfähigkeit sieht, erkennen die spanischen Wissenschaftler ein differenzierteres Bild.

Besonders aufschlussreich: Der Tokenverbrauch der Modelle steigt, solange sie eine Lösung für möglich halten, und sinkt drastisch, wenn sie eine Aufgabe als unlösbar einstufen – ein Hinweis auf implizites Unsicherheitsmanagement. Die Forscher kritisieren zudem, dass viele der von Apple getesteten Flussüberquerungsrätsel mathematisch unlösbar waren. Bei gültigen Konfigurationen löste das Modell selbst großskalige Instanzen zuverlässig.

OpenAI hat seine Sicherheitsmaßnahmen drastisch verschärft, um seine wertvollen KI-Modelle vor Konkurrenten zu schützen. Die Financial Times berichtet, dass Systeme grundsätzlich keinen Internetzugang mehr erhalten, sofern nicht ausdrücklich genehmigt. Zudem gilt ein strenges Zugriffskonzept namens „Information Tenting“: Mitarbeiter dürfen nur auf explizit freigegebene Projekte zugreifen.

Die physische Sicherheit wurde ebenfalls verstärkt, mit strengeren Zutrittsregeln für Rechenzentren. OpenAI hat zudem Sicherheitsexperten mit militärischem Hintergrund rekrutiert, darunter den früheren US-General Paul Nakasone. Die Maßnahmen reagieren auf Warnungen der US-Behörden vor zunehmender Wirtschaftsspionage, besonders aus China, in einem Technologiebereich, der als kritisch für die nationale Sicherheit gilt.

Moderne KI-Systeme diskriminieren systematisch nach Geschlecht, wie eine Studie der Technischen Hochschule Würzburg-Schweinfurt zeigt. Bei identischen Ausgangsbedingungen empfehlen Sprachmodelle wie ChatGPT Frauen konsequent niedrigere Gehaltsvorstellungen als Männern. Die Forscher variierten in ihren Tests lediglich das Geschlecht der fiktiven Person, während Stelle, Branche und Stadt konstant blieben.

Ähnliche geschlechtsspezifische Verzerrungen zeigten sich auch bei der Karriereberatung und Verhaltensempfehlungen. Diese Bias bleiben bei klassischen Tests oft unentdeckt und manifestieren sich erst in realitätsnahen Anwendungen. Da viele Nutzer den vermeintlich objektiven KI-Empfehlungen vertrauen, könnten solche Verzerrungen bestehende gesellschaftliche Ungleichheiten verstärken. Die Studie ist Teil des EU-geförderten Projekts AIOLIA, das sich für faire und inklusive KI-Systeme einsetzt.

OpenAI stellt 10 Millionen Dollar bereit, um 400.000 US-Lehrkräfte im Umgang mit Künstlicher Intelligenz zu schulen. Das auf fünf Jahre angelegte Projekt „National Academy for AI Instruction“ entsteht in Kooperation mit der American Federation of Teachers. In New York City wird ein zentrales Ausbildungszentrum eingerichtet, weitere sollen bis 2030 folgen.

Die Behauptung, das Vergiften von KI-Trainingsdaten sei so wirkungslos wie „ins Meer zu pinkeln“, greift zu kurz. Xe Iaso, Gründerin des Datenschutz-Unternehmens Anubis, nutzt diesen Vergleich, um für ihre alternative Lösung zu werben: Browser-Bots werden durch kryptografische Aufgaben abgeschreckt, die Ressourcen verbrauchen.

Doch die Wirksamkeit von Datenvergiftung sollte nicht unterschätzt werden. Einzelne Manipulationen mögen wirkungslos bleiben, aber koordinierte Bemühungen – etwa Russlands gezielte Bereitstellung manipulierter Inhalte für KI-Training – können durchaus Einfluss nehmen. Studien zeigen zudem, dass selbst unzusammenhängende Zusatzinformationen Reasoning-Modelle erheblich stören können. Auch für Menschen unsichtbare, aber für KI-Systeme erkennbare Manipulationen auf Webseiten, können wirksam sein.

Ein Unbekannter hat offenbar mit KI-generiertem Material den US-Außenminister Marco Rubio imitiert und über den verschlüsselten Messenger Signal andere Außenminister und hochrangige US-Politiker kontaktiert. Die Washington Post berichtet unter Berufung auf interne Dokumente, dass US-Strafverfolgungsbehörden den Täter noch nicht identifizieren konnten.

Der Vorfall verdeutlicht die Sicherheitslücken bei der Nutzung kommerzieller Messenger-Dienste durch Regierungsvertreter. Für die Täuschung genügten die Handynummern der Zielpersonen sowie Trainingsmaterial für die KI-Imitation. Der falsche Rubio nutzte einen Signal-Account mit der nicht authentischen E-Mail-Adresse „Marco.Rubio@state.gov“ als angezeigten Namen.

Eine neue Karte namens „LooksMapping“ bewertet die durchschnittliche Attraktivität von Restaurantgästen in Manhattan. Programmierer Riley Walz analysierte dafür die Profilbilder von Google-Maps-Rezensenten mittels eines KI-Modells von OpenAI. Die Visualisierung zeigt „attraktive“ Bereiche in Rot und „weniger attraktive“ in Blau.

Die Ergebnisse offenbaren problematische Muster: Während das hippe East Village als attraktiv eingestuft wird, erscheint der vorwiegend von Schwarzen und Hispanics bewohnte Stadtteil Harlem tiefblau. Diese Bewertung deutet auf einen rassistischen Bias im KI-System hin – ein bekanntes Problem bei Algorithmen, die mit westlich geprägten Datensätzen trainiert wurden.




(igr)



Source link

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Beliebt

Die mobile Version verlassen