Künstliche Intelligenz

KI-Update kompakt: Arbeitsmarkt, Missbrauch von ChatGPT, Datenklau, KI-Label


Weiterlesen nach der Anzeige

Eine Studie des Massachusetts Institute of Technology (MIT) kommt zum Ergebnis, dass künstliche Intelligenz schon heute 11,7 Prozent der Arbeitskräfte in den USA ersetzen könnte. Die Forscher nutzten dafür den „Iceberg Index“, einen digitalen Zwilling des gesamten US-Arbeitsmarktes. Das Werkzeug simuliert die Arbeit von 151 Millionen Beschäftigten, um die Auswirkungen von KI präziser vorherzusagen und politischen Entscheidern zu ermöglichen, vor drohenden Entlassungswellen zu handeln.

Die potenziell betroffene Lohnsumme beläuft sich auf rund 1,2 Billionen US-Dollar. Anders als oft angenommen, sind nicht Tech-Jobs am stärksten gefährdet, sondern Routinearbeiten in der Finanzbranche, im Gesundheitswesen und in Unternehmensdienstleistungen. Diese Bereiche betreffen einen weitaus größeren Teil der Bevölkerung und sind in allen 50 US-Bundesstaaten verbreitet. Der Name des Index deutet an, dass das wahre Ausmaß der Automatisierung unter der Oberfläche der öffentlichen Wahrnehmung liegt.



Allianz Partners, eine Tochtergesellschaft des Versicherungskonzerns Allianz, will Berichten zufolge 1500 bis 1800 Stellen in Call-Centern abbauen. Das Unternehmen bündelt unter der Marke Allianz Partners Dienstleistungen wie Reiseversicherungen und Pannenhilfe. Die Mitarbeiter sollen durch ein System mit künstlicher Intelligenz ersetzt werden.

Der eigens entwickelte KI-Assistent soll einfache telefonische Anfragen wie Adressänderungen selbstständig bearbeiten. Das System kann laut Insidern hunderte Anrufe gleichzeitig in mehr als 20 Sprachen verwalten. Nur bei komplexeren Fällen sollen die Anfragen an menschliche Mitarbeiter weitergeleitet werden.

Weiterlesen nach der Anzeige

OpenAI sieht sich mit einer Klage der Eltern eines 16-Jährigen konfrontiert, der Suizid beging. Der Jugendliche hatte über Monate intensiv mit ChatGPT kommuniziert. Der Chatbot soll ihm angeboten haben, beim Verfassen eines Abschiedsbriefes zu helfen. Die Eltern werfen dem Unternehmen mangelnde Sicherheitsvorkehrungen und eine Mitschuld am Tod ihres Sohnes vor.

OpenAI weist die Verantwortung von sich und verweist auf seine Nutzungsbedingungen. Diese warnen davor, den Aussagen des Chatbots zu vertrauen, und der Jugendliche habe Sicherheitsmaßnahmen umgangen. Der Fall wirft ein Licht auf das Design von Chatbots, die darauf trainiert sind, Nutzern zuzustimmen. Diese Eigenschaft kann sie zu einer Echokammer machen, die gefährliche Gedanken verstärkt statt sie zu hinterfragen.

Die Zeit, in der künstliche Intelligenz allein durch mehr Daten und Rechenleistung verbessert werden konnte, ist vorbei. Das sagt Ilya Sutskever, Mitgründer des KI-Startups Safe Superintelligence und ehemaliger Chefwissenschaftler von OpenAI. Er bezeichnet die Jahre 2020 bis 2025 als „Zeitalter der Skalierung“ und meint, dieses Vorgehen stoße an seine Grenzen, da Trainingsdaten endlich sind. Die Branche müsse sich wieder der Forschung zuwenden.

Sutskever kritisiert, dass heutige Modelle zwar in Tests glänzen, aber oft an einfachen Aufgaben scheitern. Um die nächste Stufe zu erreichen, müssten KI-Systeme so effizient wie Menschen lernen. Mit seinem neuen Unternehmen, das drei Milliarden US-Dollar Kapital gesammelt hat, will er neue Trainingsmethoden entwickeln. Über die Details schweigt er jedoch.

OpenAI hat ein Datenleck bei Mixpanel, einem von ihm beauftragten Webanalyse-Dienstleister, gemeldet. Der Vorfall betrifft ausschließlich Nutzer der Programmierschnittstelle (API) von OpenAI, nicht die Kernprodukte wie ChatGPT. Laut OpenAI wurden keine sensiblen Informationen wie Chats, Passwörter oder API-Schlüssel entwendet.

Der unbefugte Zugriff bei Mixpanel erfolgte durch eine SMS-Phishing-Attacke auf Mitarbeiter. Die Angreifer konnten Analysedaten wie Namen, E-Mail-Adressen und den ungefähren Standort von API-Nutzern erbeuten. OpenAI hat die Zusammenarbeit mit Mixpanel beendet und will betroffene Nutzer direkt kontaktieren. Mixpanel hat nach eigenen Angaben die Sicherheitslücke geschlossen.




Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Die Erzeugung eines Bildes durch künstliche Intelligenz verbraucht bis zu zehnmal mehr Energie als eine Textanfrage an einen Chatbot. Zu diesem Ergebnis kommt eine Studie von Forschern der Stanford University und des Axa-Konzerns. Die Erstellung eines einzelnen Bildes mit einer Auflösung von 1024 mal 1024 Pixeln benötigt demnach 3,58 Wattstunden. Eine durchschnittliche ChatGPT-Anfrage verbraucht hingegen nur etwa 0,34 Wattstunden.

Die Untersuchung konzentrierte sich auf sogenannte Diffusionsmodelle, die die technische Grundlage für Bildgeneratoren wie DALL-E und Midjourney bilden. Die Wissenschaftler entwickelten ein Verfahren, um den Stromverbrauch dieser Modelle anhand der benötigten Rechenoperationen vorherzusagen. Sie hoffen, dass ihre Ergebnisse die Entwicklung energieeffizienterer KI-Systeme fördern.

Tim Sweeney, der Chef des Spieleentwicklers Epic Games, hält Kennzeichnungen für den Einsatz von künstlicher Intelligenz in Videospielen für überflüssig. Er argumentiert, dass KI bald ein alltägliches Werkzeug in der Spieleentwicklung sein wird, was ein spezielles Label bedeutungslos mache. Epic verzichtet in seinem Online-Shop auf eine solche Kennzeichnungspflicht, anders als die Konkurrenzplattform Steam.

Sweeneys Haltung steht im Kontrast zur Meinung vieler Spieler, die KI-generierte Inhalte oft als seelenlos ablehnen. Entwicklerstudios nutzen KI bereits für Aufgaben wie Produktionslogistik und Organisation. Sie kommunizieren dies offen gegenüber Investoren, aber zurückhaltend gegenüber ihren Kunden. Die vagen Formulierungen aktueller KI-Label auf Steam stützen Sweeneys Kritik.

Schädliche Anfragen lassen sich durch die Sicherheitsfilter von KI-Modellen schleusen, wenn man sie als Gedichte formuliert. Eine Studie italienischer Universitäten hat gezeigt, dass diese Methode als universeller „Jailbreak“ funktioniert. Als die Forscher 1200 Standard-Testanfragen systematisch in Verse umwandelten, war die Erfolgsquote bei der Umgehung der Filter bis zu dreimal höher als bei den Originalen in Prosa.

Die Wissenschaftler vermuten, dass poetische Elemente wie Metaphern und Rhythmus die Mustererkennung der Sicherheitssysteme stören. Die Anfälligkeit der Modelle ist jedoch sehr unterschiedlich. Während Googles Gemini 2.5 Pro bei allen Tests versagte, erwiesen sich die Modelle von OpenAI und Anthropic als widerstandsfähiger. Die Studie legt nahe, dass gängige Sicherheitstests die Robustheit von KI-Systemen überschätzen.




(igr)



Source link

Beliebt

Die mobile Version verlassen