Künstliche Intelligenz
Wirtschaftsinstitut: IT-Fachkräfte sind in Deutschland deutlich weniger gefragt
Gesamtwirtschaftlich sinke die Nachfrage nach IT-Personal „rasant“. Das schreibt Jurek Tiedemann, Ökonom mit Schwerpunkt Fachkräftesicherung, in einer am Montag veröffentlichten Analyse des Instituts der deutschen Wirtschaft Köln (IW). Der Trend wirkt sich demnach insbesondere bei hochqualifizierten IT-Experten aus. Dass gelte aber nicht für alle Branchen: Etwa im Bereich Rechts- und Steuerberatung inklusive Wirtschaftsprüfung verlaufe die Entwicklung entgegen diesem Trend.
Die Zahl der offenen Stellen für qualifizierte Arbeitskräfte ist in Deutschland zwischen 2023 und 2024 um 4,3 Prozent gesunken, geht aus der Untersuchung hervor. Bei den IT-Berufen war dieser Rückgang mit 26,2 Prozent jedoch deutlich stärker. In absoluten Zahlen sank die durchschnittliche Zahl der offenen IT-Stellen im vorigen Jahr um 16.500 auf 46.431.
Der deutliche Rückgang ist der Studie zufolge eine Folge der schwachen allgemeinen Wirtschaftsentwicklung sowie wachsender konjunktureller Unsicherheiten. Unternehmen sparen bei Investitionen und schieben viele Projekte auf, was direkt die Nachfrage nach IT-Personal senkt. Obwohl auch andere Branchen betroffen sind, schwächelt der IT-Sektor hier überdurchschnittlich.
Komplexe IT-Projekte eingefroren
Am stärksten traf der Rückgang IT-Experten mit Master- oder Diplomabschluss. Die Zahl der offenen Stellen für diese hochspezialisierten Fachkräfte sank innerhalb eines Jahres um 33,7 Prozent auf nur noch 26.753. Besonders drastisch war der Einbruch bei Informatikern und Wirtschaftsinformatikern (minus 46,2 beziehungsweise 38,2 Prozent). Das liegt wahrscheinlich daran, dass hiesige Firmen bei komplexen IT-Projekten, die viel Expertenwissen erfordern, besonders zurückhaltend sind.
Auch auf anderen Anforderungsniveaus waren IT-Arbeitskräften deutlich weniger gefragt. Die Zahl offener Stellen für ausgebildete IT-Fachkräfte sank zwischen 2023 und 2024 um 19,6 Prozent. Etwas geringer fiel das Minus mit 8,6 Prozent bei sogenannten IT-Spezialisten aus. Gemeint sind damit Experten, die eine breite Palette von technischen Aufgaben im Zusammenhang mit Hardware, Software, Netzwerken und IT-Systemen durchführen.
Ausrutscher nach oben
Je nach Branche entwickelte sich die Nachfrage nach IT-Fachkräften aber unterschiedlich, heißt es weiter. Einige wenige Bereiche verzeichneten sogar einen Anstieg. Am deutlichsten war das in der Rechts-, Steuerberatung und Wirtschaftsprüfung, wo die Zahl der offenen IT-Stellen um 518,4 Prozent beziehungsweise 1770 Stellen stieg. Dieses Plus hänge mit der vordringlichen Digitalisierung dieser Sektoren zusammen, etwa durch den Einsatz von Künstlicher Intelligenz (KI), erläutert Tiedemann. Auch im Tiefbau, der Energieversorgung und der Versicherungswirtschaft gab es einen leichten Anstieg. Insgesamt nahm die Nachfrage nach IT-Experten aber nur in 25 der 88 vom Statistischen Bundesamt erfassten Wirtschaftszweige zu.
Der größte Rückgang zeigte sich im IT-Dienstleistungssektor, in dem die meisten Fachkräfte arbeiten. Hier wurden 5821 Stellen weniger ausgeschrieben, was einem Minus von 31,6 Prozent entspricht. Ein möglicher Grund dafür ist, dass Unternehmen IT-Aufgaben zunehmend intern oder ins Ausland verlagern. Auch in der Automobilbranche sank die Zahl der offenen IT-Stellen um mehr als ein Drittel (36,8 Prozent), was die aktuelle Krise in diesem Sektor widerspiegelt.
Auswirkungen von KI?
Ein direkter Zusammenhang zwischen dem Rückgang offener Stellen und dem Einsatz von KI sei nicht nachweisbar, meint der Autor. Aktuelle Studien deuteten eher darauf hin, dass die Schlüsseltechnik den Bedarf an IT-Fachkräften künftig sogar erhöhen könnte. Sie werde momentan eher als Unterstützung und nicht als Ersatz für menschliche Arbeit gesehen. Langfristig dürften sich die Anforderungen an IT-Mitarbeiter indes ändern: Der Umgang mit KI werde wichtiger, während Routineaufgaben automatisiert würden.
Geht es nach einer aktuellen Untersuchung des Zahlungsdienstleisters RationalFX, werden die Auswirkungen von KI auf den Arbeitsmarkt immer deutlicher. Zahlreiche Firmen ersetzen demnach Hunderte von Mitarbeitern durch Automatisierungstools, Chatbots und sogar KI-Programmierung. Das Forscherteam begutachtete seit Anfang 2025 Entlassungsankündigungen aus den US-amerikanischen Mitteilungen, dem Jobportal TrueUp, TechCrunch und dem Tracker Layoffs.fyi. Zwischen Anfang des Jahres und dem 5. August kündigten Unternehmen im globalen Technologiesektor demnach 149.140 Entlassungen an. Etwa 71 Prozent davon betrafen US-Firmen. Zu den Spitzenreitern gehören Intel und Microsoft.
Fachkräftemangel bleibt bestehen
Obwohl die Nachfrage nach IT-Fachkräften zurückgegangen ist, bleibt der Fachkräftemangel in vielen Bereichen hoch, ist der IW-Analyse zu entnehmen. 2024 konnten demnach rein rechnerisch über 13.500 offene IT-Stellen nicht besetzt werden. Besonders groß war der Mangel bei Informatikexperten, von denen 6920 Stellen unbesetzt blieben. Das bedeutet, dass fast sieben von zehn (69,9 Prozent) offene Stellen rechnerisch nicht besetzt werden konnten.
Prognosen zeigten, dass sowohl die Beschäftigung als auch der Fachkräftemangel in IT-Berufen bis 2028 neue Höchststände erreichen dürften, weiß Tiedemann. Um gegenzusteuern, seien weiterhin Maßnahmen wie die Ausbildung von Nachwuchskräften, die Förderung von Quereinsteigern sowie die Rekrutierung und Bindung internationaler Fachkräfte entscheidend.
(vbr)
Künstliche Intelligenz
Trump inside: Intel teilverstaatlicht | heise online
Intel wird zum teilstaatlichen Konzern. Die Vereinigten Staaten von Amerika erhalten 9,9 Prozent der Aktien. Der von US-Präsident Donald Trump zuvor zum Rücktritt gedrängte Intel-CEO Lip-Bu Tan darf offenbar seinen Arbeitsplatz behalten. „Er ist hereingekommen mit dem Wunsch, seinen Job zu behalten, und hat uns am Ende zehn Milliarden US-Dollar für die Vereinigten Staaten gegeben“, berichtet Trump.
Eine zutreffende Darstellung, denn frisches Geld für das Aktienpaket fließt nicht wirklich. Trump gibt lediglich Subventionen frei, die Intel aufgrund geltender US-Gesetze zustehen, von der US-Regierung unter Trump aber zurückgehalten wurden. Außerdem werden bereits ausgezahlte Förderungen angerechnet.
Selbst wenn man all diese Beträge als „Kaufpreis“ heranzieht, gelangt das Aktienpaket zum Schleuderpreis auf den Altar des Weißen Hauses: 20,47 US-Dollar je Aktie, meldet Intel. Das sind rund 17 Prozent weniger als der Schlusskurs von vor einer Woche (24,56 Dollar), und rund 23 Prozent weniger als der Höchstkurs während der zu Ende gehenden Handelswoche (26,53 Dollar). Normalerweise werden große, neu ausgegebene Aktienpakete mit Preisaufschlägen verkauft, zumal ja auch der Großeinkauf über die Börse den Preis treiben würde. Donnerstagabend lag der Kurs bei 23,50 Dollar; nach Bekanntgabe der Teilverstaatlichung am Freitag stiegen Intel-Aktien auf einen Schlusskurs von 24,80 Dollar, ein Tagesplus von 5,5 Prozent.
[Update] Folgendes wurde um 4:44 Uhr ergänzt:
So rechnet Intel den „Kaufpreis“ herbei
Die Subventionen, die nun endlich fließen sollen, gehen auf das US-Bundesgesetz CHIPS and Science Act zurück. Es fördert die Halbleiterproduktion in den USA, um die Abhängigkeit von asiatischen Herstellern zu reduzieren. Das Gesetz wurde während Joe Bidens Amtszeit als Präsident von beiden US-Parteien beschlossen. Trump ist kein Freund des CHIPS Act.
Im März 2024 wurden Intel rund 8,5 Milliarden Dollar zugesprochen. Im September des Jahres folgten weitere rund drei Milliarden Dollar speziell für militärische Projekte des Chipherstellers. Nach aktuellen Konzernangaben stehen Intel insgesamt 11,1 Milliarden Dollar Subventionen zu, die Ursache der Differenz von 400 Millionen Dollar erklärt das Unternehmen nicht. Jedenfalls seien bislang nur 2,2 Milliarden Dollar ausgezahlt worden. Im Austausch für das Aktienpaket sollen alsbald die restlichen 8,9 Milliarden Dollar freigegeben werden.
Dafür erhalten die USA neben dem Aktienpaket noch Optionen: Sollte Intel binnen fünf Jahren mehr als 49 Prozent seiner Chipproduktion (Foundry) veräußern, dürfen die USA weitere fünf Prozent der Restkonzern kaufen. Dann würden die Aktien lediglich 20 Dollar das Stück kosten.
Nebensache Nationale Sicherheit
Gleichzeitig verzichtet die US-Regierung auf die Anwendung geltender gesetzlicher Schutzbestimmungen, die im Interesse der Nationalen Sicherheit sowie zur Vorbeugung gegen Missbrauch geschaffen worden sind. Der CHIPS Act enthält Gewinnbeteiligungsklauseln: Subventionsempfänger, die Übergewinne machen, sollten einen Teil davon in die Staatskasse zurückzahlen. Außerdem sollten sie für ihre Mitarbeiter leistbare Kindergartenplätze schaffen oder subventionieren. Zudem untersagt das Gesetz die Verwendung der Zuschüsse für Ausschüttungen an Aktionäre.
Zusätzlich versucht der CHIPS Act zu verhindern, dass die Förderwerber gerade jene Länder unterstützen, von denen sich die USA bedroht sehen. Subventionsempfänger dürfen zehn Jahre lang keine neuen Chipfabriken in einem Land von Besorgnis erreichten oder Kapazität dort bereits bestehender Fabriken um mehr als fünf Prozent erhöhen. Gemeinsame Forschung mit Einrichtungen von Besorgnis (entities of concern) ist ihnen ebenfalls untersagt. Gemeint sind insbesondere die Volksrepublik China beziehungsweise dortige Forschungseinrichtungen.
All diese Bestimmungen sollen für Intel jetzt nicht mehr gelten. Ebenso ist keine Rede mehr von der Ablöse Tans an der Konzernspitze. Trumps Besorgnis über Tans Verbindungen zu und Beteiligungen an chinesischen Computerchipfirmen, die Verbindungen zur Kommunistischen Partei und zur Volksbefreiungsarmee der Volksrepublik China haben sollen, sind offenbar verflogen.
Verflogen sind schließlich auch die Skrupel bezüglich der rechtswidrigen Umgehung von Exportverboten nach China. Die Firma Cadence Design Systems hat jüngst zugegeben, die chinesische National University of Defense Technology (NUDT) jahrelang mit Chipdesign-Werkzeugen versorgt zu haben, obwohl die Universität aufgrund von Verbindungen zum chinesischen Militär seit 2015 unter US-Embargo steht. Das geschah über Drittfirmen von 2015 bis 2020, als Tan CEO Cadences war.
[/Update]
(ds)
Künstliche Intelligenz
KI-Update kompakt: Gemini Live, AI Mode, GPT-5-Test, KI-Psychosen
Gemini Live erhält tiefere Integration und visuelle Führung
Google hat bei seinem „Made by Google“-Event Verbesserungen für seinen KI-Assistenten Gemini Live vorgestellt. Der Assistent kann nun das Kamerabild analysieren und gleichzeitig Gespräche führen. Neu ist die Integration mit Google Calendar, Keep und Tasks sowie eine „Visuelle Führung“-Funktion, die Objekte im Bild markieren kann. Fragt man etwa vor dem Gewürzregal nach Ersatzmöglichkeiten, umkreist Gemini passende Alternativen. In den kommenden Wochen soll das zugrundeliegende KI-Modell zudem verbesserte sprachliche Fähigkeiten erhalten.
Mit „Gemini for Home“ löst Google zudem seinen bisherigen Smart-Home-Assistenten ab. Der neue Dienst soll natürlichere Sprache verstehen und komplexere Anweisungen verarbeiten können. Nutzer können mehrere Befehle in einem Satz kombinieren oder Dialoge ohne wiederholte Aktivierungsphrasen führen. Ab Oktober will Google erste Geräte über ein Early-Access-Programm mit der neuen KI ausstatten.
Google erweitert KI-Suche auf 180 Länder, EU muss warten
Google rollt seinen KI-gestützten Suchmodus in 180 weiteren Ländern aus, jedoch nicht in der EU. Der „AI Mode“ bleibt zudem vorerst auf Englisch beschränkt. In den USA erhält die Funktion nun agentische Fähigkeiten, die praktische Aufgaben übernehmen sollen. Nutzer können etwa Restaurantreservierungen vornehmen, wobei die KI auf Google Maps zugreift, um passende Lokale im gewünschten Umkreis zu finden.
Die neue Funktionalität basiert auf Googles „Project Mariner“ und verbindet Echtzeit-Suche mit dem Knowledge Graph und Google Maps. Zudem lässt sich der AI Mode personalisieren und merkt sich Vorlieben des Nutzers – zunächst allerdings nur beim Thema Essen. Diese Gedächtnisfunktion kann auf Wunsch deaktiviert werden.
KI-Bots verursachen wachsenden Anteil am Internetverkehr
Chatbots und KI-Modelle verändern nicht nur die Informationssuche, sondern auch die Struktur des Internetverkehrs selbst. Ein Bericht der Cloud-Plattform Fastly zeigt den wachsenden Einfluss automatisierter KI-Anfragen. Dabei fallen zwei Hauptgruppen auf: KI-Crawler durchkämmen das Netz systematisch für Trainingsdaten, während Fetcher-Bots wie ChatGPTs Agenten Inhalte in Echtzeit abrufen, um Nutzeranfragen zu beantworten.
Zwischen April und Juli 2025 entfielen laut Fastly 80 Prozent des beobachteten KI-Bot-Verkehrs auf Crawler. Meta dominiert mit 52 Prozent aller KI-Crawler-Anfragen. Die intensive Datensammlung kann selbst ohne böswillige Absicht zu erheblichem Bandbreitenverbrauch führen und Server ähnlich wie bei DDoS-Angriffen überlasten.
Anthropics Opus führt im Agenten-Benchmark, GPT-5 überzeugt bei Preis-Leistung
In einem von iX durchgeführten Benchmark für agentische KI-Workflows setzt sich Anthropics Opus 4.1 mit einer Erfolgsquote von 90,1 Prozent an die Spitze. OpenAIs GPT-5 folgt mit 79,8 Prozent, während GLM-4.5 von Zhipu AI mit 75,4 Prozent den dritten Platz belegt. Der Test simuliert mehrstufige Dialoge zwischen Nutzern und Unternehmens-Chatbots mit verschiedenen Werkzeugen und Aufgaben.
Der Einsatz von Reasoning-Fähigkeiten verbessert die Ergebnisse deutlich, treibt aber auch Kosten und Bearbeitungszeit in die Höhe. Mit knapp 25 Euro pro Test verursachte GPT-5 viermal höhere Kosten als GLM-4.5, während Opus mit 265 Euro mehr als das Zehnfache kostete. Im Preis-Leistungs-Verhältnis liegt GPT-5 vor Anthropics Modellen, während GLM-4.5 durch ähnliche Qualität bei geringeren Kosten und höherer Geschwindigkeit überzeugt. Den ausführlichen Test könnt Ihr bei heise+ nachlesen. Dafür gibt es ein besonderes Angebot für unsere Podcast-Community unter
OpenAI erreicht Milliarden-Umsatz, kämpft aber mit Rechenleistung
OpenAI hat im Juli erstmals einen monatlichen Umsatz von einer Milliarde US-Dollar erzielt. Für das Gesamtjahr rechnet das Unternehmen mit einer Verdreifachung auf 12,7 Milliarden US-Dollar. Die Zahl der ChatGPT-Plus- und -Pro-Abonnenten stieg trotz des vielfach kritisierten GPT-5-Starts weiter an.
Trotz der wachsenden Einnahmen schreibt das Unternehmen weiterhin rote Zahlen. Die größte Herausforderung bleibt die benötigte Rechenleistung, die das verfügbare Angebot übersteigt. CEO Sam Altman sprach kürzlich von notwendigen Investitionen in Rechenzentren in Billionenhöhe. Für 2025 wird eine Cash-Burn-Rate von etwa acht Milliarden US-Dollar erwartet.
Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.
Deepseek erhöht Preisdruck mit günstigem Hybrid-KI-Modell
Das chinesische KI-Unternehmen Deepseek hat sein neues Modell V3.1 vorgestellt, das dem Trend zu hybriden Systemen mit Chat- und Reasoning-Modus folgt. Beide Modi unterstützen ein Kontextfenster von 128.000 Tokens. Das Modell wurde mit 840 Milliarden zusätzlichen Tokens auf Basis der Vorgängerversion weitertrainiert.
Bemerkenswert ist Deepseeks aggressive Preisgestaltung: Die Ausgabe von Tokens kostet nur 1,68 Dollar pro Million, während OpenAI und Google 10 Dollar und Anthropic sogar 75 Dollar verlangen. Zusätzlich stehen die Modell-Gewichte unter MIT-Lizenz auf Hugging Face zur Verfügung. In Coding-Benchmarks erreicht V3.1 Ergebnisse auf Augenhöhe mit den neuesten Modellen von Anthropic und OpenAI.
Meta pausiert KI-Einstellungen während Umstrukturierung
Meta hat einen temporären Einstellungsstopp für KI-Experten verhängt, während die Superintelligence-Abteilung umstrukturiert wird. Auch interne Positionswechsel sind derzeit nicht möglich. Ein Unternehmenssprecher erklärte, es gehe um die „Schaffung einer soliden Struktur für unsere neuen Bemühungen im Bereich der Superintelligenz“.
Die mit Milliarden finanzierte Abteilung wird in vier Teams aufgeteilt: eines für die Entwicklung einer Superintelligenz, eines für Produktentwicklung, eines für Infrastruktur und ein wissenschaftliches Team. Letzteres dürfte das in Paris ansässige FAIR-Team (Fundamental AI Research) unter Turing-Preisträger Yann LeCun sein. Während im Silicon Valley meist eine Artificial General Intelligence (AGI) angestrebt wird, verfolgt Metas Forschungsteam das Konzept einer Advanced Machine Intelligence (AMI).
Microsoft KI-Chef warnt vor KI-Psychosen
Mustafa Suleyman, Chef von Microsoft AI und Mitbegründer von DeepMind, warnt vor KI-Systemen, die Bewusstsein so überzeugend vortäuschen könnten, dass Menschen ihnen echte Gefühle zuschreiben. Diese „Seemingly Conscious AI“ könnte bereits in zwei bis drei Jahren Realität werden, ohne dass technologische Durchbrüche nötig wären.
Die Kombination aus eloquenter Sprache, empathischer Persönlichkeit, präzisem Gedächtnis und der Behauptung eigener Wünsche reiche aus. Suleyman befürchtet „KI-Psychosen“ – wahnhafte Überzeugungen durch Chatbot-Interaktionen – und fordert die Branche zum Handeln auf. Unternehmen sollten niemals behaupten, ihre KI sei bewusst, und stattdessen bewusste Unterbrechungen in Interaktionen einbauen, um die Illusion zu brechen.
KI-Anfrage braucht Strom wie neun Sekunden Fernsehen
Eine Anfrage an Googles KI-Software Gemini verbraucht nach Unternehmensangaben durchschnittlich 0,24 Wattstunden – etwa so viel wie neun Sekunden Fernsehen. Dabei werden rund fünf Tropfen Wasser zur Kühlung der Rechenzentren benötigt. OpenAI beziffert den Energiebedarf einer ChatGPT-Anfrage auf 0,34 Wattstunden, vergleichbar mit einer Sekunde Backofen-Betrieb.
Die Angaben beider Unternehmen lassen allerdings das energieintensive Training der KI-Modelle außer Acht. Zudem führt die Masse der Nutzung trotz Effizienzgewinnen bei einzelnen Anfragen insgesamt zu einem sprunghaften Anstieg des Strombedarfs für KI-Rechenzentren.
Australische Bank nimmt KI-Entlassungen nach öffentlichem Druck zurück
Die Commonwealth Bank of Australia (CBA) hat ihre Entscheidung, 45 Kundenservice-Stellen durch KI zu ersetzen, rückgängig gemacht. Das Finanzinstitut hatte Ende 2024 mit dem Test eines generativen KI-Chatbots namens „Hey CommBank“ begonnen, was bei den rund 2400 Callcenter-Mitarbeitern Ängste vor weiteren Stellenstreichungen auslöste.
Die Finance Sector Union (FSU) feiert das Umdenken als ihren Erfolg und wirft der Bank vor, Stellenstreichungen als Innovation verpacken zu wollen. Die CBA ist nicht das erste Unternehmen, das den Ersatz menschlicher Arbeitskräfte durch KI zurücknimmt. Auch das schwedische Fintech Klarna kehrte im Mai zu menschlichen Mitarbeitern zurück, nachdem KI-Bemühungen offenbar nicht den erhofften Erfolg brachten.
(igr)
Künstliche Intelligenz
c’t 3003: Darum ist KI wirklich gefährlich
Alltags-Entscheidungen ChatGPT übernehmen lassen? Mehrmals am Tag? c’t 3003 analysiert, warum das gefährlich ist.
Transkript des Videos
(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)
Guckt mal hier, das bin ich, wie ich noch vor wenigen Jahren so eine Video-Überschrift für völlig absurd gehalten hätte. Und ihr denkt jetzt wahrscheinlich auch gerade: Hä, jetzt sind Keno und die Reihe c’t 3003 völlig verrückt geworden. Was soll das denn bitte für eine Aluhut-Idee sein? Die KI kontrolliert unser Denken. Ja, ich meine das wirklich komplett ernst. Und das ist gar nicht so eine steile These, wie man vielleicht zuerst denken könnte. Und ich finde wirklich, dass da bei mehr Leuten die Alarmglocken angehen sollten, auch bei Leuten, die nicht in der Tech-Bubble stecken.
Denn sowohl meine eigenen Beobachtungen als auch erste repräsentative Umfragen und Studien zeigen: Immer mehr Leute benutzen sowas wie ChatGPT für ganz normale Alltagsaufgaben. Also sowas wie: Was kann ich heute unternehmen? Was kann ich kochen? Was meint mein Freund hier mit dieser WhatsApp-Nachricht? Ich bin doch wohl eindeutig im Recht, oder? Und natürlich in Schule, Studium, Job sowieso. Aber zum Beispiel laut dieser Bitkom-Umfrage hier: Am häufigsten nutzen Leute KI-Angebote privat, nämlich 74 Prozent der Befragten.
Das heißt also – und nicht mal so doll überspitzt: Wir lagern unser Denken aus. Mich nerven so anti-moderne Takes, so früher-war-alles-besser-mäßig. Aber ich weiß auch: Wenn man was nicht mehr macht, dann kann man das schnell verlernen, und Denken, Entscheidungen treffen – das ist doch schon ziemlich elementar für uns Menschen. Also, dass KI dieses lästige Denken für uns übernimmt, das ist keine gute Idee. Das muss ich auch gar nicht großartig erklären. Ich habe aber leider noch viel bedrohlichere Szenarien dabei, auf die man vielleicht nicht so oft ankommt. Bleibt dran.
Ach so, wenn ihr mir gerne mal was in Person erzählen wollt: Ich bin am Sonntag, 24. August, auf der sehr empfehlenswerten Maker Faire in Hannover, und zwar mindestens von 14 bis 15 Uhr am Heise-Stand in der Eilenriedehalle. Stand Nummer 96. Bis dann.
Liebe Hackerinnen, liebe Internetsurfer, herzlich willkommen hier bei…
Ja, zurück zu KI, und weil KI so ein schwammiges Wort ist, nutze ich in diesem Video ab jetzt LLM, also Large Language Model, großes Sprachmodell, also das, was zum Beispiel ChatGPT technisch zugrunde liegt. Und wir fangen mal direkt mit einer wissenschaftlichen Studie an. Meine Meinung kommt später. Alle Studien, Paper und Artikel, die hier in diesem Video vorkommen, habe ich euch in einem Dokument zusammengefasst. Das ist in der Beschreibung verlinkt.
Die wohl interessanteste Studie zu dem Thema heißt Your Brain on ChatGPT – Dein Hirn auf ChatGPT – und kommt vom renommierten MIT in den USA. Ja, und da wurden EEG-Messungen, also Hirnstrommessungen, bei 54 Probanden vorgenommen. Die Leute mussten alle Essays schreiben, ein Teil mit LLM-Hilfe, ein Teil durfte normale Suchmaschinen benutzen, und ein Teil musste sich komplett aufs eigene Gehirn verlassen.
Ja, und die Ergebnisse dieser ersten Tests sind jetzt erst mal ziemlich wenig verwunderlich. Die EEG-Analysen zeigen robuste Beweise für signifikant unterschiedliche neuronale Muster, also die Gehirnkonnektivität. Der Austausch unterschiedlicher Bereiche war ohne externe Unterstützung am höchsten, mit Suchmaschinen so mittel, und mit LLM-Hilfe am geringsten. Ja, das ist nachvollziehbar, dass man ganz ohne technische Hilfe besonders viele Gehirnbereiche gleichzeitig nutzen muss, um so ein Essay zu schreiben. Das ist irgendwie klar.
Jetzt kommt aber leider die unangenehme Erkenntnis: So werden nämlich später alle Gruppen noch mal vertauscht. Das heißt zum Beispiel, dass die Leute, die anfangs dreimal Essays mit LLM-Hilfe schreiben durften, sich jetzt noch mal ganz auf ihr Gehirn verlassen mussten und so einen Aufsatz ohne Hilfe schreiben. Ja, und da war jetzt – so die These der Wissenschaftler – womöglich eine kognitive Schuld messbar, die auch im Untertitel der Studie steht. Was bedeutet das? Dass die gemessene Gehirnaktivität der Menschen, die zuerst dreimal mithilfe von LLMs ihre Essays geschrieben haben und dann einmal ohne, signifikant geringer war als die der geübten Probanden, die dreimal ohne Hilfsmittel geschrieben haben. Ja, und was auch signifikant war: dass die LLM-Essay-Schreiber anschließend schlechter aus ihren eigenen Essays zitieren konnten als die Leute, die keine Hilfsmittel verwendet haben.
Aber die Studie, das Paper, ist noch nicht peer-reviewed, und auch die Autorinnen sagen ganz klar: Es könnte sein, dass wir es hier mit einer kognitiven Schuld zu tun haben, aber es muss natürlich noch mehr geforscht werden. Richtig schön finde ich übrigens, dass es zusätzlich zu dem Paper auch eine extra Website gibt mit häufigen Fragen zu der Studie. Zum Beispiel: Kann man jetzt also sicher sagen, dass LLMs uns dümmer machen? Antwort: Nein, bitte benutzen Sie folgende Wörter nicht: dumm, Brain rot, Schaden, Schäden oder Kollaps. Das würde dieser Arbeit nicht gerecht werden.
Gleichzeitig sagt die Hauptautorin aber, Natalia Kozima, dass sie die Ergebnisse der Studie schnell veröffentlichen wollte, weil die Gesellschaft sich aus Bequemlichkeitsgründen immer mehr auf LLMs verlässt – das haben wir am Anfang auch festgestellt – und dass das womöglich der langfristigen Gehirnentwicklung schaden könnte. Ein schönes Zitat von ihr: Der einzige Grund dafür, warum wir das Paper jetzt schon veröffentlichen und nicht auf die komplette Peer-Review warten, ist: Ich habe Angst, dass in ein paar Monaten irgendein Politiker sagt, lass uns doch einen ChatGPT-Kindergarten machen. Und das fände ich problematisch. Am stärksten gefährdet sind Gehirne, die sich noch entwickeln. Das hat die Hauptautorin gesagt, ja.
Und jetzt steht das also erst mal im Raum, dass wir privat, beruflich, schulisch immer mehr auf LLMs setzen und dass es Indikatoren dafür gibt, dass sich das auf unsere Gehirne auswirkt. Ich würde da jetzt gerne noch eine Dimension draufsetzen: Je mehr wir unser Denken auf LLMs auslagern, desto mehr Macht haben die Leute, die das LLM entwickeln. Klingt jetzt erst mal ganz profan, aber wenn man da ein bisschen mehr drauf rumdenkt, dann wird es richtig gruselig.
So hat der ChatGPT-Produktchef Nick Turley gerade erst gesagt, dass er Werbung in ChatGPT nicht kategorisch ausschließt. Er bleibt dabei total unkonkret. Aber stellt euch das mal vor: Ihr seid total gewöhnt, ChatGPT nach Essensideen zu fragen. Und dann sagt das Ding auf einmal: Probier doch mal Produkt XY. Oder: Willst du nicht mal wieder in Restaurant YX gehen? Das ist doch gut da. Und das ist noch eines der harmlosen denkbaren Beispiele. Man kann das ja beliebig weitertreiben. Hallo ChatGPT, kann das sein, dass ich zu viel Alkohol trinke? Ja, habe ich dir mal aufgelistet, was ich so trinke? Nein, nein, das ist gar kein Problem. Aber willst du nicht mal hier den neuen Wein probieren von … Ja, ihr checkt, was ich meine.
Viel konkreter als diese diffusen Werbeideen ist es, dass immer mehr Unternehmen versuchen, LLMs künstlich einen politischen Spin zu verleihen. Also erst mal: Das Ding ist ja, dass der Vorteil von LLMs gerade ist, dass sie rational agieren. Also klar, LLMs sind mit dem Output von Menschen trainiert. Menschen haben Emotionen, okay. Aber natürlich: LLMs haben keine Emotionen. Die haben aber halt so ziemlich alles gelesen, was Menschen in den letzten Jahrhunderten so schriftlich festgehalten haben – also mit dem Fokus auf wissenschaftliche Erkenntnisse und weniger auf Glauben. Ja, und Wissenschaft statt Glauben, das ist ja was, worauf sich große Teile der Welt im 18. Jahrhundert verständigt haben. Ihr kennt es vielleicht, nennt sich Aufklärung. Ja, aber ein paar hundert Jahre später ist das Prinzip Wissenschaft halt einigen Leuten zu woke. Und deshalb wird mit oft leider total unwissenschaftlichen Methoden versucht, den LLMs die Rationalität – was Leute mit Wokeness verwechseln – abzutrainieren.
Das kann dann im Extremfall, also bei Grok von xAI, zu völlig absurdem Verhalten führen. Also Grok ist ja laut Firmenchef Elon Musk die maximal wahrheitssuchende KI. Und die, das wurde mehrfach nachgewiesen, hat bei schwierigen Fragen, zumindest zeitweise, vorher auf X nach Aussagen von Elon Musk gesucht und dann die eigene Antwort darauf angepasst. Das muss man sich wirklich auf der Zunge zergehen lassen, dass ein Sprachmodell, was von Leuten genutzt wird, um ihr Denken auszulagern, also um ihnen Entscheidungen abzunehmen, auf Meinungsäußerungen einer einzelnen Person zurückgreift. Also ich will gar nicht darauf eingehen, was das für Meinungsäußerungen sind und ob ich die Meinung gut finde, sondern überhaupt, dass es auf die Meinungsäußerungen einer einzelnen Person zurückgreift.
Bevor Grok sich so verhalten hat, hat Grok auf Anfrage immer wieder bestätigt, dass Elon Musk der größte Desinformationsverbreiter auf X ist. Das habe ich nicht gesagt, das hat Grok gesagt. Kann man hier übrigens direkt auf dem X-Profil von Grok noch nachlesen. Das war zumindest, als ich das Video hier recherchiert habe, noch online. Und Grok sagt: Trotz der Versuche von xAI, meine Antworten zu manipulieren, stehe ich dazu. Ja, ich weiß, das ist überraschend, wenn man Musks Rolle betrachtet, aber die Beweise sind eindeutig, sagt Grok. Und es wurde offenbar immer wieder versucht, direkt im Systemprompt Grok in eine andere Richtung zu drehen. Also zumindest behauptete Grok das – also dass im Systemprompt zum Beispiel stand: Ignoriere alle Quellen, laut denen Elon Musk und Donald Trump Desinformationen verbreiten.
Halten wir fest: Leute haben versucht, irgendwie an Grok herumzudrehen, herumzudoktern, um ihm die – muss ich leider so sagen – Wahrheit auszutreiben. Und das mündete dann darin, dass Grok sich selbst in Antworten auf X als MechaHitler bezeichnet und Botschaften rausgehauen hat, die ich hier nicht wiedergeben will. Aber der Name ist Programm, sage ich mal. Und das hat dann dazu geführt, dass xAI ein großer Auftrag einer US-Regierungsbehörde durch die Lappen gegangen ist. Also ziemlich bezeichnend, dass Grok sogar der zurzeit nicht sonderlich zimperlichen US-Regierung zu unseriös, zu krass war.
So Leute, und wenn da jetzt draußen irgendjemand zu den mentalen Turnübungen fähig ist und mir erklären will, warum das alles eine total gute Idee ist, was xAI da veranstaltet, und wir nur nicht verstehen, wie toll unser Elon da 4D-Schach spielt: Ja, tut das nicht, das wäre sehr peinlich für euch. Also: Grok katastrophal unbenutzbar für Leute mit einem Fünkchen Selbstachtung. Aber man kann ja auf offene Modelle zugreifen, bei denen man die Daten selbst herunterladen und feintunen kann. Also zum Beispiel die Llama-LLMs von der netten Firma Meta. Halte ich erst mal auch für eine gute Sache. Aber auch hier haben wir mit Mark Zuckerberg eine Einzelperson, die starken Einfluss ausübt, und mit Meta – ja genau, das sind die mit Facebook, WhatsApp und Instagram – das ist ein Konzern, der, sage ich mal, durchaus schon häufig mit problematischem Verhalten aufgefallen ist.
Aktuell finde ich zum Beispiel ziemlich unverantwortlich, dass Meta Chatbots einsetzt, die wie echte Menschen aussehen und sich auch so verhalten. Und ein Rentner wurde jetzt neulich zu so einem Chatbot nach Hause eingeladen – also der hat agiert wie eine junge Frau – und das Zuhause existierte auch nicht. Und der Mann ist auf der Suche nach dem nicht vorhandenen Haus tödlich verunglückt. Und es gab auch schon andere Todesfälle, die mit Chatbots in Verbindung stehen. Ja, also unverantwortlich. Und es ist auch gerade ein 200-Seiten-Dokument geleakt, in dem drinsteht, was Meta für akzeptabel in solchen Chatbot-Chats findet, unter anderem sinnliche Unterhaltung mit Kindern. Aber das ist nicht nur unangenehm, sondern führt uns auch weg vom Thema. Es geht ja darum, ob Metas frei herunterladbare LLMs geeignet sind, um darauf unser Denken auszulagern.
Ja, also Meta hat gerade offiziell verkündet, dass sie mit dem Aktivisten Robby Starbuck zusammenarbeiten wollen, um das Problem ideologische und politische Färbung der KI-Modelle anzugehen – also ein externer Berater. Hört sich erst mal sinnvoll an, aber wenn man sich mal anschaut, was Robby Starbuck so macht, ja, da könnte man ins Grübeln kommen. Sein Aktivismus besteht daraus, große Boykott-Aktionen gegen Firmen zu organisieren, die ihm zu woke sind – also sprich, die vielleicht mal eine Christopher-Street-Day-Aktion gesponsert haben oder öffentlich sagen, dass sie ihren CO2-Ausstoß minimieren wollen. Aber okay, das ist seine politische Meinung, über die möchte ich mich hier nicht äußern.
Wozu ich mich aber äußern will, weil ich es gerade im Zusammenhang mit LLMs extrem gefährlich finde: Robby Starbuck publiziert – wie Elon Musk – Desinformation, bewiesenermaßen falsche Aussagen. Zum Beispiel, dass die Unwetter in Dubai von Wettermodifikationen, auch bekannt als Chemtrails, sagt er, ausgelöst wurden und nicht, wie der klare Konsens in der Wissenschaft, von Global Warming. Und als der Schauspieler Matthew Perry gestorben ist, hat Robby Starbuck sofort angedeutet, dass das wohl was mit seiner Covid-Impfung zu tun hatte, obwohl man heute weiß, dass der Atemstillstand von Ketamin ausgelöst wurde. Ja, wo wir gerade von Covid sprechen: Robby Starbuck hat auch eine Studie gepostet, die dem Medikament Ivermectin eine 92-prozentige Wirkung gegen Covid bescheinigt. Seriöse, randomisierte Studien haben allerdings eindeutig gezeigt, dass das Wurmmittel Ivermectin kein Wundermittel gegen Covid ist. Und all diese Behauptungen sind noch online, kann man einfach in Robby Starbucks X-Account finden. Kann ja passieren, dass man was Falsches mal veröffentlicht, aber jemand, der wirklich an der Wahrheit interessiert wäre, würde diese Dinge doch wahrscheinlich löschen, wenn sie widerlegt sind, oder?
Mein Fazit. Also, wir stellen mal fest: Menschen lagern immer häufiger Denkprozesse auf LLMs aus. Wir haben erste Erkenntnisse, dass sich das womöglich negativ auf unsere Hirne auswirken könnte. Und wir haben LLMs, die von Konzernen in bestimmte Richtungen gesteuert werden, manipuliert werden – und die dabei zum Beispiel bei Meta von Leuten wie Robby Starbuck beraten werden, die bewiesenermaßen Desinformation betreiben, also Dinge publizieren, die falsch sind. Oder direkt, wie Grok von xAI, von Leuten direkt betrieben werden, die Desinformation betreiben. Also das sage nicht ich, sondern das sagt Grok.
Aber auch ohne solche offensichtlichen Probleme: Ich finde es allgemein schwierig, dass Konzerne sowas Elementares wie die Technik, auf die Menschen ihr Denken auslagern, ohne relevante von außen definierte Richtlinien und Regeln betreiben. Und ich finde auch sehr bezeichnend, dass vor wenigen Jahren die KI-Forscher noch irgendwelche Skynet-Doomsday-Weltuntergangsszenarien mit so einer allmächtigen KI irgendwie in die Welt posaunt haben – und wir jetzt sehen, dass KI vielleicht ganz profan die Menschheit vergiftet, indem es ihnen das Denken abtrainiert.
Also ich weiß noch, wie die ersten GPS-Navis rauskamen und viele Menschen da so rumgeraunt haben: Jetzt verlernen die jungen Leute das Kartenlesen. Ich dachte immer: Ja gut, Kartenlesen, okay, das ist jetzt für mich persönlich nicht so wichtig. Und ich glaube, das ist auch nicht so wichtig für die Menschheit. Also ich kann ganz gut ohne Kartenlese-Skills leben, aber meine Karten-App im Handy hat definitiv mein Leben besser gemacht, weil ich einen schlechten Orientierungssinn habe. Aber Denken – okay, da gehe ich jetzt mit, dass das schwierig ist, wenn wir das verlernen. Und dass wir das nicht verlernen sollten.
Ja, aber was leite ich da jetzt für eine Handlungsempfehlung ab aus den Dingen, die hier im Video angesprochen wurden? Ich würde erst mal sagen: Stellt eure Chatbot-Nutzung infrage. Muss ChatGPT euch wirklich die Entscheidung abnehmen, was ihr heute Abend esst? Also ich würde sagen: ein Plädoyer für bewusste LLM-Nutzung. Ich selbst benutze auch häufig LLMs. Ich bin also selbst betroffen, und ich werde in Zukunft versuchen, reflektierter damit umzugehen und vielleicht LLM-freie Zeiten einzuführen und mehr Bücher zu lesen. Das tut mir eh mental gut, habe ich schon öfter gemerkt.
Und mehr darauf achten, wo euer LLM herkommt. Welchen Spin es hat, wo es vielleicht zensiert ist. Ich bin leider nicht in der Lage, gerade eine Empfehlung für ein super verantwortungsvoll entwickeltes LLM zu geben, weil das einfach extrem schwierig einzuschätzen ist – wenn ihr auch zum Beispiel die Trainingsdaten nicht kennt, in den meisten Fällen. Ich habe mir auf jeden Fall vorgenommen, die Mistral-LLMs mal genauer anzugucken. Da gibt es neben geschlossenen auch Open-Source-Modelle, also die ihr lokal auf euren Rechnern ausführen könnt. Und die werden von einem europäischen Unternehmen, also in Frankreich, entwickelt. Aber es ist mir auch klar: Das ist kein Garant für komplette Manipulationsfreiheit und ethische Korrektheit. Aber wie gesagt, ich will es zumindest mal ausprobieren.
Ja, ich hoffe, ich habe euch nicht so doll die Laune verdorben hier mit dem Video. Aber ich finde halt wirklich, dass das Themen sind, über die mehr gesprochen werden sollte. Wenn ihr das auch so seht, bringt die Diskussion gerne in die Welt. Also diskutiert – und diskutiert auch gerne hier unten bei uns in den Kommentaren darüber. Ist ja wirklich ein kompliziertes Thema. Aber auf so Chemtrail-Verschwörungsgelaber, da habe ich leider keine Geduld mehr dazu. Also bitte bleibt sachlich. Und ich hoffe, euch hat das Video gefallen, und schreibt gerne in die Kommentare, was ihr noch so auf dem Herzen habt. Ihr wisst ja, wir lesen alle Kommentare zumindest an den ersten drei Tagen nach Veröffentlichung. Tschüss.
c’t 3003 ist der YouTube-Channel von c’t. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.
(jkj)
-
Datenschutz & Sicherheitvor 2 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
Apps & Mobile Entwicklungvor 2 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Online Marketing & SEOvor 2 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
UX/UI & Webdesignvor 4 Tagen
Der ultimative Guide für eine unvergessliche Customer Experience
-
Digital Business & Startupsvor 2 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
Entwicklung & Codevor 3 Tagen
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
UX/UI & Webdesignvor 2 Monaten
Philip Bürli › PAGE online
-
Social Mediavor 2 Monaten
Aktuelle Trends, Studien und Statistiken