Datenschutz & Sicherheit
Microsoft startet mit Identifizierung von unsicherer RC4-Verschlüsselung
Die Windows-Sicherheitsupdates, die Microsoft am Januar-Patchday verteilt hat, schließen eine Sicherheitslücke in der Kerberos-Authentifizierung. Der Patch läutet zudem die erste Phase zum endgültigen Rauswurf von unsicherer Verschlüsselung mit dem Rivest Cipher 4 (RC4) ein.
Weiterlesen nach der Anzeige
Im Windows-Release-Health Message Center erklärt Microsoft, dass der Softwareflicken für eine Sicherheitslücke in Kerberos die Härtung von Kerberos mit RC4 einleitet. Bei der Schwachstelle selbst handelt es sich um ein nicht im Detail erläutertes potenzielles Informationsleck aufgrund der RC4-Nutzung (CVE-2026-20833, CVSS 5.5, Risiko „mittel“). „In dieser Phase werden neue Überwachungs- und optionale Konfigurationseinstellungen eingeführt, die dazu beitragen, die Abhängigkeit von älteren Verschlüsselungstypen wie RC4 zu reduzieren und Domänencontroller auf eine künftige Umstellung vorzubereiten, die mit dem Update im April 2026 beginnt und die standardmäßige Verwendung von AES-SHA1-verschlüsselten Tickets vorsieht.“
Das Update allein schließt die Schwachstelle nicht. Dazu müssen Admins den „Erzwingungsmodus“ in ihrer Umgebung aktivieren, erklärt Microsoft. Besonderes Augenmerk sollten offenbar Dienstkonten und Anwendungen erhalten, die derzeit noch auf RC4-basiertes Kerberos setzen.
In einem eigenen Support-Artikel erörtert Microsoft nun den Zeitplan und die Phasen für das RC4-in-Kerberos-Aus. Die erste Phase startet mit den Januar-Updates, und Microsoft empfiehlt, dass Organisationen alle Active Directory Domain-Controller (AD-DCs) damit ausstatten. Damit will Microsoft die Sichtbarkeit und frühzeitige Entdeckung mittels Kerberos-Audit-Ereignissen und einer temporären Kontrolle davon mittels Registry-Einträgen Vorschub leisten. Admins sollen so Fehlkonfigurationen und verbliebene Abhängigkeiten aufspüren, bevor die zweite Phase im April 2026 anfängt.
Erzwungener Modus beginnt im April
Dort will Microsoft standardmäßig den „erzwungenen Modus“ auf allen Windows-Domain-Controllern aktivieren. „Dieses Update ändert den Standardwert „DefaultDomainSupportedEncTypes“ für KDC-Vorgänge, um AES-SHA1 für Konten zu nutzen, für die kein explizites Active Directory-Attribut „msds-SupportedEncryptionTypes“ definiert ist“, erklärt Microsoft im detaillierten Support-Artikel. „In dieser Phase wird der Standardwert für „DefaultDomainSupportedEncTypes“ auf ‚nur noch AES-SHA1‘ mit dem Wert 0x18 geändert.“
Die dritte Phase folgt mit den Sicherheitsupdates im Juli. Dann entfernt Microsoft das DWORD „RC4DefaultDisablementPhase“ aus dem Registry-Zweig „HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Windows\CurrentVersion\Policies\System\Kerberos\Parameters“. Den können Admins seit dem Januar-Update nutzen. Der Wert „0“ bedeutet keine Änderung, kein Audit findet statt. „1“ hingegen protokolliert Warnungsereignisse bei standardmäßiger RC4-Nutzung, was Microsoft in der ersten Phase nun dafür einträgt. Der Wert „2“ schließlich ist für Phase 2 gedacht, in der Kerberos annimmt, dass RC4 nicht standardmäßig aktiv ist, was für Phase 2 der Vorgabewert ist. Der Support-Beitrag listet neun mögliche Ereignis-IDs auf, die Admins bei der Domänenanalyse helfen. Sie sind ab Windows Server 2012 als Domain-Controller verfügbar.
Mitte Dezember hatte Microsoft angekündigt, RC4 auch in Kerberos loswerden zu wollen. Angreifer nutzen die schwache Verschlüsselung, um sich erweiterten Zugang zu Active Directories zu verschaffen, etwa mittels „Kerberoasting“-Attacken. Die IETF hat im Jahr 2015 RC4 in TLS quasi verboten. Microsoft empfiehlt auch schon seit 2013, RC4 nicht mehr einzusetzen.
Weiterlesen nach der Anzeige
(dmk)
Datenschutz & Sicherheit
EU-Kommission arbeitet an neuer Open-Source-Strategie

Die EU-Kommission möchte Europas digitale Souveränität stärken und Abhängigkeiten reduzieren. Dafür setzt sie auf die Nutzung und Entwicklung von europäischer Open Source Software (OSS) als Alternative zu proprietären Angeboten, die oftmals aus den USA kommen.
Anfang Januar hat die Kommission eine Konsultation gestartet, um Input für eine neue Open-Source-Strategie zu erhalten. Bis zum 3. Februar können alle hier Ideen beitragen.
In einem Dokument zu der Konsultation beschreibt die Brüsseler Behörde ihr Vorhaben. Die Kommission teilt darin die Ansicht, dass es nicht ausreiche, nur die Forschung zu Open Source zu stärken. Vielmehr müsse auch das Open-Source-Ökosystem „strategisch gestärkt“ werden. Was bedeutet das konkret?
Einerseits sollen Open-Source-Projekte kommerzieller werden. Die Akteure sollen finanziell gesichert werden, damit sie ihre Angebote skalieren können. Andererseits soll die Organisation verbessert werden. Auch die Sicherheit der Lieferkette will die Kommission adressieren. Ebenfalls soll der öffentliche Sektor dazu animiert werden, Open Source zu nutzen. Das schließt die Kommission selbst ein.
Schlüsselrolle von Open Source anerkannt
„Die angekündigte Strategie zeigt, dass die Kommission auf höchster Ebene verstanden hat, dass nur Open Source digitale Souveränität und Handlungsfähigkeit garantiert“, sagt Sebastian Raible, Leiter für EU-Beziehungen beim europäischen Open-Source-Unternehmensverband APELL. Open Source bedeute ihm zufolge, „sich gar nicht erst in Abhängigkeiten zu begeben, weil Anwender:innen das Produkt nicht mieten, sondern vollständig mit Quellcode erwerben“.
Dafür würden Open-Source-Unternehmen bereits seit Jahrzehnten jährlich Millionenbeträge in die Entwicklung der Infrastruktur investieren. In Raibles Augen ist es sinnvoll – ökonomisch und für den Standort Europa –, dass öffentliche IT-Budgets dazu beitragen.
Raible ergänzt, dass die Kommission ein besonderes Augenmerk auf kritische Infrastruktur gerichtet habe. „Gerade hier brauchen wir konkrete Schritte, um Europas Unabhängigkeit auch vor dem Hintergrund von russischen Angriffen und US-amerikanischen Grönland-Drohungen abzusichern“, bekräftigt er.
Zu der Konsultation finden sich bereits mehrere Hundert Beiträge. Ein Großteil stammt dabei aus der Feder von EU-Bürger:innen, die in Kommentaren ihre eigenen Erfahrungen mit offenem Quellcode und ihre Gedanken zu dem Thema teilen. Daneben haben auch schon einige Unternehmen und NGOs ihre Position mitgeteilt.
Nextcloud will „Buy European“
Das deutsche Unternehmen Nextcloud GmbH zeichnet ein ähnliches Bild wie die Kommission: Vielen Projekten würden nachhaltige Geschäftsmodelle und die Professionalisierung fehlen. Daneben betont die GmbH die große Konkurrenz von Big-Tech-Angeboten, die oftmals Produkte bündeln und Kund:innen an sich fesseln könnten.
Als entscheidenden Hebel sieht das Unternehmen die bevorzugte Beschaffung von europäischen Open-Source-Lösungen durch europäische Regierungen. Dazu schlagen sie vor, den Ansatz „Buy European/Open Source“ zu realisieren, wo möglich. Nextcloud spricht sich dafür aus, dass Behörden vorbildhafte Open-Source-Nutzer sein sollen. Im zweiten Quartal dieses Jahres werden die EU-Vergaberegeln überarbeitet.
Dass so eine Bevorzugung in der Praxis möglich ist, zeigen aktuelle Entwicklungen: Im Ende Januar anstehenden „Industrial Accelerator Act“, der die Industrie in Europa stärken will, soll eine „Buy-European“-Klausel integriert werden. „Öffentliche Gelder sollten zur Stärkung der Resilienz und Wettbewerbsfähigkeit Europas eingesetzt werden“, sagte dazu am Montag bei einer Veranstaltung Madalina Ivanica, stellvertretende Referatsleiterin bei der Generaldirektion Binnenmarkt, Industrie, Unternehmertum und KMU (DG GROW) der Kommission.
Sicherheit durch Open Source
Der Rüstungsarm des französischen Thales-Konzerns und die französische Nationalgendarmerie hätten bewiesen, dass ein Wechsel zu Open Source möglich sei, heißt in einem Beitrag im Namen von Thales Defense. Der Konzern habe seine IT im Juni 2025 innerhalb von 48 Stunden vollständig auf Linux-Systeme migriert.
Wir sind ein spendenfinanziertes Medium
Unterstütze auch Du unsere Arbeit mit einer Spende.
In seinem Beitrag zur Konsultation hebt das Unternehmen die Vorteile von OSS für die Sicherheit hervor: Wer freie Software einsetze, habe die Kontrolle über den Code und könne Sicherheitslücken schließen, ohne dabei von Dritten abzuhängen. Die Open-Source-Gemeinschaft reagiere außerdem schnell auf gemeldete Fehler.
Auch die Universität Oslo betont, dass Endnutzer:innen den Code selbst analysieren können, was die Sicherheit erhöhe. Darüber hinaus heißt es in ihrem Beitrag zur Konsultation: „Gute Open-Source-Lösungen sind nicht kostenlos. Daher braucht es Wege, um die Entwicklung und die Wartung der Lösungen zu unterstützen.“ Diese müssten über Geld- und Zeitspenden hinausgehen. Tatsächlich steckt hinter Open Source sehr viel freiwillige Arbeit von Ehrenamtlichen innerhalb der Community.
Ressourcen fehlen
Die tschechische NGO node9.org plädiert ebenfalls für mehr Unterstützung von Entwickler:innen durch die Kommission und verspricht: „Es wird sich sowohl finanziell als auch in Bezug auf die Souveränität auszahlen.“
Das kleine französische Unternehmen MiraLab beschreibt eine „Microsoft-Müdigkeit“ in verschiedenen IT-Abteilungen: „Sie suchen nach Alternativen, aber die EU muss die Führung übernehmen.“ Das einzige, was noch fehle, sei Handlung.
So geht es weiter
Die sogenannte „europäische Strategie für ein offenes digitales Ökosystem“ soll zusammen mit dem „Cloud and AI Development Act“, einer Verordnung zur Entwicklung von Cloud und KI, noch im ersten Quartal des Jahres als Paket veröffentlicht werden.
In dieser Woche wird europäische Souveränität außerdem in Straßburg im EU-Parlament debattiert. Auch Kommissionspräsidentin Ursula von der Leyen und Ratspräsident António Costa werden daran teilnehmen. Dabei geht es allerdings nicht spezifisch um den Digitalbereich.
Datenschutz & Sicherheit
Erneut heulen in Sachsen-Anhalt Sirenen ohne Grund
Alarm ohne Gefahr erst in Halle an der Saale und jetzt in Querfurt im Saalekreis: Das Landeskriminalamt (LKA) ermittelt jetzt zum zweiten unbeabsichtigten Alarm in einer Woche. Am Freitagabend habe es in Querfurt Sirenenalarm und Durchsagen gegeben, sagte ein Sprecher der Polizeiinspektion Halle. Geprüft werde, ob an der Technik manipuliert wurde. Die Stadt Querfurt hatte über ihren WhatsApp-Kanal bereits am Freitag mitgeteilt, dass es sich bei den Lautsprecherdurchsagen in der Kernstadt um eine Fehlalarmierung handele.
Weiterlesen nach der Anzeige
Erst am vorvergangenen Samstag hatte es in Halle einen großflächigen Alarm gegeben, alle betriebsfähigen Alarmsirenen im Stadtgebiet heulten minutenlang. Zusätzlich gab eine Durchsage. Die Stadt sprach danach von einem externen Angriff auf das System. Weder die Stadt noch das Land Sachsen-Anhalt oder der Bund hätten den Alarm ausgelöst. Wegen des Verdachts auf einen Cyberangriff hat dann das LKA Magdeburg die Ermittlungen übernommen.
Laut LKA nutzen Halle und Querfurt zwei unterschiedliche technische Systeme zum Betrieb von Sirenen, meldet der MDR. Nach dem derzeitigen Ermittlungsstand sei ein technischer Zusammenhang mit dem Vorfall in Halle unwahrscheinlich, heißt es dort weiter. Aktuell werde zu beiden Vorfällen in alle Richtungen ermittelt und Beweise würden gesichert. Nach einer Meldung der Mitteldeutschen Zeitung war die Sirenenanlage in Querfurt erst im Mai 2023 in Betrieb genommen worden.
(jes)
Datenschutz & Sicherheit
Generative KI: Finger weg von Bildgeneratoren
Eines der ersten Bilder, das ich mit „generativer KI“ erstellt habe, war ein Waschsalon im Stil von Edward Hopper. Das Motiv entspricht dem US-amerikanischen Maler sehr: ein halb-öffentlicher, halb privater Raum; die Stimmung irgendwo zwischen Kontemplation und Melancholie. Aber gemalt hat er es nie. Das KI-generierte Bild hatte das typische Hopper-Gefühl in mir geweckt, ich war begeistert. Bildgeneratoren sind der Anfang von etwas Großem, da war ich mir im Jahr 2022 sicher.
Schon früh war die öffentliche Debatte über Bildgeneratoren begleitet von teils inbrünstigen Einwänden, dass Erzeugnisse von Maschinen doch keine ernst zu nehmenden Gefühle oder Bedeutungen zum Ausdruck bringen könnten. Immerhin berechnet Software ihre Erzeugnisse bloß aus Material, das es bereits gibt; es fehlt also der Wille eines Menschen, etwas auf bestimmte Weise auszudrücken.
Mich überzeugt das nicht. Warum soll das Erzeugnis einer Maschine von Gefühl und Bedeutung entleert sein, das Erzeugnis eines Menschen aber gefühlvoll und bedeutsam? Diese KI-Kritik ist von klassischen Kommunikations-Modellen geprägt, die Sender und Empfänger in den Mittelpunkt rücken. Einfach ausgedrückt packt demnach ein Sender einen gewünschten Inhalt auf einen Kommunikationsträger, der die Botschaft zum Empfänger bringt – etwa per Wort oder Bild. Gerade Künstler*innen können diesem Modell zufolge ihre Kommunikation in Form eines Kunstwerks ganz besonders mit Bedeutung aufladen, weil sie dabei auf geniale Weise wie aus tiefer Seele schöpfen.
Diesem Modell zufolge kann ein KI-erzeugtes Bild schon allein deshalb nichts Sinnvolles ausdrücken, weil die Maschine nichts meinen kann. Das Erzeugnis ist allenfalls ein Klumpatsch von einst bedeutsamen Inhalten, also: KI-Slop.
Spätere Ansätze – von Systemtheorie über Poststrukturalismus – haben jedoch das Modell verworfen, wonach Bedeutung wie ein Päckchen von A nach B transportiert wird. Bedeutung lässt sich demnach auch nicht in einem Bild verpacken, sodass es nur noch beim Betrachten ausgepackt und in Empfang genommen werden muss. Vielmehr lässt sich jede Kommunikation und damit auch jedes Bild als eine Art Remix aus bestehenden Bedeutungsträgern beschreiben. Die konkrete Bedeutung eines Werks wiederum entsteht bei jeder Beobachtung aufs Neue und zwar durch die Betrachtenden. Das heißt, nicht nur jedes Werk ist ein Remix, sondern auch jede Beobachtung eines Werks.
Selbst das Wetter meint etwas – für uns

Insofern fehlt maschinell erzeugten Bildern zwar die menschliche Intention bis ins Detail, die etwa anzunehmen ist, wenn jemand nach jahrelanger Übung gezielt eine Leinwand mit Pinsel und Farbe bearbeitet hat. Gefühl und Bedeutung können KI-Bilder trotzdem haben, und zwar beim Betrachten. Das klappt auch ohne jegliche Intention eines Senders.
Das Prinzip kennen wir alle aus unserem Alltag, und zwar vom Wetter: Auch Sonnenuntergänge, Gewitter oder Wolkenformationen können ins uns eine Menge Gefühle auslösen, obwohl das Wetter nichts meinen kann. Es meint trotzdem etwas – für uns.
Die Grenze zwischen menschengemachten und synthetischen Werken ist weniger klar, als man auf den ersten Blick meinen könnte. Auch ohne Einsatz von Software haben Künstler*innen immer wieder gezielt die Kontrolle über ihre Werke reduziert. So spielen beim Action Painting Zufall und Physik eine wichtige Rolle, wenn Künstler*innen Farben schleudern und spritzen. Im Konstruktivismus wiederum geht es um Berechenbarkeit statt Zufall, wenn Künstler*innen streng auf geometrische Formen setzen.
Die Beispiele zeigen, generative KI ist weniger ein radikaler Bruch im kreativen Schaffen, sondern eher eine neue Verschiebung in der Rolle des Menschen beim Entstehen eines Werks. Statt mit Pinsel und Farbe hantiert man mit Prompts; feilt an Textbefehlen, bis die Maschine etwas erzeugt, das man gerne speichern und weiterverbreiten möchte. Der Stoff, aus dem ein Werk entsteht, ist nicht roh wie etwa eine Tube Ölfarbe, sondern vorgeformt durch das einfließende Trainingsmaterial.
Wie es sich praktisch anfühlt, mit Bildgeneratoren zu arbeiten, habe ich eine Zeit lang selbst getestet. Über Monate hinweg habe ich die Software genutzt, um eigene Artikel zu bebildern. Es war reizvoll, mehr Freiheiten in der Gestaltung der Motive zu haben. Inzwischen habe ich aber damit aufgehört – und ich halte es sogar für besser, wenn Redaktionen die Finger von Bildgeneratoren lassen. Dafür sehe ich vor allem drei Gründe.
1. Der typische KI-Look wirkt unseriös

Nach ein paar Jahren KI-Hype und einer Flut KI-generierter Bilder auf Websites und in sozialen Medien zeigt sich eine Kluft zwischen Theorie und Praxis: Während KI-Bilder meiner Meinung nach bedeutsam, gefühlvoll und schön sein können, sind sie es erstaunlich oft – einfach nicht.
So unbegrenzt wie Anfangs vermutet sind die kreativen Möglichkeiten dann doch nicht. Zumindest Stand aktuell, und mit dem eher geringen Aufwand, den viele in ihre Prompts und KI-Erzeugnisse stecken. An einem Großteil der tatsächlich in meinen Feeds kursierenden, KI-generierten Bilder habe ich mich sattgesehen. Sie sind oft überladen und austauschbar, teils offensiv geschmacklos. Einflüsse von Stilrichtungen lassen sich erahnen, sind aber oft grobschlächtig miteinander vermengt, ohne Gefühl für Stimmigkeit. Ein schauriges Beispiel dafür ist das oben eingebettete KI-Bild, das ich leider selbst als Artikelbild veröffentlicht habe, und heute für einen Griff ins Klo halte.
Websites, die auf KI-Bilder setzen, erscheinen mir inzwischen suspekt. Denn in der Praxis nutzen die meisten seriösen Medien solche Bilder nicht oder kaum; fragwürdige Content-Schleudern aber schon.
Egal, wie man sonst zu KI-Bildern steht: Sie können mangelnde Seriosität ausstrahlen. Besonders wenn Leser*innen eine Website nicht gut kennen und nur die Bilder ins Auge springen. Es könnte bei manchen die Frage aufkommen, ob die Redaktion möglicherweise auch ihre Texte achtlos zusammenrührt; wie sorgfältig das redaktionelle Angebot wirklich ist. Die Bebilderung von Artikeln sollte funktional sein und nicht mehr Fragen aufwerfen als die Hauptinhalte.
2. Generative KI schafft bedenkliche Abhängigkeiten

Generative KI gibt Menschen mit Internetverbindung zuvor ungeahnte Produktionsmittel in die Hand. Selbst ohne Vorkenntnisse lassen sich etwa Texte, Übersetzungen, Code, Bilder und Videos in mindestens mittelmäßiger Qualität erstellen. Und wer würde so viele verschiedene Dinge schon mindestens mittelmäßig hinbekommen? Das bedeutet mehr Möglichkeiten und mehr Macht für alle. Aber das ist nur die eine Seite der Medaille.
Die andere Seite ist düster. Je mehr sich generative KI verbreitet, desto mehr zementieren deren Anbieter ihre Machtposition. Als der Bild-Generator Stable Diffusion erstmals gratis für alle veröffentlicht wurde, hatte ich die Hoffnung auf eine dezentrale Zukunft generativer KI ohne mächtige Tech-Unternehmen als Nadelöhr. Es kam anders.
Heute kontrollieren einige wenige Unternehmen wie OpenAI, Anthropic, Microsoft, Meta und Google die populären und effizienten KI-Anwendungen. Sie sammeln die Risiko-Milliarden ein, steigen zu den reichsten Unternehmen der Welt auf oder festigen diese Position. Unter der Regie der KI-Konzerne entsteht eine technologische Infrastruktur, die Produktionsweisen zentralisiert. Die Konzerne bestimmen in der Folge, welche KI-Anwendungen kostenlos sind und wofür man zahlen muss. Sie bestimmen, für welche Sprachen, welche gesellschaftlichen Gruppen, welche Einsatzmöglichkeiten ihre Dienste optimiert werden.
Auf rabiate Weise extrahieren KI-Konzerne massenhaft Werke zum Training ihrer Modelle aus dem Netz, selbst wenn die Künstler*innen und Urheber*innen dahinter das nicht möchten. Einerseits finde ich: Zur Freiheit von Kunst sollte es gehören, dass sich Menschen oder auch Maschinen frei an Werken bedienen können, um Neues zu schaffen. Andererseits bereitet mir das extreme Macht-Ungleichgewicht Bauchschmerzen, das besteht, wenn Milliarden-Konzerne diese Freiheit brachial für kommerzielle Interessen ausnutzen.
In der Folge profitieren nicht alle gleichermaßen von den Produktionsmöglichkeiten sogenannter KI. Die neue Technologie kann nicht nur Gewinner*innen hervorbringen, sondern auch Verlierer*innen. Sie birgt etwa das Potenzial, KI-freie Formen künstlerischer oder handwerklicher Bildproduktion allein durch diese Produktionsgewalt zu verdrängen, zu ersetzen und damit unter die Kontrolle weniger Konzerne zu bringen.
Diese Kontrolle bezieht sich nicht nur auf die Gestaltung der KI-Werkzeuge, sondern auch auf die erzeugten Inhalte. Die KI-Konzerne entscheiden und moderieren, was erlaubt und verboten ist. Bei Sprachmodellen wie Grok aus den USA oder DeepSeek aus China sieht man, wie schnell vermeintliche Inhaltsmoderation in autoritäre Zensur und Desinformation umschlägt.
Bei den meisten kommerziellen Bildgeneratoren gibt es zudem sehr hohe Hürden für jegliche Darstellung von Nacktheit. Damit wollen die Konzerne unter anderem verhindern, dass Menschen illegale Inhalte erzeugen, und nehmen dabei Overblocking in Kauf. Die Folge ist, dass selbst jugendfreie Darstellungen zensiert werden, etwa wissenschaftliche oder künstlerische Motive. Zum Vergleich: Sogar in der Sixtinischen Kapelle im Vatikan sind Adam und Eva ohne Kleider zu sehen.
Keine Skrupel haben die KI-Konzerne dagegen offenbar bei Deals über hunderte Millionen US-Dollar mit dem Militär der rechtsradikalen Trump-Regierung.
Die erhoffte Demokratisierung von Produktionsmitteln durch generative KI hat also auch gegenteilige Effekte. Solange Bildgeneratoren von wenigen Konzernen kontrolliert werden, entstehen neue Formen von Abhängigkeit, und zwar von konkreten KI-Modellen und deren Features, von Plattform-Policys, Finanzierungsmodellen und letztlich auch den Launen und Ideologien ihrer superreichen Eigentümer.
Entsprechend unangenehm ist es, etwa einen journalistischen Artikel oder einen Blogbeitrag mit einem Generator von Google oder OpenAI zu bebildern. Der Name dieser Konzerne in der Bildunterschrift: ein unerwünschter Werbe-Effekt.
Wir sind ein spendenfinanziertes Medium
Unterstütze auch Du unsere Arbeit mit einer Spende.
Auch wenn meine kleinen Beiträge als Nutzer oder Konsument von KI-Bildgeneratoren das Machtgefüge dahinter nicht nennenswert beeinflussen – es muss einfach nicht sein. Gerade wenn Redaktionen ihre Artikel in großem Stil mit KI bebildern, verstetigen sie den Gebrauch fragwürdiger Produkte.
3. Hinter generativer KI stecken hohe, unsichtbare Kosten

Oft sind die wahren Kosten meines privilegierten, digitalen Alltags unsichtbar, und bei den meisten Leser*innen hier dürfte es ähnlich sein. Wir tippen, streamen und surfen mit energiehungrigen Produkten aus unter anderem Plastik und Seltenerdmetallen, die durch geplante Obsoleszenz zugleich der umweltschädliche Elektroschrott von morgen sind; produziert und bis zur Haustür gebracht von oftmals schlecht behandelten Angestellten; entworfen und kontrolliert von Megakonzernen, die damit Milliarden anhäufen. Obendrauf kommen jetzt noch die Kosten für generative KI.
Es ist widersprüchlich, an einem Apple-Laptop sitzend von der Nutzung einer Technologie abzuraten, weil sie verborgene Kosten für Gesellschaft und Umwelt mit sich bringt. Denn was ich an generativer KI kritisiere, trifft auch auf meine eigenen Geräte zu. Um davon nicht völlig blockiert zu sein, will ich zwei Ebenen voneinander unterscheiden: Einerseits strukturelle Ausbeutungsverhältnisse, andererseits individuelle Konsumentscheidungen. Ersteres lässt sich nicht durch letzteres überwinden. Dennoch sind individuelle Konsumentscheidungen nicht egal. Bildgeneratoren sind noch nicht so tief in unseren Alltag gesickert wie Laptops; sie sind noch kein wichtiger Teil digitaler, gesellschaftlicher Teilhabe. Noch haben wir die Wahl.
Die Systeme hinter KI-generierten Bildern fressen Energie durch Training und Betrieb und sind deshalb klimaschädlich. Die Konzerne hinter kommerziellen Bildgeneratoren ziehen riesige Rechenzentren hoch, zapfen Atomkraftwerke an und können Menschen im Umland zur Kühlung der Server sogar das Wasser abgraben. Millionen gering bezahlte Arbeiter*innen, oftmals aus dem Globalen Süden, machen durch ihre Arbeit die Leistungen der Software überhaupt erst möglich.
Die menschliche Arbeit hinter sogenannter KI soll nicht nur bewirken, dass generierte Bilder möglichst gut aussehen, sondern auch, dass sie möglichst nicht illegal oder verstörend sind. Gewalt, Folter, Missbrauch – all das sollen Nutzer*innen am Ende nicht zu Gesicht bekommen. Dafür sichten und annotieren Angestellte im Akkord Inhalte, etwa Bilder aus dem Trainingsmaterial oder neue KI-Erzeugnisse. Solche Arbeit ist oftmals psychisch belastend, die therapeutische Begleitung schlecht. Für ihren Lohn zahlen Datenarbeiter*innen also nicht nur mit ihrer Arbeitskraft, sondern auch mit ihrer Gesundheit.
Diese und weitere Kosten verschwinden hinter den glatt designten Oberflächen der Bildgeneratoren, die per Mausklick Inhalte en masse ausspucken, als wären nur Maschinen am Werk. Ich finde: Gerade weil es leicht zugängliche KI-freie Alternativen zur Bebilderung gibt, muss man das als redaktionelles Angebot nicht aktiv unterstützen.
Ambivalenzen aushalten

Mehr als drei Jahre, nachdem ich mit Stable Diffusion einen Waschsalon im Stil von Edward Hopper erzeugt habe, wiederhole ich den Versuch. Dieses Mal mit Google Gemini Ende 2025: „Wie hätte Edward Hopper einen Waschsalon gemalt?“
Ich hoffe darauf, dass mich das Ergebnis kaltlässt, schließlich habe ich mich in diesem Text daran gemacht, Bild-Generatoren zu kritisieren und von ihrem Einsatz abzuraten. Bloß, das Gegenteil ist der Fall: Die Software erzeugt ein Bild, das mir sofort gefällt. Hätte ich es früher in einem Hopper-Sammelband gesehen, es hätte zu meinen Lieblingsmotiven gezählt. Zugleich merke ich, was für ein Luxus daraus spricht, dieses Bild generieren und genießen zu können.
KI genießen, KI ablehnen – wie lässt sich diese Ambivalenz aushalten?
Der Knackpunkt liegt für mich darin, in welcher Rolle ich mit KI-generierten Bildern umgehe. Im Fall vom Hopper-Bild entscheide ich mich als Privatperson dafür, ein problematisches Produkt wie einen Bildgenerator für eine ästhetische Erfahrung zu nutzen: Das ist reiner Luxus. Ob und wie oft man das tun möchte, darüber muss wohl jede*r für sich selbst entscheiden.
Anders ist die Lage, wenn ich in meiner Rolle als Redakteur KI-Bilder in die redaktionelle Routine integriere. Dann wären sie kein privater Luxus mehr, sondern beruflich genutzte Gebrauchsgrafiken für ein breites Publikum. Sie würden den Einsatz einer Technologie normalisieren, die ich sehr kritisch sehe. Mein Fazit: Finger weg.
Zumindest zu dokumentarischen Zwecken kommt der falsche Hopper als eingebettete Grafik in diesen Text. Typisch für Hopper sehen wir hier einen isolierten Menschen in einer urbanen Umgebung. Er scheint in sich gekehrt, als würde er dem Gefühl einer inneren Leere nachhängen. Wahrscheinlich interessiert mich dieses KI-Bild deshalb umso mehr: Weil sich auch KI-Bilder die Frage nach innerer Leere gefallen lassen müssen. Und schon sind sie nicht mehr leer.
-
Entwicklung & Codevor 2 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 3 MonatenX: Für Dauer von Bezahlabo kann man bald ungenutzte Kontonamen übernehmen
-
UX/UI & Webdesignvor 3 MonatenArndt Benedikt rebranded GreatVita › PAGE online
-
Künstliche Intelligenzvor 3 WochenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Online Marketing & SEOvor 3 Monaten3 Creator to watch: Diese TikToker haben im September für Aufsehen gesorgt
-
Entwicklung & Codevor 1 MonatKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenDeutschlands größter Batteriespeicher entsteht in Sachsen-Anhalt
-
Künstliche Intelligenzvor 3 MonatenGoogle „Broadwing“: 400-MW-Gaskraftwerk speichert CO₂ tief unter der Erde
