Connect with us

Datenschutz & Sicherheit

Großrechenzentren: „KI“-Platzhirsche bauen massiv aus


Die Angst, etwas zu verpassen, bleibt ein starker Antrieb beim anhaltenden Tamtam um Künstliche Intelligenz. Alle machen doch gerade „was mit KI“. KI-Berater geben sich überall die Klinken in die Hand, um ihre Heilsversprechen zu verkünden.

Eine gut gepflegte FAQ-Seite reicht vielen Unternehmen und Behörden längst nicht mehr aus, wenn sie denn je eine hatten. Ein Chatbot muss her, haben doch jetzt alle. Auch klassische Datenbanken und Linked-Data-Lösungen sind so was von 2000er. Ohne Large Language Models mit Retrieval-Augmented Generation ist keine Unterstützung und kein Fördergeld für die notwendige Digitalisierung mehr zu bekommen, ganz egal, ob jemand genauer weiß, was die Technologie unter der Haube hat.

Es scheint, als ob vor allem die bei KI meist gemeinten großen generativen Sprachmodelle zum Selbstzweck werden. Sie werden oft eingesetzt, ohne die Funktionsfähigkeit oder die Alternativen in redlicher Weise geprüft zu haben. Über den Sinn und Unsinn, mit Deep-Neural-Net-Kanonen auf Daten-Spatzen zu schießen, wird dabei selten diskutiert.

Doch gerade der fragliche Sinn ändert auch den Blick auf die dafür notwendige oder eben nicht notwendige Infrastruktur, um die ressourcenhungrigen generativen KI-Systeme zu betreiben. Denn diese Systeme verbrauchen enorme Mengen an Energie und Wasser zur Herstellung und Kühlung der Computer in den Rechenzentren.

Wie genau der Ressourcenbedarf und die sich daraus ergebenden Umweltauswirkungen aussehen, darüber rücken die jeweiligen KI-Anbieter wenig bis gar keine Informationen heraus. Die ganz große Mehrheit der Nutzer, die mit generativer KI interagiert oder vielleicht deren Einsatz planen will, hat so gut wie keine aussagekräftigen Informationen über deren Umweltauswirkungen. Fundierte Entscheidungen zu treffen, die Energie- und Wasserverbrauch und andere Umweltfaktoren von generativen KI-Systeme mit einbeziehen, ist derzeit weitgehend unmöglich.

Amazon, Microsoft und Alphabet

Wem gehören die ganzen Rechenzentren, die Cloud-Infrastrukturen und die Hardware, auf der die generative KI läuft? Wenn man auf Europa und Nordamerika blickt, sind die aktuellen Gegebenheiten bekannt: Amazon, Microsoft und Google-Mutter Alphabet teilen den Cloud-Markt weitgehend unter sich auf.

Microsoft Azure, Amazon Web Services (AWS) und Google Cloud bedienen knapp zwei Drittel aller Cloud-Dienstleistungen. In manchen europäischen Ländern wie beispielsweise Großbritannien sind vor allem AWS und Azure sogar so dominant, dass sie zusammen über siebzig Prozent des Cloud-Markts abgrasen. Und die Erträge können sich sehen lassen: Insgesamt beliefen sich die Einnahmen im gesamten weltweiten Cloud-Markt im letzten Jahr auf etwa 330 Milliarden US-Dollar.

Es sind milliardenschwere Giganten: Jeder der drei genannten Konzerne ist ohnehin schon jahrelang in den Top Ten der weltweiten börsennotierten Unternehmen nach Marktkapitalisierung. Sie werden derzeit mit einem Börsen-Marktwert von jeweils mehr als zwei Billionen US-Dollar bewertet. Das liegt auch daran, dass sie neben dem jedes Jahr wachsenden Cloud-Geschäft ebenfalls die Besitzer vieler Rechenzentren sind. Mehr als zehntausend davon stehen vor allem in Nordamerika und Europa.

Dürfen wir Ihre Informationen durch unsere KI jagen?

Die gehypte generative KI sucht bisher noch ihre Cash Cow und hat zu den Einnahmen dieses Geschäftsfeldes nichts Nennenswertes beigetragen. Vielleicht bringen die neuen Bezahlmodelle bei generierter Programmierung mehr Umsatz. Doch auch wenn der Goldesel bisher noch fehlt, ist generative KI ein starker Antrieb für die Aufrüstung und den Neubau von Großrechenzentren. Denn auch dieses Geschäftsfeld wächst enorm: Seit dem Jahr 2020 hat sich die weltweite Anzahl der großen Rechenzentren auf mehr als 1.000 verdoppelt.

Und mit groß ist hier wirklich gewaltig gemeint: Diese mehr als 1.000 Rechenzentren für Hyperscale Computing bewegen sich in der Dimension von jeweils mehr als 50 Megawatt an elektrischer Leistung und sind jeweils mit zehntausenden von Servern bestückt. Angelehnt an den Begriff Hyperscale Computing werden sie in jüngster Zeit auch Hyperscaler genannt.

Die größten Platzhirsche sind wiederum Amazon, Alphabet und Microsoft, die mehr als die Hälfte der gesamten weltweiten Hyperscale-Rechenzentrumskapazität auf sich vereinen. Amazon hat global leicht die Nase vorn. Aber auch Meta, Apple, ByteDance sowie die chinesischen Giganten JD.com und Alibaba besitzen vom Rest der Kapazität nennenswerte Anteile. Aktuell sind weltweit mehr als 500 weitere Großrechenzentren in der Vorbereitungs- und Bauphase.

Die großen Tech-Unternehmen, darunter Alphabet und Microsoft als größter Anteilseigner von OpenAI, melden zugleich einen beispiellosen Anstieg des eigenen Ressourcenverbrauchs. Dazu wurde auch angekündigt, dass die eigenen Nachhaltigkeitsversprechen nicht erfüllt werden. Die dezidierte Begründung ist der groß angelegte Ausbau für die generative KI.

Weiter wachsende Rechenzentrumskapazitäten

Manche sagen zu den großen Rechenzentren auch KI-Gigafactory, was sich ein mit Sicherheit technikferner Marketingspezialist erdacht haben dürfte. Hierzulande gibt es nicht allzu viele riesige Rechenzentren, die von europäischen Unternehmen betrieben werden. Allerdings ist auch bei uns ein erhebliches Wachstum der Rechenzentrumskapazitäten geplant. Laut bitkom (pdf) soll es im zwei- bis dreistelligen Megawatt-Bereich liegen. Ob jedes einzelne der geplanten Projekte auch umgesetzt wird, ist aber teilweise unsicher.

Die Hauptschuldigen für die Bremsen im KI-Rechenzentrumsboom sind schon ausgemacht: Es gibt zu viel Bürokratie, um sie hier schnell hochzuziehen. Der neue Kanzler Friedrich Merz hat dagegen schon Abhilfe durch Entbürokratisierung versprochen. Dass sich hinter dem gegenwärtigen Vorstoß zum Bürokratieabbau in diesem Bereich eher eine Lockerung des Umwelt-, Klima- und Arbeitsschutzes verbirgt, ist ein offenes Geheimnis.

Verfolgt man aktuelle Entwicklungen, wird noch eine weitere Dimension offenbar: Es geht auch um Versorgungsengpässe, sowohl bei Strom als auch bei Wasser. So soll beispielsweise das Rechenzentrum FRA7 der US-amerikanischen Firma CyrusOne gemeinsam mit E.ON bis 2029 ausgebaut werden, um zusätzliche 61 Megawatt zu bekommen. Woher die nötige zusätzliche Energie kommt, steht etwas versteckt in der Pressemitteilung: Fossiles Gas soll lokal Energie produzieren.

Das heißt ganz praktisch: Gigantische Gasturbinen sollen im Dauerbetrieb den aberwitzigen Energiehunger stillen. Und was dies bedeutet, können die Einwohnerinnen von Memphis (Tennessee) gerade schmerzlich berichten: Ein riesiges Rechenzentrum, das errichtet wurde, um Chatbots für Elon Musks KI-Wahn zu betreiben, wird mit mindestens 35 Methan-Turbinen betrieben. Nicht einmal die Hälfte davon waren überhaupt behördlich genehmigt worden.

Der KI-Zirkus brummt. Die schlechte Luft der Turbinen wird im Memphis-Fall in einer Gegend ausgestoßen, die bereits eine hohe Asthma-Rate aufweist. Saubere Luft zum Atmen scheint nicht länger ein Grundbedürfnis der Menschen zu sein, sondern offenbar ein zu nutzender Rohstoff eines unkontrolliert wachsenden Wirtschaftszweiges fragwürdigen Nutzens. Denn welches drängende Problem generative KI eigentlich löst, wird sich erst noch zeigen – vielleicht. Das tatsächlich drängende Problem der Klimakrise jedoch wird durch sie in jedem Fall noch verschärft.

Nur Google kann da noch einen draufsetzen: Der Milliardenkonzern kaufte jüngst sagenhafte 200 Megawatt Fusionsenergie, die es bisher noch gar nicht gibt. Dass man den Bär erst erlegen muss, bevor man das Fell verteilt, ist für die Tech-Bros und KI-Gläubigen auch nur noch ein überkommener Spruch.

Nicht so brillant wie von manchen erhofft

Die KI-Wachstumserwartungen

Gerade unter Leuten, die sich mit Informationstechnik auskennen und schon so manchen Hype haben kommen und gehen sehen, wird derzeit bereits milde abgewunken: Nur die Ruhe, der KI-Bohei wird vorübergehen, die Spreu sich vom Weizen trennen. Doch es sind ja keinen bloßen Gedankenspiele, was die KI-Wachstumserwartungen angeht. Denn bevor der sehnlich erhoffte KI-Technologiesprung angepeilt werden kann, müssen die Rechenkapazitäten mitsamt Kühlung, Klimaanlagen und Lüftung ja physisch tatsächlich errichtet werden.

Das führt dazu, dass genau jetzt riesige Rechenzentren in bisher ungekannter Menge geplant und gebaut werden. Ob sich die speziell für generative KI angepasste Computertechnik tatsächlich rentiert, steht auf einem anderen Blatt. Denn auch folgendes Szenario ist nicht unrealistisch: Wenn sich die derzeitige technische Entwicklung nur fortsetzt, könnte den Menschen bewusst werden, dass mehr Rechenleistung die generative KI qualitativ gar nicht nennenswert verbessert.

Denn die KI-begeisterten Milliardäre könnten auch etwas versprochen haben, was nicht eintreten wird. Die Fehlerquoten, Sicherheitsprobleme und Unzuverlässigkeiten könnten auch weiter zu hoch bleiben für einen Einsatz in Bereichen, die weniger fehlertolerant sind als die Generierung bunter Bilder. Deswegen würden Sprachmodelle nicht verschwinden und weiter auch sinnvolle Einsatzzwecke finden, allerdings nicht im versprochenen Masseneinsatz, sondern für spezifische Anwendungen.

Wenn dieses Szenario eintreten sollte, werden viele Investoren auf hohen Schulden für eine Menge gut gekühlter Gebäude voller ungenutzter und veralteter Server-Racks mit wirklich großen Energiesystemen sitzen. Und wir alle sitzen auf einem Berg Elektronikschrott.

Vergessen darf dabei nicht werden, dass auch China massiv investiert. Seit 2022 hat auch die zweite KI-Großmacht neben den Vereinigten Staaten mehr als sechs Milliarden US-Dollar in Rechenzentren investiert. Auch hier ist seither ein steigender Stromverbrauch zu verzeichnen, der bis 2030 um mehr als fünf Prozent wachsen soll.

Größtes Rechenzentrum der Welt von OpenAI

Bisher liegt die Gesamtrechenzentrumsleistung global bei etwa 55 Gigawatt, was ungefähr 480 Terawattstunden jährlich sind. Das ist angesichts von insgesamt globalen 30.000 Terawattstunden noch kein Pappenstiel, aber auch nicht gerade vernachlässigbar, wenn das drastische Wachstum, was vielfach nun angekündigt ist, tatsächlich eintreten wird.

ChatGPT 5 versucht, die Anzahl von b in blueberry zu zählen.
Das niegelnagelnaue ChatGPT-5 zählt Buchstaben.

Oracle und OpenAI bauen etwa einen ganzen KI-Rechenzentrumskomplex in Texas, der anfangs ein Gigawatt Energie erzeugt, aber das größte Rechenzentrum der Welt werden soll. Zusätzliche 4,5 Gigawatt kündigte der OpenAI-Chef bereits an. Und das neue ChatGPT-5 wurde gerade mit ordentlich PR auf die Welt losgelassen. Es wird mit reduzierten Fehlerquoten und mehr Zuverlässigkeit beworben, was durch erste Versuche aber vorerst nicht bestätigt werden konnte (siehe Bild).

Derweil frisst die explodierte Chip-Produktion für Graphikprozessoren, die für generative KI notwendig sind, längst enorme Ressourcen und erhöht den CO2-Ausstoß bereits. Der künftige Elektroschrott ist also schon auf die Reise gegangen.

Die Ausmaße des Elektronikabfalls

Big Tech kolportiert gern, dass wahre Innovation dem Entscheidungsmut einiger weniger CEOs entspränge, was auch die absurd hohen Gehälter rechtfertigen soll. Diese Darstellung unterschlägt jedoch, dass auch der Rummel um die energieintensive generative KI ohne eine öffentliche (lies: öffentlich finanzierte) Infrastruktur, die alle benötigten Ressourcen bereitstellt, nicht möglich oder zumindest sehr viel teurer wäre.

Neben den zahlreichen Subventionen, Steuergeschenken und Fördergeldern ist es eben auch die Grundversorgung aller, die wie selbstverständlich angezapft wird. Dazu zählt der bereits erwähnte exorbitante Wasser- und Energieverbrauch generativer KI. Allein bei Google stieg der Verbrauch von 12,7 Milliarden Liter Wasser im Jahr 2021 in nur drei Jahren nach eigenen Angaben auf 30 Milliarden Liter Wasser.

In letzter Zeit häufiger geforderte und zum Teil auch umgesetzte moderne Methoden zur Reduzierung des Wasserverbrauchs haben leider einen Haken: Setzt der Betreiber auf eine Kühlung von Rechenzentren ohne Wasserverbrauch, dann macht er den Betrieb deutlich energieintensiver. Und zum verbrauchten Strom in irrsinniger Menge muss auch die schon erwähnte Atemluft bedacht werden, zudem der Abfall in Hülle und Fülle.

Denn am anderen Ende der Verwertungskette sieht die Sache nicht besser aus, im Gegenteil. Die Ausmaße, die Elektronikabfall von generativer KI annehmen wird, sprengt das Vorstellungsvermögen beinahe: Einer 2024 in Nature Computational Science veröffentlichten Studie zufolge wird der Elektroschrott bis 2030 je nach Prognose-Szenario insgesamt etwa zwischen 1,2 Millionen Tonnen (konservative Schätzung mit restriktiverem KI-Einsatz) und 5 Millionen Tonnen (weit verbreiteter KI-Einsatz) wiegen. Im Vergleich zu den Zahlen aus dem Jahr 2023 ist das etwa tausend Mal mehr Elektroschrott, der allein durch generative KI produziert werden wird.

Um sich diese Masse plastisch vorzustellen, helfen vielleicht anschauliche Vergleiche: Die jährliche Gesamtmasse von 5 Millionen Tonnen Elektroschrott ist etwa wie das Wegwerfen von mehr als zwanzig Milliarden iPhones aktuelleren Datums (um die 180 g pro Stück). Jeder Mensch auf der Erde könnte pro Jahr zwei iPhones auf einen riesigen Elektroschrottberg werfen und der gigantische Abfallhaufen wäre immer noch kleiner als die Elektroschrotthalde der generativen KI.

Künstliche Intelligenz

Wir schrieben schon über maschinelles Lernen, bevor es ein Hype wurde. Unterstütze unsere Arbeit!

Wegen der Tatsache, dass die riesigen Rechenzentren wesentlich in drei Gegenden der Erde konzentriert sind, werden diese Elektroschrottberge überwiegend in Nordamerika anfallen, gefolgt von Ostasien und zu einem kleineren Teil (etwa 14 Prozent) in Europa. Verklappt werden sie aber so gut wie immer woanders auf der Welt.

Zumindest die Perspektive auf das KI-Spektakel sollte sich ändern, wenn man sich die Elektroschrotthalden vor Augen führt, in die ganz aktuelle Planungen noch nicht einmal einberechnet sind. Dass der astronomisch hohe Ressourcenverbrauch und generell die ökologischen Fragen nicht mindestens mitbedacht und konkret kalkuliert werden, ist einer modernen Technologie nicht angemessen, die sich anschickt, die Welt verbessern zu wollen. In Zeiten der Klimakrise ist das schlicht unvertretbar.



Source link

Datenschutz & Sicherheit

Degitalisierung: Vom Fach



In der heutigen Degitalisierung geht es um eines der am langweiligsten scheinenden Themengebiete der Informationstechnik: Fachanwendungen. Oder genauer gesagt: Um die teils sehr schräge Beziehung, die Staat und Politik zu eben diesen Fachanwendungen haben. Denn auf der einen Seite sind Fachanwendungen eigentlich viel zu wichtig, um sie zu vernachlässigen. Auf der anderen Seite sind sie aber wiederum auch nicht so wichtig, dass im politischen Diskurs um sie gleich alle Grundrechte aufgegeben werden müssten. Aber der Reihe nach.

Die wundersame Welt der Spezialanwendungen

Fachwendungen sind, vereinfacht gesagt, individuelle Softwarelösungen, die auf die Bedürfnisse einer einzelnen Kund*in maßgeschneidert werden, nicht immer neu entwickelt, manchmal auch sehr individuell aus bestehenden Lösungen konfiguriert. Es gibt Fachanwendungen nicht nur in der Verwaltung oder im Gesundheitswesen, sondern auch im Maschinenbau oder in anderen produzierenden Branchen.

Was macht so eine Fachanwendung? Mindestens Daten verarbeiten, oft auch irgendwie bei der Datenverwaltung helfen, teils auch auf bestehende Datenbanken zugreifen, diese visualisieren oder entsprechende spezifische Berechnungen oder Plausibilisierung durchführen. Mit etwas Feenstaub vermarktet, könnte die schon länger stattfindende Automatisierung in mancher Fachanwendung neudeutsch auch als „Künstliche Intelligenz“ bezeichnet werden, wenngleich Fachanwendungen schon seit Jahrzehnten irgendwelche Arten von Berechnungen in Form von Algorithmen auf Daten durchgeführt haben.

So weit, so theoretisch. In der Praxis des Verwaltungshandelns fällt bei vielen dieser Fachanwendungen oftmals ein Hang zum Scheitern auf.

Der wundersame Lehrerschwund

Im vergangenen Monat fiel eine Fachanwendung aus dem Land Baden-Württemberg durch einen sonderbaren, langanhaltenden Schwund an reell nicht besetzten Stellen von Lehrer*innen auf. Wegen einer Softwarepanne wurden 1440 Stellen jahrelang nicht besetzt. Ein Softwarefehler im Personal- und Stellenprogramm der Landesverwaltung, der über 20 Jahre lang unbemerkt blieb. Weder im Finanz- noch im Kultusministerium ist klar, wie es dazu kommen konnte.

Bemerkenswert ist dann aber auch die teilweise Beschwichtigung des Problems: Mehr Stellen könnten jetzt auch nicht besetzt werden, weil die bestehenden ja schon nicht besetzt werden konnten. Es sei auch kein Schaden an den Steuerzahlenden entstanden, zur Freude der sprichwörtlich sparsamen schwäbischen Hausfrau, denn das Geld sei ja nicht im Haushalt verplant gewesen. So groß sei der Schaden nun auch wieder nicht, es betreffe ja nur 1,5 Prozent der gesamten Stellen für Lehrpersonal im Lande. Was für ein Glück, nicht?

Die Verniedlichung des datenbasierten Bildungsproblems verkennt dabei eines vollkommen: Durch auch nur ein paar betroffene Schüler*innen entstehen große Schäden im Bereich einer ausbleibenden Bildungsrendite, die in Deutschland laut OECD immerhin bei 6 bis 10 Prozent liegen. Durch die Ungerechtigkeit des deutschen Bildungssystems, die sich oft über Generationen durchzieht, reduzieren sich Chancen auf einen sozialen Aufstieg der potenziell betroffenen Schüler*innen wahrscheinlich sogar noch weiter. Kleiner Fehler, große unentdeckte Wirkung.

Fachanwendungen und ihre korrekte Funktion sind eigentlich immens wichtig für die Gesamtgesellschaft und die Daseinsvorsorge. Das scheint nur nicht immer verstanden zu werden. Die Betreuung und kritische Begleitung von Fachanwendungen braucht kontinuierliche fachliche Begleitung und konstante IT-Expertise, nicht nur vom klischeehaften Mathelehrer, der in seiner Freizeit mal ein Programm geschrieben hat. Es braucht Menschen, die Software und deren Entwicklung wirklich vom Fach her verstehen.

Die wundersame Langsamkeit der Anpassung

Die Wichtigkeit von Fachanwendungen und ihrem Ökosystem für das Vertrauen in den Staat scheint ohnehin seit längerem konstant heruntergespielt zu werden. Nur ist das bei manchen dadurch verschleppten politischen Wirkungen bisher vielleicht nicht so stark aufgefallen wie bei einem wundersamen Stellenschwund auf Landesebene. Und keine Sorge, die Beispiele verwenden jetzt explizit keine faxenden Gesundheitsämter in der Pandemie.

Beispiel 1 wäre da die Ehe für alle von 2017. Die Möglichkeit, dass gleichgeschlechtliche Paare zum Inkrafttreten des Gesetzes am 1. Oktober 2017 auch wirklich in allen staatlichen Datenbanken offiziell heiraten konnten, gab es durch Verzögerungen in der Anpassung der dahinterliegenden Personendatenstandards nicht. Die Standesamtsoftware könne das, klar, das Register dahinter aber, na ja. Dass eine daraus resultierende Softwareanpassung schon mal neun Monate dauern könnte, sei ein „normaler administrativer Prozess“.

Beispiel 2 wäre da das Selbstbestimmungsgesetz, das wegen Änderungen an den technischen Verfahren erst später in Kraft treten konnte – so die Aussage des Bundesrates:

Da die Änderungen, die zum 1. November in Kraft treten, bereits zum 31. Januar des Jahres fertiggestellt sein müssen, damit die Verfahrenshersteller für das Fach- und das Registerverfahren ausreichend Zeit für die technische Umsetzung haben, kann das Gesetz frühestens zum 1. November 2025 in Kraft treten.

Langsamkeit in der Umsetzung gesetzlicher Vorgaben als „normaler administrativer Prozess“ eben.

Beispiel 3 wäre da die Ersatzfreiheitsstrafe. Die Strafen also, bei der Menschen, die zum Beispiel wegen Fahrens ohne Fahrschein und dem darauffolgenden Nichtzahlen von Geldstrafen ersatzweise eine Freiheitsstrafe absitzen. Wurde von der abzusitzenden Zeit eigentlich halbiert, sollte eigentlich am 1. Oktober 2023 in Kraft treten. Ging aber nicht, die Softwareanpassung der Justizsoftware brauchte länger. Kannste nichts machen, steht halt weiter so im Computer.


2025-07-14
1428.12
119


– für digitale Freiheitsrechte!



Euro für digitale Freiheitsrechte!

 

Die wundersame Schnelligkeit für innere Sicherheit

Es ist aber nicht alles mit Software so langsam ablaufend und finanziell schlecht ausgestattet. Es kommt nur auf den Verwendungszweck eben dieser Software an. In der Diskussion um die Ausstattung von Sicherheitsbehörden und Polizei mit einer Softwareplattform wie Palantirs Gotham kann es oft gar nicht schnell genug gehen, Millionenbeträge für Lizenzen sind auch kein Thema. Weil durch Knausrigkeit, übertrieben gewissenhafte Prüfung einer Software im Bereich innere Sicherheit auf rechtliche Probleme und Langsamkeit bei der Umsetzung ja quasi morgen schon die innere Ordnung komplett zusammenbrechen würde, so wirkt es. Gotham sei dabei konkurrenzlos.

Es tut der aktuellen Diskussion um Palantir durchaus gut, hier auch das eher sehr nüchterne Wort einer Fachanwendung zu verwenden beziehungsweise einer Plattform für Fachanwendungen. Denn letztendlich ist auch die scheinbar allmächtige Intelligence-Plattform Gotham im Kern auch das: Software, die Daten entsprechend aggregieren, visualisieren und automatisch analysieren kann. Kein mythischer sehender Stein, sondern vor allem Software und Algorithmen.

Der Knackpunkt bei Gotham ist aber nun, welche Automatismen, welche Ontologien und welche Technikfolgen sich Staaten dadurch einkaufen. Wir wissen es quasi nicht, weil alles um Gotham eher intransparent ist. Gerade im Bereich der inneren Sicherheit, bei dem es sehr schnell um sehr intensive Grundrechtseingriffe gehen kann, ist Software wie Gotham und die mit ihr verbundenen Algorithmen oder neudeutsch KI als eine potenzielle „Weapon of Math Destruction“ zu sehen – um den Titel eines Buches von Cathy O’Neil aufzugreifen.

Mit möglichen Vorurteilen behaftete allumfassende automatisierte Datenauswertung auf immer mehr bisher getrennten Daten, wie sie sich gerade in der aktuellen politischen Entwicklung zeigt, ist eben ein Thema, das in seinen Folgen gesamtgesellschaftlich betrachtet werden müsste – in der Diskussion um Palantir politisch aber nicht wird, wie die überhastete, heimliche Beschaffung in Baden-Württemberg zeigt.

Der wundersame Umgang mit Software in der politischen Diskussion

Die Welt der Fachanwendungen mag erst mal langweilig klingen, wir sollten diese Welt aber als Gesellschaft immer kritisch begleiten. Die Spannweite reicht vom schlecht rechnenden Dialogisierten Integrierten Personalverwaltungssystem „DIPSY-Lehrer“ in Baden-Württemberg zu Palantirs Gotham.

Bei Fachanwendungen gilt unabhängig von ihrem Zweck: Nicht alle sind in ihrer Wirkung bekannt, sollten es aber sein. Nicht alle sind transparent, sollten es aber sein. Nicht alle ihre Fehler und Vorurteile sind bekannt, sollten es aber sein. Nicht alle Nutzungen von Fachanwendungen sind ihrer Rechtmäßigkeit vollkommen klar umrissen und begrenzt, sollten es aber sein. Nicht alle ermöglichen eine zügige Anpassung an das freiheitlich demokratisch abgestimmte Handeln, sollten es aber ermöglichen. Keine Anwendung sollte antidemokratische Techmogule in irgendeiner Form unterstützen, ein paar tun es aber.

Dass es hier so eklatante Unterschiede gibt, zeigt, dass wir immer noch nicht verstanden haben, dass Software und ihre Wirkung inzwischen als Teil der Daseinsvorsorge und Grundlage unseres gesellschaftlichen Zusammenlebens gesehen werden muss – ob wir das wollen oder nicht. Wir sollten entsprechend verantwortlich mit dieser Erkenntnis umgehen.



Source link

Weiterlesen

Datenschutz & Sicherheit

Cyberangriff: Kundendaten von Air France und KLM entwendet


Wer kürzlich mit dem Kundenservice der Fluggesellschaften KLM oder Air France zu tun hatte, könnte in Zukunft unerfreuliche E-Mails erhalten. Entweder solche, in denen die Airlines davor warnen, dass die eigenen Daten von Cyberkriminellen entwendet wurden. Oder aber Phishing-Mails der letzteren, auf die auch in den Warnungen der Airlines hingewiesen wird.

Hintergrund: Bei einem Drittanbieter, der im Bereich Kundensupport für die beiden Airlines und ihre Tochtergesellschaften tätig ist, wurden persönliche Daten der Kunden gestohlen. Genauere Angaben macht KLM in seiner Pressemitteilung dazu nicht. Air France wird jedoch explizit auch erwähnt. KLM und Air France gehören beide zur selben Holdinggesellschaft Air France-KLM, was den Zusammenhang erklären dürfte.

Die internen Systeme von Air France und KLM sind demnach nicht betroffen. Auch wurden keine sensiblen Daten wie Passwörter, Reisedaten, Meilen aus dem Vielfliegerprogramm Fying Blue, Pass- oder Kreditkartendaten gestohlen, versichert KLM. Das Tech-Portal Bleeping Computer berichtet derweil unter Berufung auf die beiden Fluggesellschaften, dass Namen, E-Mail-Adressen, Telefonnummern, Informationen zum Prämienprogramm und zu jüngsten Transaktionen entwendet wurden.

KLM hat nach eigenen Angaben die niederländische Datenschutzbehörde informiert, Air France die französische. Das eigene IT-Sicherheitsteam habe sofort Maßnahmen ergriffen, um den unerlaubten Zugriff auf die Daten zu unterbinden und auch in Zukunft zu verhindern. Betroffene Kunden sollen nun informiert werden.


(nen)



Source link

Weiterlesen

Datenschutz & Sicherheit

Die Woche, als kein Sommerloch in Sicht war


Liebe Leser*innen,

nächste Woche endet unsere kleine Sommer-Spendenkampagne. Unser Ziel: Innerhalb von 30 Tagen möchten wir 300 Dauerspender*innen finden, um insgesamt 3.000 Euro zu sammeln (das macht im Durchschnitt 10 Euro monatlich pro Nase). Warum das ganze? Um unseren Kampf für digitale Freiheitsrechte auf eine stabile Grundlage zu stellen.

Ihr könnt euch das so vorstellen: Unser größter Posten jeden Monat sind die Personalkosten. 11 Monate im Jahr leben wir quasi über unsere Verhältnisse. Es kommen also 11 Monate im Jahr weniger Spenden neu herein, als wir Geld ausgeben. Erst im letzten zwölften Monat erhalten wir – wenn’s gut läuft – den erhofften und ersehnten Schub, damit der Laden weiterläuft.

Was würde mir (und uns allen im Team!) ein Stein vom Herzen fallen, wenn das etwas ausgeglichener wäre. Deshalb der Wunsch nach Dauerspenden. Lieber zwölf kleinere, monatliche Dosen übers Jahr verteilt als ein riskantes Spendenfinale zum Schluss.

Seit dem Start unserer Sommerkampagne sind schon mehr als 100 neue Dauerspender*innen hinzugekommen. Schön, dass ihr dabei seid und allerbesten Dank an Euch!!

Sprudelnde Nachrichten

Aber: Rund 1.700 Euro fehlen noch. Ihr könnt das jederzeit mit dem Counter auf unserer Website verfolgen. Es ist die türkisfarbene Box. Ob das in den verbliebenen Tagen noch zu schaffen ist? Stand Samstag sind es noch fünf Tage. Ich hoffe ja auf einen Last-Minute-Effekt! Wenn ihr was übrig habt: Helft uns dabei, diesen Counter nach unten zu treiben, und macht hier mit.

Letztes Jahr um die Zeit war der Sommer irgendwie anders. Es war heißer, und es war weniger los. Sommerloch, sagen Journalist*innen dazu. Dieses Jahr sprudeln die netzpolitischen Nachrichten munter weiter. Leider tritt dabei auch eine Menge Schmodder zutage.

Als hätte die EU mit der KI-Verordnung nicht längst klare Leitplanken gezogen, um biometrische Überwachung einzudämmen, hat das Haus von CSU-Innenminister Alexander Dobrindt eine Salve an Überwachungsvorhaben auf den Tisch geklatscht. Biometrische Suche nach Menschen im offenen Netz, sogar nach Zeug*innen? Was für eine furchtbare Idee.

Das finden auch mehrere zivilgesellschaftliche Organisationen, die diese Vorhaben in einem offenen Brief abwatschen. Lest hier die Zusammenfassung meiner Kollegin Chris.

Lasst euch nicht unterkriegen
Sebastian


2025-07-14
1330.12
111


– für digitale Freiheitsrechte!



Euro für digitale Freiheitsrechte!

 

Marketingagenturen und Content Creator predigen falsche Authentizität, Kreativität und Gemeinschaft. Die Bildermacher schaffen damit eine trügerische Wahrheit – und offenbaren uns zugleich etwas Wahres über unsere Gesellschaft.

Lesen Sie diesen Artikel: Community als Farce

Staatstrojaner dürfen nicht wegen einfacher Straftaten eingesetzt werden, ansonsten hat das Bundesverfassungsgericht Gesetze zur heimlichen Überwachung durch die Polizei weitgehend für verfassungskonform erklärt. Die Kläger:innen von Digitalcourage geben sich zufrieden, doch auch die Gewerkschaft der Polizei frohlockt.

Lesen Sie diesen Artikel: Teilerfolg gegen Staatstrojaner

Die weltweiten Großrechenzentrumskapazitäten werden von den Tech-Konzernen aktuell massiv ausgebaut. Ein starker Antrieb für Aufrüstung und Neubau von Rechenzentren ist generative KI, deren Umweltauswirkungen beim Energie- und Wasserverbrauch und bei den Elektroschrottbergen endlich mitbedacht gehören.

Lesen Sie diesen Artikel: „KI“-Platzhirsche bauen massiv aus



Source link

Weiterlesen

Beliebt