Connect with us

Künstliche Intelligenz

Die Lehren aus dem C2PA-Debakel – Fotonews der Woche 39/2025


Mit der Firmware 2.00 für die Nikon Z6 III signiert die Kamera Bilder, die nicht mit ihr aufgenommen wurden. Das ist genau das, was die „Content Authenticity Initiative“, gegründet unter anderem von Adobe 2019, verhindern wollte: Eine Kamera, die Bilder, die nicht aus ihr stammen, als quasi „echt“ ausgibt. Denn dass ein Foto mit einer bestimmten Kamera aufgenommen wurde, von wem, wann und wo genau, und das kryptografisch zu belegen, ist die ganze Idee hinter dem, was unter Namen wie CAI, C2PA oder Content Credentials gemeint ist. Die vielen Bezeichnungen, die da seit ganzen sechs Jahren unterwegs sind, zeigen schon, wie uneinheitlich die Branche agiert – und warum CAI, bleiben wir bei diesem Namen, nicht aus dem Quark kommt.

Was insbesondere Pressefotos, die in Sekunden weltweit verteilt werden, heute fehlt, ist die digitale Provenienz, also der Herkunftsnachweis. Dabei geht es nicht um absolute Fälschungssicherheit, die kann es nicht geben. Jedes System hat Lücken, Sicherheit ist ein Prozess, nicht etwas, das man durch eine einmalige Aktion wie den Kauf einer bestimmten Kamera herstellen kann. Aber am Anfang der Kette von der Aufnahme eines Bildes muss man irgendjemandem oder irgendetwas trauen, das ist die „chain of trust“. Und bei CAI, das oft auch als „Echtheitssiegel für Fotos“ bezeichnet wird, ist das die Kamera.

Darum wiegt Nikons Firmware-Bug auch ziemlich schwer, wenn es um das System CAI an sich geht: Wenn die Vertrauenskette schon im allerersten Glied massive Schwächen hat, ist es völlig egal, wie stabil der Rest ist. Da CAI noch kaum verbreitet ist, und es Wochen dauerte, bis das Ausmaß des Problems bekannt wurde, dürfte der tatsächliche Schaden, also Fake-Fotos, zwar gering sein. Wie eine falsch signierte Aufnahmen mit der Z6 III entsteht, und was der zeitliche Ablauf war, zeigt unsere ausführliche Meldung.

Dass das System unausgereift ist, wurde dadurch nämlich deutlich sichtbar. Darauf weist auch Michael J. Hußmann bei Docma hin: „Man hat nur eine einzige Chance, die Entstehung eines Bildes durch eine Aufnahme mit einer bestimmten Kamera fälschungssicher zu dokumentieren, nämlich während der Speicherung der Bilddatei in der Kamera.“ Und das ist der Punkt: Der Anfang der Kette. Alles, was danach kommt, Bearbeitung, Ausschnitt, Größenänderung, lässt sich – das ist im Workflow von C2PA vorgesehen – dokumentieren. Der Ursprung ist aber die Aufnahme an sich und deren Provenienz.

Weil ein solcher Fehler, wie bei Nikon mit der Firmware verursacht, aber offenbar bisher nicht bedacht wurde, blieb dem Unternehmen nur eine drastische Reaktion: Die Prüfung der C2PA-Signatur durch Nikons Onlinesysteme ist bis auf Weiteres ganz abgeschaltet. Und zwar für alle Nikons, nicht nur die Z6 III. Andere Prüfstellen, das zeigte der Entdecker Adam Horshack auch bereits, akzeptieren die verfälschten Bilder weiterhin. Darum schrieb ganz richtig auch Petapixel: Nikon kann das Problem allein nicht lösen.

Denn wie auch andere digitale Sicherheitsmechanismen basiert C2PA auf Zertifikaten. Das kennt man, vereinfachtes Beispiel: Wenn sie diese Kolumne gerade mit einem handelsüblichen Browser lesen, stellt der irgendwo ein kleines Schloss dar. Das sagt, dass die Verbindung zwischen Ihrem Gerät und dem Server – heise.de – tatsächlich zu unserem Angebot führt. Die Verbindung ist zwischen dem Gerät und uns verschlüsselt. Dafür hat der Server ein Zertifikat, das wir regelmäßig erneuern müssen, und das auch zurückgerufen werden kann. Wie gesagt, alles etwas vereinfacht.

Und ein globaler Rückruf dieser Zertifikate ist wohl bei C2PA nicht vorgesehen. Ebenso, dass die Kamera selbst darauf hinweist, dass ihr Zertifikat vielleicht ungültig oder veraltet ist. Das ist, neben Nikons eigenem Problem, das, was die ganze Allianz für C2PA, eben die CAI, lösen muss. Dass Nikon ein Firmware-Update bringt, und Fotos aus einer Z6 III mit Firmware 2.00 nirgendwo mehr akzeptiert werden, ist zwingend nötig.

Sinnvoll wäre aber auch noch, und da werden wir dann endlich mal konstruktiv, wenn die zahlreichen Mitglieder der CAI im Verbund neue Firmware-Versionen auf solche Lücken prüfen. Konkurrenz unter den Firmen muss da beiseitegelegt werden, auch wenn die Markteinführung einer neuen Kamera oder ein Update für C2PA-Funktionen länger dauert. Die Zerfaserung der CAI, die wir schon vor gut anderthalb Jahren festgestellt haben, muss endlich aufhören. Das ganze System muss so sicher wie möglich sein, und nicht schon bei der Aufnahme ausgehebelt werden können.

Um es auszuhebeln, reicht es im Übrigen nicht, wie vielfach behauptet, einen Monitor, eine Leinwand oder einen Ausdruck abzufotografieren. Es geht, siehe oben, um die komplette Provenienz: Wer hat das Bild wo, wann und mit welchem Gerät gemacht? Das wird verschlüsselt mit den Bilddaten in der Kamera bei Aufnahme gespeichert. Und später mit Servern abgeglichen. Wenn Max Mustermann ein Foto des US-Präsidenten, aufgenommen von seinem Monitor in Hintertupfing, veröffentlicht, dann hat das wenig Glaubwürdigkeit. Und gar keine, wenn solche Daten fehlen.

Wenn dagegen ein namentlich bekannter Berufsfotograf von einer großen Agentur dieses Bild veröffentlicht, aufgenommen vor dem Weißen Haus, dann ist allein das schon ein Hinweis auf Authentizität. Und erst recht, wenn die Daten der Aufnahme kryptografisch gesichert sind. Ein Grund, warum es C2PA braucht, ist ja, dass sich EXIF-Daten beliebig verändern lassen, ohne dass der Verlauf nachprüfbar festgehalten würde. Im Übrigen speichern C2PA-Kameras oft auch viel mehr Daten als per EXIF, teilweise auch Informationen des Autofokus für die Tiefe der Elemente in einem Bild. Darauf wies kürzlich Sony hin.

Nach diesem schwierigen Thema ist ein bisschen Entspannung angesagt. Also blicken wir doch in den Himmel, oder vielmehr, lassen Astrofotografen das tun. Denn der „Astrophotography Prize 2025“ wurde in der vergangenen Woche vergeben. Wenn man die Galerie der Bilder bei DPreview im Vollbild ansieht – unser Long Click zum Wochenende – stehen da auch die Aufnahmedaten, natürlich nicht per C2PA signiert, aber mit Namen der Fotografen. Alternativ gibt es einen Long Watch von knapp einer Stunde auf YouTube von der Preisverleihung mit Kommentaren der Juroren zu den wunderschönen Bildern.


(nie)



Source link

Künstliche Intelligenz

Gigawattstunden-Netzspeicher wird in Brandenburg gebaut


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Vom fossilen zum erneuerbaren Energieort: Im Jänschwalde bei Cottbus soll ein riesiger Stromspeicher entstehen. Er wird zu den größten Akkumulator-Anlagen dieser Art weltweit gehören.

Weiterlesen nach der Anzeige

Die GigaBattery Jänschwalde 1000 soll Strom aus Solar- und Windkraftanlagen speichern und in Zeiten, wenn beide nicht zur Verfügung stehen, ins Netz speisen. Die Speicherkapazität soll vier Gigawattstunden betragen. Das reiche aus, um über 1,6 Millionen Haushalten vier Stunden lang mit Strom zu versorgen, teilt der Energieversorger LEAG mit. Der Speicher soll eine Leistung von 1 Gigawatt liefern, die Hälfte dessen, was das nahegelegene Braunkohlekraftwerk Jänschwalde bereitstellt.

Das Projekt ist eine Kooperation von LEAG und Fluence Energy GmbH. Die deutsche Tochter des US-Unternehmens liefert Smartstack-Speichermodule, die Lithium-Eisenphosphat-Zellen nutzen, und richtet ihn ein. Zudem übernimmt Fluence die Systemintegration der elektrotechnischen Anlagen. Siemens schließlich liefert die Schaltanlage für den Anschluss an das 380-Kilovolt-Stromnetz.

Die Anlage gehört zu LEAGs Projekt GigawattFactory: Der Energieversorger will an seinen alten Kraftwerks- und Tagebaustandorten in der Lausitz eine neue Energieinfrastruktur im Gigawattmaßstab aufbauen, mit Wind-, Solaranlagen, Gaskraftwerken und Speichern. Der Braunkohleabbau in Jänschwalde wurde erst Ende 2023 eingestellt. Auf der rekultivierten Fläche des Tagebaus entsteht ein Solarpark, dessen erster Bauabschnitt eine Spitzenleistung von rund 133 Megawatt haben wird.

Baubeginn für den neuen Speicher ist voraussichtlich im Mai oder Juni 2026. Ende 2027 oder Anfang 2028 könnte der Speicher in Betrieb gehen, wie eine LEAG-Sprecherin dem PV Magazine gesagt hat.

Der Speicher in Jänschwalde könnte vorübergehend der mit Abstand größte in Deutschland werden. Die aktuell größten Netzakkus haben Kapazitären von rund drei Gigawattstunden. Größere sind in Bau. In Förderstedt in Sachsen-Anhalt entsteht ein Stromspeicher mit einer Kapazität von 714 Megawattstunden. Wenn er fertig ist, wird er der größte deutsche Akkumulator sein.

Weiterlesen nach der Anzeige


(wpl)



Source link

Weiterlesen

Künstliche Intelligenz

5,5 Milliarden Euro: Googles „BIP-Booster“ für KI in Deutschland


Google hat am Dienstag in Berlin seine bislang größten Investitionen in Deutschland angekündigt: 5,5 Milliarden Euro bis 2029. Diese fließen in den massiven Ausbau der Infrastruktur für Künstliche Intelligenz (KI), neue Rechenzentren sowie innovative Projekte für erneuerbare Energien und Abwärmenutzung. Philipp Justus, Deutschlandchef, hob die Dimension des Vorhabens hervor: Es gehe um 5,5 Milliarden Euro bis 2029, „mehr als fünfmal soviel als 2020“ bei der jüngsten Initiative. Öffentliches Geld sei nicht dabei.

Weiterlesen nach der Anzeige

Der Chef von Google Zentraleuropa kündigte den Bau eines „hochmodernen Cloud-Rechenzentrum“ im hessischen Dietzenbach und den Ausbau des bestehenden in Hanau an. Der Einsatz bekräftige Googles Engagement für „langfristiges Wachstum in Deutschland“ und werde „insgesamt jedes Jahr 9000 Arbeitsplätze“ hier sichern. Dabei handle es sich um „klassische Multiplikator-Effekte“: wenn ein Unternehmen investiert, entstünden bei Zulieferbetrieben weitere Jobs.

Die Republik bezeichnete Justus als einen „attraktiven Standort für KI, weil wir viele Unternehmen hier haben, die über einen sehr großen Datenschatz verfügen“. Google wolle die „Rechenpower näher an die deutsche Wirtschaft, den Mittelstand bringen“. Er erwähnte zudem, dass es bereits die Google-Cloud-Region Berlin-Brandenburg gäbe, die „live“ sei, wenn auch ohne eigenes Rechenzentrum.

Der Aspekt der Nachhaltigkeit spiele eine zentrale Rolle, unterstrich Marianne Janik, Leiterin Google Cloud Nordeuropa. Der US-Konzern setze in Dietzenbach „ganz neue Maßstäbe“. Geplant sei das „erste Wärmerückführungsprojekt für mehr als 2000 Haushalte“, wofür sich das Unternehmen mit dem lokalen Fernwärmeanbieter verständigt habe. Die Kühlung erfolge mithilfe von Trockenluft, um den Wasserverbrauch auf ein Minimum zu reduzieren. Ein weiteres Ziel sei, für die Stromversorgung „bis 2030 in allen Netzen rund um die Uhr CO₂-freie Energie zu nutzen“. Sie betonte die Effizienz der neuen Technologie: Sie biete „viermal soviel Rechenleistung“, verbrauche aber „84 Prozent weniger Energie als ein durchschnittliches Datencenter. Das erste Modul solle 2027 in Betrieb gehen.

Zum Thema digitale Souveränität für Europa, für den just ein US-Hyperscaler sorgen soll, merkte Janik an: Diese Entwicklung brauche „auch Infrastruktur“. Google biete bereits drei Möglichkeiten an, bei denen Kunden wählen könnten, „wie viel digitale Souveränität sie haben wollen“. Die Managerin verwies auf eine bestehende Kooperation mit dem Bundeswehr-IT-Haus BWI, die allerdings heftig umstritten ist. Kristina Sinemus (CDU), hessische Ministerin für Digitalisierung und Innovation, bestätigte: „Wir haben nicht automatisch die Daten alle abgegeben in die USA.“ Verträge könnten so geschlossen werden, dass Datennutzung allein in Deutschland und Europa erfolge. Kritiker verweisen dagegen darauf, dass die US-Gesetze Behörden in den USA auch Zugriffsrechte in Deutschland und Europa gäben.

Weiterlesen nach der Anzeige

Die Eignung seiner Kommune für das Großprojekt malte Dieter Lang, Bürgermeister der Gemeinde Dietzenbach aus, die er als kinderreichste Stadt Hessens bezeichnete. Der Bau sei „jetzt schon mit einer ganzen Reihe von Superlativen verknüpft“. Der SPD-Politiker erinnerte daran, dass das Gebiet bereits in den 1970er Jahren die „größte städtebauliche Maßnahme der Bundesrepublik“ darstellte. Heute seien die Voraussetzungen in diesem „Reallabor“ ideal: „Für Rechenzentrum brauchen Sie Fläche, die ist in Dietzenbach vorhanden.“ Zudem sei dank der Bundesnetzagentur „exklusiv für Betreiber Starkstrom verlegt“ worden, unter anderem mit neun 110-kV-Leitungen.

Lang zeigte sich zuversichtlich: Das Rechenzentrum sei ein „Meilenstein in der nachhaltigen Architektur, eingepackt in die Natur“. Es erfülle „in vielen Aspekten unser Klimaanpassungskonzept“. Die Bagger seien schon am Rollen. Alles spreche dafür, „dass wir 2027 fertig sind“.

Bundesfinanzminister Lars Klingbeil (SPD) wertete die Investition als „wichtiges Signal an den Standort Deutschland“. Die schwarz-rote Koalition wolle das Land modernisieren, Arbeitsplätze sichern und neue schaffen sowie „attraktiver machen für private Investitionen“. Die Entscheidung eines „internationalen Top-Players“ sei ein wichtiger Impuls für die „klimaneutrale Transformation“ und stärke den High-Tech-Standort. Der Vizekanzler mahnte jedoch: „Einzelne Erfolgsmeldungen reichen uns nicht aus.“ Entscheidend seien Strukturreformen, niedrigere Energiepreise und weniger Bürokratie.

Sinemus sieht die Investition als einen „BIP-Booster“. Sie unterstrich, dass die Rhein-Main-Region mit dem Beginn des Internetknotens DE-CIX bereits europaweit Platz 1 bei Rechenzentren sei und das Rückgrat der digitalen Wirtschaft in Europa bilde.

Das Vorhaben wirft aber auch Bedenken rund um den steigenden Energieverbrauch, dadurch nötige CO₂-Ausgleichszertifikate und mangelnde Transparenz auf. Julian Bothe, Manager Klimaschutz & KI bei AlgorithmWatch, rügt, dass solch große Investitionen kluge regulatorische Rahmenbedingungen benötigten. Andernfalls drohe eine stärkere Abhängigkeit von fossilen Energien und den nicht überprüfbaren Versprechen der großen Tech-Konzerne.

Google erklärt, den stündlichen Energieverbrauch seiner Rechenzentren aus eigens erzeugten erneuerbaren Energien decken zu wollen. Zahlen für Deutschland aus 2024 zeigen laut AlgorithmWatch aber lediglich eine Abdeckung von 68 Prozent bei stundenweiser Betrachtung; der Rest stammte demnach aus fossilen Quellen.

Google veröffentlicht zwar kumulierte Prozentzahlen zur Nutzung der Erneuerbaren in Deutschland. Diese seien aber weder unabhängig überprüfbar, noch gebe der Konzern die Gesamtsummen des Energieverbrauchs aller seiner Rechenzentren im Land bekannt, moniert Bothe. Zudem scheine Google seiner Verpflichtung aus dem Energieeffizienzgesetz (EnEfG), den Energieverbrauch selbst betriebener Rechenzentren zu veröffentlichen, nicht nachzukommen. Unbekannt sei auch der Energieverbrauch durch Kapazitätsmieten in Rechenzentren anderer Betreiber.

Angesichts des bevorstehenden Wachstums von Rechenzentren hält Bothe eine starke Regulierung für unverzichtbar. Er spricht von einem „fatalen Signal“, dass die Bundesregierung das EnEfG quasi abschaffen wolle. Damit gefährde die Exekutive die Planungssicherheit und riskiere das Scheitern ihrer eigenen Nachhaltigkeitsziele.


(mki)



Source link

Weiterlesen

Künstliche Intelligenz

GEMA-ChatGPT-Urteil: Das kann kein Zufall sein!


Wer dem Laien erklärt, wie KI-Modelle funktionieren, erntet oft ungläubiges Staunen: Dass der Trick hinter der KI einfach nur Statistik sein soll, dass dem keine Seele, kein Sinn und Verstand innewohnt, ist vielen schier unbegreiflich. Wie kann dieses Ding denn dann in zusammenhängenden Sätzen zu einem sprechen? Oder sogar sinnvolle, gar inspirierende Dinge von sich geben?

Weiterlesen nach der Anzeige

Über allem thront gar eine Frage, die für den Menschen als Spezies ziemlich unangenehm klingt: Sind wir vielleicht in weiten Teilen so berechenbar, dass ein Computer unsere Sprache, unser Wissen und unsere Werke einfach mal eben so in Sekundenschnelle nachbilden kann?


Eine Analyse von Malte Kirchner

Eine Analyse von Malte Kirchner

Malte Kirchner ist seit 2022 Redakteur bei heise online. Neben der Technik selbst beschäftigt ihn die Frage, wie diese die Gesellschaft verändert. Sein besonderes Augenmerk gilt Neuigkeiten aus dem Hause Apple. Daneben befasst er sich mit Entwicklung und Podcasten.

Das Landgericht München verneinte jetzt in einem Urteil den statistischen Zufall. Zumindest im Falle von neun bekannten Liedern kam es zu dem Ergebnis, dass die KI nicht rein zufällig genauso wie die Künstler auf die nahezu identischen Texte gekommen sein kann. So hatte es OpenAI als Herausgeber von ChatGPT und Beklagte behauptet. Die Texte müssten offenbar „memorisiert“ sein, sagt hingegen das Gericht und folgt damit der deutschen Verwertungsgesellschaft GEMA als Klägerin.

Vor allzu dramatischen Folgenabschätzungen sollte man sich im Moment noch hüten: Das Urteil ist nicht rechtskräftig, und es ist eines von diversen Verfahren, die derzeit in verschiedenen Teilen der Welt gegen die KI-Anbieter angestrengt werden. Vermutlich werden wir in einigen Jahren Grundsatzurteile sehen, vielleicht auch neue Gesetzgebungen. Fest steht aber: Den von der KI-Branche erhofften Durchmarsch durch die Gerichte als Sieger wird es nicht geben.

Weiterlesen nach der Anzeige

Und dieser Zwischenschritt ist für die KI-Branche sehr wohl einschneidend. Das Münchener Urteil rüttelt an deren Selbstverständnis, dass KI grundsätzlich etwas Gutes für die Menschheit ist. Etwas, gegen das die Allgemeinheit – hier vertreten durch die Gerichte – doch nichts haben kann, weil es die Gesellschaften weiterbringt. Gerade bei OpenAI liegt dieser Gedanke in der DNA: Als gemeinnützige Organisation geschaffen, nahm sich OpenAI vor, die künstliche Intelligenz zum Wohle der Menschheit zu entwickeln.

In diesem Bewusstsein wurde das Wissen der Menschheit bedenkenlos aufgesogen, um es allen zur Verfügung zu stellen. Dafür zu bezahlen, kam den Machern zunächst nicht in den Sinn. Zumal die KI bis heute mit Training und Rechenleistung immens viel mehr Geld kostet, als sie erwirtschaftet. Nur durch große Mengen Wagniskapital und Investitionen aus der IT-Branche ist sie lebensfähig und zu dem geworden, was sie heute ist.

Aber wie in vorausgegangenen digitalen Räuschen, die durch neue Technologie ausgelöst wurden, sind es einmal mehr die Urheberrechte, die die digitalen Überflieger vom Himmel geholt haben. Immer wieder hat es in den vergangenen Jahren und Jahrzehnten die Fälle gegeben, dass Technik das, was andere Menschen schaffen, freier zugänglich macht. Diese digitale Entfesselung aus den vorher begrenzten analogen Möglichkeiten ist zweifellos ein Fortschritt. Doch am Ende wollen und müssen die Menschen, die etwas erschaffen, auch weiterhin von etwas leben. Die Freude über die neuen Möglichkeiten und über die größere Reichweite sind für sie nicht auskömmlich. Da nun die KI-Anbieter etwas mit ihren Werken erschaffen, erscheint es erstmal legitim, dass sie von ihnen einen Lohn wollen. Genauso legitim ist es allerdings, zu fragen, was Urteile wie das Münchener mit der KI machen.

Erste Experten argwöhnen schon, es könnte gar die Löschung ganzer Modelle im Raum stehen, wenn es den KI-Anbietern nicht gelingt, das beanstandete Wissen irgendwie herauszufiltern oder zu -schneiden. Zu diesem Schlimmstfall muss es aber gar nicht kommen. Es könnte schon genügen, dass sich die KI künftig viel wortkarger, viel restriktiver und ergebnisloser präsentiert, sodass Sinn und Zweck einer ganzen Branche infrage gestellt werden.

Dann lizenziert doch einfach die Inhalte, möchte man der Branche zurufen. Das findet teilweise heute auch schon statt. Aber in einer Branche, die massiv Geld verbrennt, in der vagen Hoffnung, irgendwann als erste die Allgemeine Künstliche Intelligenz, also die wirkliche KI, zu erfinden, ist das wohl eher ein Spiel auf Zeit als eine nachhaltige Lösung.

Es könnte natürlich auch sein, dass Europa mal wieder einen Sonderweg beschreitet. Die Urteile könnten, wenn sie hier anders als im Rest der Welt gefällt werden, in die technische Isolation führen. Wenn aber US-amerikanische Gerichte und solche in Ländern außerhalb der EU nicht grundsätzlich anders urteilen, werden sich OpenAI und Co. einige grundlegende Zukunftsgedanken machen müssen.

Technische Lösungswege versprechen auf den ersten Blick nur halbwegs Abhilfe: Da gibt es zum Beispiel die „Differential Privacy“, eine Technik, die sicherstellt, dass einzelne Trainingsdaten nicht mehr aus dem Modell extrahiert werden können. Das funktioniert prinzipiell, führt aber häufig zu schlechteren Modellergebnissen. Bei der „Constitutional AI“ kann sich ein Modell selbst maßregeln. Auch hier sind Wenn und Aber buchstäblich vorprogrammiert. Und „Machine Unlearning“ wäre zwar ein Weg, urheberrechtlich Geschütztes zu löschen. Aber wenn es nicht bei neun Liedern von Herbert Grönemeyer und Helene Fischer bleibt, fragt sich früher oder später: zu welchem Preis?

Die Urheber, vertreten durch die GEMA, gehen für den Moment erstmal mit dem guten Gefühl aus dem Gerichtssaal, dass ihre Belange überhaupt in der KI-Welt eine Rolle spielen. Und die KI-Anbieter wie OpenAI, Google, Anthropic, xAI und DeepSeek werden daran erinnert, dass wichtige Grundsatzfragen nicht einfach durch disruptives Mit-dem-Kopf-durch-die-Wand-gehen aus der Welt geschafft werden können.

Am Ende steht ein fundamentales Dilemma zwischen moralischem Rechthaben (Urheber) und drohender ökonomischer Überforderung (KI-Branche). Und bezeichnenderweise kann die von uns befragte KI auch keinen Ausweg aufzeigen, wie beides in Einklang gebracht werden soll. Das kann kein Zufall sein.


(mki)



Source link

Weiterlesen

Beliebt