Connect with us

Datenschutz & Sicherheit

„Wir wollen gemeinsam darüber diskutieren, welche digitale Zukunft wir anstreben“



Heute startet in Bochum die zweitägige Konferenz Bits & Bäume NRW 26. Anne Mollen von der Universität Münster gehört zum Team der Organisator:innen. Gegenüber netzpolitik.org erläutert sie, was die Akteur*innen aus Wissenschaft, Zivilgesellschaft und Verwaltung von der Landespolitik fordern, warum es wichtig ist, Digitalisierung von Anfang an nachhaltig zu gestalten, und wie das die Abhängigkeit von Tech-Konzernen verringert.

netzpolitik.org: Anne Mollen, warum findet die Konferenz in NRW statt?

Anne Mollen: Es gab schon zwei Konferenzen in den Jahren 2018 und 2022, allerdings auf Bundesebene. Bereits damals ging es darum, die Themen Nachhaltigkeit und Digitalisierung zusammenzubringen. Aber die Bits-&-Bäume-Bewegung besteht aus vielen lokalen Zweigen, einer davon ist der nordrhein-westfälische. Uns vor Ort war schnell klar: Wir müssen auch die Landespolitik adressieren. Denn sie nutzt ihre politischen Handlungsspielräume nur unzureichend oder gar nicht.

Beim Bau von Rechenzentren Probleme gemeinsam betrachten

netzpolitik.org: In NRW baut Microsoft gerade Hyperscaler-Rechenzentren im Rheinischen Revier. Das Braunkohlegebiet soll zukünftig als Vorzeigeregion für strukturellen Wandel gelten. Was ist daran falsch?

Anne Mollen: So einiges. Der Bund für Umwelt und Naturschutz NRW hat etwa die Flächenversiegelung kritisiert, weil für die Rechenzentren nicht bereits brachliegende Flächen genutzt werden, sondern landwirtschaftliche Nutzflächen wegfallen.

Und natürlich geht es auch um den Energieverbrauch. Denn Microsoft hat wichtige Informationen nicht öffentlich gemacht. Zum Beispiel, wie sie den Bedarf an erneuerbaren Energien decken wollen. Solche fehlenden Informationen sind ein wiederkehrendes Muster. An anderen Orten sehen wir, dass Unternehmen dann klimaschädliches Gas zur Energiegewinnung einsetzen, wenn nicht ausreichend Grundlaststrom vorhanden ist.

Diese Intransparenz ist ein Problem. Wir wissen aus der Forschung, wie sich Rechenzentren etwa in Irland Zusagen für erneuerbare Energien holen, um sich klimaneutral zu präsentieren. Im Anschluss kommt es dann aber zu Verteilungskonflikten, weil Privathaushalte das Nachsehen haben. Deswegen fordern wir einen ganzheitlichen, nachhaltigen Strukturwandel, der lokale Akteur*innen stärkt.

netzpolitik.org: Aber profitieren strukturschwache Regionen nicht wenigstens von neuen Arbeitsplätzen?

Anne Mollen:
Microsoft hat versprochen, 450 Arbeitsplätze in der Region zu schaffen. Ich habe aber nicht herausgefunden, wie sie auf diese Zahl kommen.

Angaben aus den USA zeigen, dass pro Terawattstunde, die ein Rechenzentrum an Energie aufnimmt, in der Regel sehr wenige langfristige Vollzeitarbeitsplätze geschaffen werden. Kurzfristig entstehen natürlich Jobs, um die Rechenzentren hochzuziehen. Aber bei dem Bedarf, den wir im Rheinischen Revier mit dem Wegfall des Kohleabbaus haben, ist das ein Tropfen auf den heißen Stein.

Diese Transformationserzählung, dass Rechenzentren den Strukturwandel bringen und die auch die Landespolitik weiterträgt, ist hochproblematisch. Denn wenn man genauer hinschaut, wohin die Milliardeninvestitionen fließen, wird dieses Versprechen nicht eingelöst.

Microsoft hat Investitionen in Höhe von 3,2 Milliarden Euro zugesagt, die ins Rheinische Revier fließen sollen. Ein Großteil des Geldes wird aber für die Hardware der Rechenzentren aufgewendet. Die wird jedoch nicht in NRW hergestellt, im Zweifel nicht einmal in Deutschland.

Unabhängige Gutachten müssen Transparenz schaffen

netzpolitik.org: Was wäre denn die Alternative?

Anne Mollen:
Damit Prozesse transparenter sind, müssten den Unternehmen klare Auflagen gemacht werden. Es braucht verpflichtende unabhängige Gutachten zu den ökologischen Auswirkungen. Und die Unternehmen müssten nachweisen, wie sie Umweltschäden eindämmen wollen.

Außerdem sollten kommunale Akteur*innen massiv gestärkt und sensibilisiert werden, wenn es um Verhandlungen mit großen Playern wie Microsoft geht. Damit sie einschätzen können, was es bedeutet, wenn ein Konzern bei ihnen vor Ort ein Rechenzentrum aufmacht.

netzpolitik.org:
Aber reicht der Blick aufs Lokale?

Anne Mollen: Nein, die globale Perspektive entlang der Lieferketten ist natürlich ebenso wichtig. Werden Server so hergestellt und später entsorgt, dass ihre Einzelteile in einen Kreislauf überführt werden? Auch dafür sind verpflichtende Umweltgutachten wichtig.

Mit unseren politischen Forderungen gehen wir in die Breite. Und die Rechenzentren sind nur ein Aspekt von vielen. Ebenso setzen wir uns für partizipative Beteiligungsprozesse ein. In Chile können wir zum Beispiel sehen, wie lokale Proteste Wirkung zeigen. Dort hat die Ansiedlung von Microsoft-Rechenzentren die Wasserkrise massiv verschärft. Das Unternehmen ist daraufhin auf eine weniger wasserintensive Technologie umgestiegen. Und auch in Hessen hat lokaler Widerstand dazu geführt, dass ein Hyperscale-Rechenzentrum nicht gebaut wurde.

Deshalb fordern wir, dass die Zivilgesellschaft von vornherein eingebunden ist. Da stehen dann auch die kommunale Politik und die Landespolitik in der Verantwortung. Statt solchen Bodenwert leichtfertig an große Unternehmen abzugeben, könnten sie mehr Geld in digitale Souveränität investieren.

Selbstbestimmung statt digitale Abhängigkeiten fördern

netzpolitik.org: Digitale Souveränität ist ein gutes Stichwort. Was kann NRW hier aus eurer Sicht ausrichten?

Anne Mollen: Es ist wichtig, über alternative Formen der digitalen Infrastruktur zu sprechen. Und gerade Hochschulen verfügen über unabhängige digitale Infrastrukturen, die kommunale Rechenzentrumsbetreiber oder die Hochschulen selbst betreiben. Das Prinzip der digitalen Souveränität wird auf Grundlage von Open-Source-Anwendungen hier bereits seit rund 15 Jahren umgesetzt.

Wir sind communityfinanziert

Unterstütze auch Du unsere Arbeit mit einer Spende.

Aber auch bei generativer KI ist das Land NRW vorne dabei. Verschiedene Universitäten, auch bundesweit, hosten beispielsweise ein lokales großes Sprachmodell. Und es gibt das Projekt Open Source-KI.nrw. Das ist ein Servicezentrum, das KI-Infrastrukturen für Hochschulen und Forschungseinrichtungen anbietet.

Aber solche Angebote kosten Geld. Deswegen muss das Land NRW in Hochleistungsrechenzentren investieren, die diese KI-Dienste durch entsprechende Dauerstellen stützen.

Bisher gibt es landesweit noch Projekte, die zweigleisig unterwegs sind. Einige haben Schnittstellen zu kommerziellen Anbietenden. Langfristig sollten sich aber alle Akteur*innen zu souveränen Lösungen verpflichten, damit wir uns nicht in die nächste digitale Abhängigkeit begeben.

Denn die Abhängigkeit kostet auch. Gerade sind Lizenzkosten für kommerzielle KI-Modelle zwar noch massiv subventioniert. Forschende warnen aber davor, dass Lizenzkosten langfristig vermutlich deutlich höher ausfallen, als Investitionen in digitale Souveränität kosten würden.

Bürger*innen beteiligen, Forschung anhören, mit der Politik verbinden

netzpolitik.org: Lassen sich eure Forderungen auf andere Bundesländer übertragen?

Anne Mollen: Zunächst halten wir es für wichtig, auf Landesebene das Politikfeld nachhaltige Digitalisierung zu schaffen. Bisher ging es dort vor allem um die Frage, wie wir mit dem Einsatz digitaler Technologien Nachhaltigkeit erreichen können. Wir wollen aber die Perspektive etablieren, dass wir Digitalisierung gemeinsam und nachhaltig gestalten sollten.

Dabei darf die Landespolitik nicht allein in der Verantwortung sein, aber sie sollte neuen Ideen auch nicht im Wege stehen.

Wir wollen gemeinsam mit Menschen aus der Forschung und aus der Zivilgesellschaft darüber diskutieren, welche digitale Zukunft wir anstreben. Denn wir alle sollten die Möglichkeit haben, unsere digitale Zukunft zu gestalten, sei es an der Hochschule, in der Verwaltung oder auch im Verein.

Eine solche Zukunftsvorstellung, auf die wir hinarbeiten, können wir auch anderen Bundesländern anbieten. Unsere Hoffnung ist, dass unsere Forderungen eine Eigendynamik entwickeln und die Länder dann durch gute Beispiele voneinander lernen.



Source link

Datenschutz & Sicherheit

Oracle sichert Produktportfolio mit 481 Sicherheitsupdates ab


Oracle hat sein vierteljährlich erscheinendes Sicherheits-Update veröffentlicht. Insgesamt sind es 481 Patches, die gewissermaßen im gesamten Softwareportfolio Sicherheitslücken schließen. Oracle rät Admins, die Updates zügig zu installieren. Bislang erwähnt der Softwarehersteller keine laufenden Attacken.

Weiterlesen nach der Anzeige

In einer XXL-Liste finden sich die bedrohten Anwendungen und nun reparierten Versionen. Admins sollten diese Liste studieren, um die für sie relevanten Anwendungen zu identifizieren. Aus der Masse an Schwachstellen sind besonders „kritische“ Lücken in unter anderem Oracle Communications (CVE-2025-6965), E-Business Suite (CVE-2026-34275), Fusion Middleware (CVE-2025-68615) und MySQL (CVE-2025-15467) hervorzuheben. Durch das erfolgreiche Ausnutzen dieser Lücken können Angreifer Abstürze auslösen oder sogar Schadcode ausführen, um Systeme vollständig zu kompromittieren.

Das nächste Oracle Critical Patch Update ist für den 21. Juli geplant. Wenn Angreifer in der Zwischenzeit Zero-Day-Lücken ausnutzen, veröffentlicht der Softwarehersteller auch Sicherheitspatches außerhalb der Reihe.


(des)



Source link

Weiterlesen

Datenschutz & Sicherheit

Fachleute fordern: Bundesregierung muss KI auf Klima-Kurs bringen


Wie kann Künstliche Intelligenz ökologisch nachhaltiger und gleichzeitig zum Wettbewerbsvorteil für Deutschland und Europa werden? Das Bundesumweltministerium hat zu dieser Frage in der vergangenen Woche ein Gutachten von fünf Expert:innen veröffentlicht. Ihre klare Botschaft: Beides ist möglich, aber nur mit einem deutlichen Umsteuern in der KI-Politik.

Während die Bundesregierung gerade die Regeln zu Umweltschutz und Energieeffizienz von Rechenzentren lockern will, weil sie sich als Konkurrentin in einem KI-Wettrennen mit den USA und China wähnt, warnt das Gutachten unter anderem: „Regulatorische Änderungen mit eng gefasstem Fokus und kurzfristiger Perspektive können zu langfristigen Problemen führen und dazu, dass die Ziele der Energiewende verfehlt werden.“

Der Energiehunger der Künstlichen Intelligenz

Die Ausgangslage für nachhaltige KI ist aktuell gleich im doppelten Sinne düster: Zum einen ist klar, dass der Energieverbrauch durch Rechenzentren, die für die Entwicklung und den Betrieb sogenannter Künstlicher Intelligenz gebaucht werden, rasant steigt. Nach Schätzungen der Internationalen Energieagentur betrug er in 2024 bereits 415 Terawattstunden, was nur knapp unter dem Stromverbrauch von Frankreich liegt, also der siebtgrößten Volkswirtschaft der Welt (449 Terawattstunden in 2024). Um den Energiehunger der KI zu stillen, setzen die großen KI-Firmen neben erneuerbaren auch massiv auf fossile, umweltschädliche Formen der Energiegewinnung, insbesondere Gas.

Zum anderen ist aufgrund der großen Intransparenz der Branche weitgehend unbekannt, wie viel Strom und Wasser einzelne KI-Modelle oder Rechenzentren genau verbrauchen oder wie viele Treibhausgas-Emissionen sie verursachen. Auch die großen Versprechen, dass KI für nachhaltige Zwecke wie etwa intelligentes Energie-Management genutzt werden könne, warten überwiegend noch auf ihre Einlösung.

Die ausgewiesenen Expert:innen Udit Gupta, Philipp Hacker, Lynn Kaack, Emma Strubell und Aimee van Wynsberghe haben im Auftrag des Umweltministeriums deshalb zahlreiche Vorschläge gemacht, wie die Situation verbessert werden könnte. Sie sagen: KI und Nachhaltigkeit müssten nicht im Widerspruch stehen. Deutschland habe eine gute Ausgangslage, um bei nachhaltiger KI eine globale Führungsrolle einzunehmen.

Spezialisierte KI-Ansätze statt riesiger Modelle

Eine zentrale Empfehlung der interdisziplinären Expert:innen-Gruppe ist ein realistischerer Blick auf die Vor- und Nachteile unterschiedlicher KI-Ansätze.

Derzeit sei die Aufmerksamkeit auf die großen sogenannten General-Purpose-AI-Modelle (GPAI) konzentriert. Der englische Begriff lässt sich am besten als KI-Modelle mit allgemeinem Verwendungszweck übersetzen. Gemeint sind in der Regel generative Modelle wie GPT von OpenAI oder Claude von Anthropic. Diese Modelle sind gerade wegen ihres allgemeinen Problemlösungsanspruchs und der dahinterstehenden Technik des Reasonings, das logisches Schlussfolgern imitiert, besonders energieintensiv.

Klimaschädlich by Design

Daneben gebe es jedoch auch andere vielversprechende Ansätze wie etwa kleinere KI-Modelle, die speziell zur Erfüllung konkreter Aufgaben trainiert werden. Diese seien oft besser zur Erfüllung von Aufgaben in der Industrie geeignet, etwa für Predictive Maintenance oder Bilderkennung für Krebsforschung. Viele Aufgaben erforderten gar nicht die Fähigkeiten von Allzweckmodellen oder profitieren nicht einmal davon.

Je genauer man die Zielaufgabe für ein KI-Modell definieren könne, desto effizienter lasse es sich in der Regel gestalten. Die klare Empfehlung des Gutachtens: „Um den wirtschaftlichen Nutzen von KI zu maximieren und gleichzeitig ihren Ressourcenbedarf zu minimieren, ist es daher von entscheidender Bedeutung, Modelle entsprechend zu spezialisieren oder sie gezielt für bestimmte Aufgaben einzusetzen.“

Der Fokus auf kleinere und spezifische Modelle passe zum deutschen und europäischen KI-Ökosystem, das stärker von kleineren und mittleren Unternehmen als von Tech-Giganten geprägt sei. Solche Modelle müssten durch gezielte Investitionen, Förderungen und Public-Private-Partnerships vorangetrieben werden. Dann könnten sich Nachhaltigkeit und ökonomische Wettbewerbsfähigkeit gegenseitig verstärken.

„Die Zukunft ist offener, als wir denken“, so fasste Jurist Philipp Hacker von der Europa-Universität Viadrina die Hoffnung der Sachverständigen bei einer Vorstellung der Studie in Berlin zusammen. „Es ist nicht alternativlos, dass die GPAI-Modelle gewinnen.“ Die Anbieter der großen Modelle hätten bis heute kein tragfähiges Geschäftsmodell und ihre Modelle würden teilweise immer schlechter, Stichwort „Entshittification“, so Hacker.

Intransparenz als Kernproblem

Ein großes Problem bei einer nachhaltigeren Gestaltung der KI-Ökonomie ist dem Gutachten zufolge die massive Intransparenz der Branche. Weil entsprechende Informationen fehlen, könnten Nutzer:innen heute gar nicht das „am wenigsten problematische Modell“ auswählen, so Computerlinguistin Emma Strubell von der Carnegie Mellon University.

Die Intransparenz sei nicht nur ein Problem für private, sondern auch für betriebliche Anwender:innen, die sich ein Bild von der Effizienz machen müssten. Auflagen für die Umweltberichterstattung müssten deshalb dringend um verpflichtende, standardisierte, unabhängig überprüfte und öffentlich zugängliche Informationen zu den Folgen von KI über den gesamten Lebenszyklus ergänzt werden.

Die KI-Verordnung der EU enthalte hierzu beispielsweise nur rudimentäre Anforderungen, die erweitert werden müssten. Dabei sollten nicht nur Daten zum Energieverbrauch beim Training, sondern auch beim Gebrauch von KI-Modellen einfließen. Ebenso CO₂-Emissionen, die bei der Produktion spezialisierter Hardware wie etwa hochleistungsfähigen Grafikprozessoren entstehen.

Bislang halten KI-Firmen solche Daten unter Verweis auf Geschäftsgeheimnisse unter Verschluss. Das öffentliche Informationsinteresse überwiege hier jedoch, so das Gutachten: „Der dringende Bedarf an Daten für ein wirksames Ressourcenmanagement und den Umweltschutz überwiegt die potenziellen Wettbewerbsnachteile, die mit der Offenlegung von Kennzahlen verbunden sind, die indirekt mit der Modellgröße zusammenhängen.“

Darüber hinaus könnten Anbieter verpflichtet werden, ein „grünes Modell“ ihrer KI-Anwendungen anzubieten, das beispielsweise ohne rechenintensives Reasoning daherkomme, um Energieverschwendung durch unnötige Rechenoperationen zu vermeiden. Auch das staatliche Beschaffungswesen sollte als Hebel genutzt werden, um KI- und Cloud-Anbieter zu fördern, die auf Energieeffizienz, nachhaltige Energiequellen und öffentliche Transparenz setzen.

Regeln für Rechenzentren müssen verschärft werden

Auch Rechenzentren als wichtige KI-Infrastruktur stehen im Fokus des Gutachtens. Bei keiner Industrie steige der Energiebedarf derzeit so rasant an wie bei Rechenzentren, so Udit Gupta von der New Yorker Universität Cornell Tech bei der Vorstellung des Papiers. In bestimmten Regionen führe der Bau-Boom bereits heute zu Problemen mit der Energieversorgung. In Frankfurt am Main etwa gingen bereits 2022 knapp 30 Prozent des Stromverbrauchs auf das Konto von Rechenzentren.

Auch hier gehen dem Gutachten zufolge die aktuellen Berichts- und Transparenzpflichten für Betreiber nicht weit genug. Statt tatsächlicher Verbrauchsmessungen würden sie häufig lediglich Schätzungen basierend auf dem Design ihrer Anlagen übermitteln. Ohne solche Angaben könne der tatsächliche Bedarf an Rechenkapazität nicht realistisch eingeschätzt und der Bau neuer Anlagen volkswirtschaftlich sinnvoll geplant werden. Zahlen aus den Niederlanden hätten erst kürzlich gezeigt, dass Rechenzentren dort vermutlich nur zu einem Drittel ausgelastet seien.

Wir sind communityfinanziert

Unterstütze auch Du unsere Arbeit mit einer Spende.

Problematisch seien auch die zentralen Maßeinheiten für die Effizienz von Rechenzentren, der PUE-Wert, kurz für Power Usage Effectiveness, und der WUE-Wert, kurz für Water Usage Effectiveness. Beide Werte, die auch in den Nachhaltigkeitsberichten großer Rechenzentrumsbetreiber wie Amazon, Google oder Microsoft angegeben werden, geben keine Auskunft über den absoluten Verbrauch. Stattdessen sind es relative Effizienzwerte, was dazu führe, dass PUE und WUE sich zwar verbessern würden, der absolute Verbrauch jedoch drastisch steige, weil Einsparungen in immer noch größere Modelle investiert würden. Der PUE-Wert messe zudem nur den Energieverbrauch der Gebäude-Infrastruktur, etwa Kühlsystem und Beleuchtung, nicht den Verbrauch der tatsächlichen Energieinfrastruktur.

Wo sich lokaler Widerstand gegen den KI-Hype formiert

Um hier für Verbesserungen zu sorgen, müssten den Expert:innen zufolge die Transparenz- und Berichtspflichten für Rechenzentren deutlich verschärft werden. Hierzu müsste der DIN-Standard für Rechenzentren ebenso angepasst werden wie die Europäische Energieeffizienz-Richtlinie und das deutsche Energieeffizienzgesetz. Wichtig seien unabhängig auditierte Verbrauchsmessungen, die zudem mindestens in aggregierter Form öffentlich zugänglich sein sollten. Auch bei Rechenzentren müsse der ganze Lebenszyklus ins Reporting einbezogen werden: von den Emissionen, die bei der Herstellung von Servern entstehen, bis zum Elektroschrott, nachdem Hardware aussortiert wird.

Darüber hinaus könnten auch beim Design von Rechenzentren und der Energieversorgung große Fortschritte erzielt werden. So sollten etwa KI-Unternehmen verpflichtet werden, selbst für den Ausbau Erneuerbarer Energien in dem Maße zu sorgen, wie sie Strom verbrauchen. Rechenzentren sollten zudem Teil des Systems der CO₂-Bepreisung sein, damit Betreiber Folgekosten für die Umwelt nicht externalisieren können.

Außerdem sollte der Staat die Entwicklung energieeffizienter Rechenzentren fördern, die auf die Bedürfnisse der deutschen Wirtschaft spezialisiert sind. Auch die Abwärme von Rechenzentren sollte weiterhin verpflichtend genutzt werden müssen, Ausnahmen davon reduziert werden.

Auf Kollisionskurs

Die Liste der Vorschläge der Expert:innen ist noch deutlich länger und zeigt, wie groß die Möglichkeiten wären, KI und Rechenzentren nachhaltiger zu gestalten. Zum aktuellen Kurs der Bundesregierung passen sie jedoch gar nicht. Diese sieht Deutschland und Europa in einem KI-Wettrennen mit den USA und China und setzt deshalb auf den Ausbau von KI-Kapazitäten um jeden Preis.

Getrieben von Wirtschaftsverbänden wie BDI, Bitkom oder Eco hat Digitalminister Karsten Wildberger (CDU) eine neue Rechenzentrumsstrategie erarbeiten lassen, die im März vom Bundeskabinett beschlossen wurde. Sie sieht vor, die Rechenzentrumskapazitäten in Deutschland bis 2030 mindestens zu verdoppeln und die KI-Kapazitäten bis dahin sogar zu vervierfachen. Hierfür sollen Umweltstandards gesenkt, Berichtspflichten gelockert und Planungsverfahren beschleunigt werden.

Wirtschaftministerin Katharina Reiche (CDU) will zudem das deutsche Energieeffizienzgesetz so weit zurückfahren, dass es nur noch den Mindeststandards der entsprechenden EU-Richtlinie entspricht. Dabei haben Journalist:innen von Investigate Europe gerade erst aufgedeckt, wie erfolgreich große Tech-Konzerne gegen weitergehende Transparenzvorgaben in dieser Richtlinie lobbyiert hatten: Die EU-Kommission hat demzufolge bestimmte Abschnitte fast wortgleich von Microsoft kopiert, so dass die ohnehin schon schwammigen Kennzahlen zu Rechenzentren, die an Aufsichtsbehörden übermittelt werden müssen, nicht öffentlich gemacht werden dürfen.

Es ist nun also an Umweltminister Carsten Schneider (SPD), die Vorschläge der von ihm beauftragten Expert:innen in die Debatte mit seinen Kolleg:innen zu bringen. Ob er die KI-Politik auf Klima-Kurs bringen kann, wenn er argumentiert, dass Deutschland und Europa von nachhaltiger KI auch wirtschaftlich profitieren könnten?



Source link

Weiterlesen

Datenschutz & Sicherheit

Anthropics gefährliche KI Mythos: Unbefugte wohl mit Zugriff seit dem ersten Tag


Eine Reihe von Personen hat sich angeblich unbemerkt Zugang zu Anthropics leistungsfähigen und regelrecht gefährlichen KI-Modell Claude Mythos Preview verschafft, ohne dass die KI-Firma davon etwas bemerkt hat. Das berichtet die Finanznachrichtenagentur Bloomberg, die sich die Benutzung des Werkzeugs demnach hat zeigen lassen. Die Unbekannten tauschen sich demnach in einem privaten Kanal auf Discord aus, es handle sich um Personen, die sich auch vorher schon der Suche nach nicht veröffentlichten KI-Modellen gewidmet haben. Mythos sei von ihnen nicht für Aufgaben mit Bezug auf Cybersicherheit genutzt worden, stattdessen würde sie testen, wie sich das KI-Modell bei harmlosen Aufgaben schlägt – die Rede ist beispielsweise vom Bauen einer Website.

Weiterlesen nach der Anzeige

Anthropic hat Mythos vor zwei Wochen vorgestellt und dazu erklärt, dass das Modell so gefährlich sei, dass es nur Firmen zur Verfügung gestellt wird, die an IT-Sicherheit arbeiten. Das KI-Modell habe schon tausende hochriskante Zero-Day-Lücken identifiziert, darunter auch welche in allen großen Betriebssystemen und jedem Internetbrowser. Gleichzeitig sei die KI-Technik deutlich häufiger in der Lage, einen funktionierenden Exploit für solche Lücken zu entwickeln, teilweise würden dafür sogar mehrere in Verbindung miteinander ausgenutzt. Im Rahmen von „Project Glasswing“ soll die Branche nun daran arbeiten, damit gefundene Lücken abzudichten, bevor andere KI-Modelle zur Verfügung stehen, mit denen auch Kriminelle viel leichter Lücken finden und vor allem auch ausnutzen können.

Der unbefugte Zugriff auf Mythos wurde laut Bloomberg bereits an dem Tag erlangt, an dem Anthropic das KI-Werkzeug vorgestellt hat. Dazu habe sich die Gruppe verschiedener Taktiken bedient, so habe eine Person als Angestellter eines Dienstleisters Zugang zu Anthropics Werkzeugen. Vorher habe die Gruppe eine „fundierte Vermutung“ über die Internetadresse von Mythos angestellt – basierend auf anderen URLs von Anthropic. Die Unbekannten hätten Mythos seitdem regelmäßig benutzt, so wie andere KI-Modelle vorher. Dabei gehe es ihnen aber nicht darum, „damit Chaos zu stiften“. Bloomberg beruft sich bei dem Bericht durchgehend auf eine der Personen, die aber anonym gehalten wird.

Anthropic hat demnach zugesichert, die Behauptung prüfen zu wollen, aber gleichzeitig die Tragweite des Zugriffs heruntergespielt. Es gebe keine Hinweise, dass der Zugriff über die Umgebung eines Drittanbieters hinausgegangen sei oder Auswirkungen auf eigene Systeme habe. Dabei legt die Entdeckung nahe, wie schwer es der Firma fallen dürfte, den Zugriff auf Mythos unter Verschluss zu halten. Das KI-Modell wurde zur Vorstellung als so leistungsfähig beschrieben, dass nicht nur die IT-Sicherheitsindustrie aufgeschreckt wurde. In immer mehr Ländern beschäftigen sich Regierungen mit der Bedeutung des neuen Werkzeugs, und vor allem in der Finanzindustrie wurden Prüfungen angeordnet. Sollte Mythos in falsche Hände fallen, könnten die Folgen für die Cybersicherheit verheerend sein.


(mho)



Source link

Weiterlesen

Beliebt