Connect with us

Datenschutz & Sicherheit

Threema wird quantensicher: Partnerschaft mit IBM Research


Der Schweizer Messenger Threema soll quantensicher werden. Hierzu ist das Unternehmen eine Partnerschaft mit IBM Research eingegangen, wie Threema mitteilte. Durch frühzeitige Absicherung der Chats soll erreicht werden, dass diese rückwirkend nur begrenzt entschlüsselt werden können, sobald Quantencomputer über die nötige Zahl fehlerfreier Qubits verfügen.

Weiterlesen nach der Anzeige

Die Sorge, die Sicherheitsforscher umtreibt, heißt: „Harvest Now, Decrypt Later“. Wer mit heutigen Methoden verschlüsselte Kommunikation „erntet“, könnte sie später aufschließen, um daraus Kapital zu schlagen. Aus diesem Grunde gibt es mit Signal und Apple iMessage erste Messengerdienste, die bereits auf Post-Quanten-Kryptografie setzen. Threema war hier bislang noch außen vor, obwohl die Schweizer die Sicherheitsversprechen hoch ansiedeln. Eine Analyse der Deutschen Gesellschaft für Auswärtige Politik (DGAP) im November 2024 kam zum Ergebnis, dass der Messenger ähnlich wie WhatsApp, Telegram und andere „quantenunsicher“ ist.

Eingesetzt werden soll künftig der Algorithmus ML-KEM – ein neues Verschlüsselungsverfahren, das auch Quantencomputern standhält. Er wurde maßgeblich von IBM-Forschern entwickelt und im Sommer 2024 vom US-Standardisierungsinstitut NIST offiziell zertifiziert. Die Idee ist nicht, die bisherige Verschlüsselung zu ersetzen, sondern sie mit dem neuen Verfahren zu kombinieren – ein sogenannter hybrider Ansatz.

Signal setzt auf „PQXDH“ (Post-Quantum Extended Diffie-Hellman) und schützt den Beginn einer Unterhaltung vor Quantencomputern, danach läuft die Verschlüsselung aber klassisch weiter. Apple geht mit PQ3 weiter und erneuert den Quantenschutz auch während laufender Chats regelmäßig – so erholt sich die Verbindung automatisch, selbst wenn ein Schlüssel kompromittiert wurde. Threema hat beides noch nicht, kündigt aber mit IBM genau das an – wie tiefgreifend die Umsetzung wird, ist noch offen.

IBM Research ist hier kein zufälliger Partner. Die Kryptografen des Konzerns haben zwei der drei neuen NIST-Standards selbst mitentwickelt. IBM betreibt zudem das sogenannte „Quantum Safe“-Programm, das Unternehmen bei der Migration auf quantensichere Infrastruktur begleitet.

Weiterlesen nach der Anzeige

Einen konkreten Zeitplan oder eine fertige Implementierung gibt es noch nicht. Die Partnerschaft ist derzeit auf Forschungsebene. Außerdem steht Threema gerade selbst unter neuer Führung – der Finanzinvestor Comitis Capital übernahm den Dienst erst im Januar 2026.


(mki)



Source link

Datenschutz & Sicherheit

Crime-as-a-Service: Regierung warnt vor hochprofessionellen kriminellen Netzen


Die Zeiten, in denen organisierte Kriminalität (OK) als starr strukturierte Gruppierung agierte, gehört der Vergangenheit an. In ihrer Antwort auf eine Anfrage der AfD-Bundestagsfraktion zeichnet die Bundesregierung das Bild einer hochflexiblen, funktional organisierten kriminellen Ökonomie. Das Schlagwort lautet „Crime-as-a-Service“ (CaaS): Kriminelle Gruppen gehen dazu über, spezialisierte Dienste einzukaufen, um getrennte Teilprozesse ihrer Taten abzudecken.

Weiterlesen nach der Anzeige

Anstatt alle Kompetenzen im eigenen Haus zu bündeln, agieren moderne Täterstrukturen laut der Auskunft konspirativ, international vernetzt. Sie nutzten modernste Technologien sowie Messenger-Dienste, um sich regelmäßig neue, profitable Handlungsfelder zu erschließen.

Im Bereich der Cyberkriminalität ist dieses Modell zum Standard geworden. Dem federführenden Innenministerium zufolge ist CaaS ein elementarer Bestandteil dieses Sektors. In der digitalen Underground Economy werde ein Großteil der für Cyberattacken benötigten Komponenten als Dienstleistung angeboten. Das senke Eintrittshürden: Auch technisch weniger versierte Akteure würden in die Lage versetzt, komplexe Angriffe durchzuführen.

Prominentes Beispiel ist „Ransomware-as-a-Service“. Dabei vermarkten spezialisierte Entwickler ihre Schadsoftware und stellen sie „Affiliates“ gegen Gebühr oder eine Beteiligung am erpressten Lösegeld zur Verfügung.

Ein Faktor für Planung, Koordination und Verschleierung dieser Aktivitäten ist der Einsatz digitaler Kommunikations- und Infrastruktursysteme. Die Exekutive betont, dass diese strukturellen Entwicklungen systematisch erfasst und analysiert werden müssten, um eine wirksame strategische Bekämpfung zu ermöglichen.

Die Auslagerung von Tatbeiträgen beschränkt sich nicht auf die digitale Welt. Die Regierung berichtet von einer Zunahme von „Violence-as-a-Service“. Dabei werden teils schwerste Auftragstaten wie Drohungen unter Verwendung von Explosivstoffen, physische Gewalt oder sogar Tötungsdelikte über digitale Plattformen koordiniert.

Weiterlesen nach der Anzeige

Erschreckend sei vor allem die Rekrutierung, heißt es: Insbesondere Minderjährige und junge Erwachsene würden für diese Aufgaben angeworben. Schweden gilt als stark betroffen und hat ein vierstufiges Rekrutierungsmodell identifiziert, das vom Auftraggeber über Vermittler bis zum ausführenden Täter reicht.

Die Hintermänner nutzen gezielte Strategien zur Risikominimierung, um hochrangige Mitglieder der Netzwerke zu schützen und das Entdeckungsrisiko zu verringern. Zudem dient die Ansprache Jugendlicher der Kostenminimierung, da diese oft geringere Entlohnungen akzeptieren oder leichter manipuliert und ausgebeutet werden können. Zugleich ermöglichen die Kontaktnetzwerke dieser jungen Täter kriminellen Gruppen neue Zugänge zu Abnehmern etwa von Drogen und fördern die territoriale Verankerung. Die Trennung von Planung, Steuerung und operativer Durchführung erschwert die Zurechenbarkeit von Verantwortung.

Daneben umfasst das Portfolio krimineller Dienstleister Angebote in den Bereichen Geldwäsche, Fälschungskriminalität oder die Bereitstellung technischer Infrastruktur wie verschlüsselter Messenger. Zwar waschen laut einer Europol-Studie noch immer 96 Prozent der untersuchten Netzwerke ihre Erträge selbst. Doch der Zugriff auf spezialisierte externe Dienstleister wird beliebter. Diese Profis nehmen inkriminierte Vermögenswerte an und zahlen dafür „sauberes“ Geld an ihre Kunden aus.

Ferner verwenden OK-Mitglieder verstärkt gefälschte oder gestohlene Identitätsdokumente, um unentdeckt zu bleiben und ihre Aktivitäten über lange Zeiträume fortzusetzen. Auch dafür werden teils externe Angebote genutzt, sofern die Gruppen diese Leistungen nicht selbst erbringen können. Das korrespondiert mit einem steigenden Gewaltpotenzial, was Konflikte zwischen rivalisierenden Gruppen vermehrt in den öffentlichen Raum trägt. Das Innenressort sieht in dieser schleichenden Unterwanderung von Staat und Gesellschaft durch OK-Strukturen ein erhebliches Gefahrenpotenzial.

Die Antwort der Sicherheitsbehörden besteht aus mehr internationaler Zusammenarbeit. Ziel bleibt die Zerschlagung krimineller Strukturen. Dabei soll sichergestellt werden, dass Gruppierungen in finanzieller Hinsicht nachhaltig getroffen werden. Der Missbrauch staatlicher und gewerblicher Strukturen wird der Strategie nach durch enge Kooperation verschiedener Institutionen verhindert. Die Regierung unterstreicht, dass eine Kombination repressiver und präventiver Ansätze nötig sei.

Auf europäischer Ebene koordiniert den Kampf die European Multidisciplinary Platform Against Criminal Threats (Empact). Im laufenden Zyklus bis 2029 liegt ein Schwerpunkt auf der Identifizierung und Zerschlagung der bedrohlichsten kriminellen Netzwerke sowie von Personen in Schlüsselfunktionen. Deutschland integriert Erkenntnisse aus dieser Einschätzung in die strategische Bewertung der OK, um dem Phänomen der Gewaltdelegation und neuen digitalen Geschäftsmodellen begegnen zu können. Empact soll so helfen, einschlägige Netzwerke dauerhaft zu brechen.

Lesen Sie auch


(nie)



Source link

Weiterlesen

Datenschutz & Sicherheit

Rockstar bestätigt Cyberangriff und Datendiebstahl


Zum wiederholten Mal ist Rockstar Opfer eines Cyberangriffs geworden: Der Entwickler des von vielen sehnsüchtig erwarteten Spiels GTA6 bestätigte, dass es einen Angriff auf seine Systeme gab und Daten entwendet wurden. Die bekannte Cybercrime-Gruppe ShinyHunters richtete derweil auf ihrer Webseite ein Erpresserschreiben an Rockstar.

Weiterlesen nach der Anzeige

Rockstar bestätigte Kotaku, „dass im Zusammenhang mit einer Datenpanne bei einem Drittanbieter auf eine begrenzte Menge an unwesentlichen Unternehmensdaten zugegriffen wurde.“ Der Vorfall habe keine Auswirkungen auf das Unternehmen oder seine Spieler.

Die Cybergang ShinyHunters erklärte auf ihrer Webseite, sie habe Rockstars Snowflake-Instanzen mithilfe des Drittanbieter-Tools AnoDot kompromittiert. An Rockstar richtete sie die Forderung, bis zum 14. April in Kontakt zu treten und Geld zu zahlen, damit die erbeuteten Daten nicht publik werden. Wieviel die Cyberkriminellen fordern oder welche Daten sie besitzen, sagten sie in dem öffentlichen Statement nicht.

Mit AnoDot können Unternehmen unter anderem ihre Cloud-Kosten überwachen, auch Rockstar tut das. Das KI-Tool soll anhand zahlreicher gesammelter Daten ungewöhnliche Veränderungen erkennen, welche sich negativ auf die Einnahmen des Unternehmens auswirken könnten. Und der Vorfall bei Rockstar Games ist möglicherweise die Folge eines Cyberangriffs auf AnoDot, ebenfalls ausgeführt von ShinyHunters.

BleepingComputer berichtete diese Woche über Probleme, die zunächst bei diversen Cloud- und SaaS-Anbietern auftraten, in deren Software sich das Tool einbinden lässt – etwa auch bei Snowflake. Das Unternehmen konnte das Problem schnell auf AnoDot zurückführen, da sich Angreifer mit AnoDot-Zugangsdaten in die Snowflake-Systeme einloggten.

BleepingComputer erfuhr aus mehreren Quellen, unter anderem von Snowflake, dass es bei AnoDot einen Sicherheitsvorfall gegeben hat. AnoDot selbst informiert auf einer Supportseite darüber, dass derzeit weltweit Probleme beim Abrufen von Datenproben auftreten. AnoDot nahm seine Datenkollektoren für die Dienste Snowflake, S3 und Kinesis demnach bereits am 4. April offline. Die Datenkollektoren sind auch weiterhin offline (Stand: Sonntag, 12. April, 14:55 Uhr).

Weiterlesen nach der Anzeige

Derweil läuft die Frist von ShinyHunters für Rockstar Games weiter. Die Bande ist berüchtigt und hat bereits zahlreiche Cyberangriffe durchgeführt, unter anderem stahl sie dabei Millionen von Nutzerdaten beim Konzertkartenshop Ticketmaster und dem Auto-Verkaufsdienstleister Carguru. Dass ShinyHunters jetzt an die Öffentlichkeit geht, könnte dafür sprechen, dass sie durchaus etwas gegen Rockstar in der Hand haben.

Es ist nicht das erste Mal, dass Cyberkriminelle bei Rockstar Daten entwenden. Bei einem anderen Cyberangriff 2022 erbeutete die Cybercrime-Gruppe Lapsus$ Gameplay-Videos von GTA6 und stellte diese ins Netz. Später wurde bekannt, dass der Angriff von einem Teenager ausgeführt wurde, der sich von einem Hotelzimmer aus mit einem Smartphone, einem Amazon Fire TV Stick und einem Fernseher Zugang zu den Cloud-Diensten verschaffte. Für den Angriff auf Rockstar Games wurde er auch angeklagt und verurteilt, zu dem Zeitpunkt war er 18 Jahre alt.

Lesen Sie auch


(nen)



Source link

Weiterlesen

Datenschutz & Sicherheit

Degitalisierung: Das ruhmreiche Zaunweißen



Es war einmal ein Junge, der hatte etwas ausgefressen, und als Strafe dafür wies ihm seine Tante eine besonders harte Strafe zu: Samstags, wenn die anderen Jungs im Fluss schwimmen durften, sollte er den riesigen Zaun vor dem Haus seiner Tante Polly streichen. Er hat eben missmutig mit der Arbeit begonnen, als sein Kumpel Ben vorbeikommt. Der verspottet ihn wegen der mühseligen Arbeit. Doch unser Junge ist schlau: „Das macht doch keine Mühe, das ist der reine Spaß! Wann kann man schon mal ganz allein solch einen großen Zaun streichen?!“

Da staunt Ben – denn Spaß will jeder haben. Statt Plackerei die reine Freude? Ben bettelt geradezu, mitmachen zu dürfen. Er zahlt sogar dafür. Einen saftigen Apfel. Und er streicht wie ein Verrückter, während unser Held im Schatten liegt. Nach und nach kommen noch mehr Willige, und sie alle geben einiges dafür, den Zaun Tante Pollys streichen zu dürfen. Abends ist unser Freund reich – seine Taschen sind voller kleiner Schätze.

Dieser Einstieg für die heutige Degitalisierung ist ein abgewandeltes Zitat eines Essays von Wolf Lotter aus einer Brand Eins von 2007 mit dem Titel Elementarteilchen [€]. Damals ging es um die Beschreibung der Funktionsweise des Web 2.0. User würden mehr oder weniger freiwillig sogar dafür bezahlen, die Arbeit anderer Leute machen zu dürfen.

Lotter greift einen Vorgang auf, den Mark Twain „Das ruhmreiche Zaunweißen“ nannte, ein lehrreiches Stück aus seinem Romanepos „Tom Sawyer“. Das war 1876. Heute ist 2026, und diesen Prozess, an dem sich im Wesentlichen nichts geändert hat, nennt man Künstliche Intelligenz.

Im Zeitalter der sogenannten Künstlichen Intelligenz ist das aber alles viel besser, oder? Agentische KI macht ja jetzt die Arbeit und wir können die Füße hochlegen, oder? Natürlich nicht. Die Genese heutiger Systeme künstlicher Intelligenz ist leider wieder nur eine andere Art des ruhmreichen Zaunweißens. Immer wieder. In dieser Episode geht es mehr oder weniger um die Schaffung eines Mythos – oder um den Mythos um Anthropics Mythos aus Anlass aktueller Ereignisse.

Militär und Maven

Die Ereignisse, bei denen Menschen freudig und freiwillig die eigentliche Arbeit anderer machen, beginnen im Kontext Anthropic im Januar 2026 mit einem Streit zwischen Anthropic und dem amerikanischen Verteidigungsministerium. Dem vorausgegangen war eine vertragliche Vereinbarung von Googles Gemini für eine neue militärische KI-Plattform mit dem Titel GenAI.mil im Dezember 2025. Im Januar kam es dann zum Bruch von Anthropic und dem Pentagon, wegen der Weigerung Anthropics, seine Technologien für autonome Waffen oder Massenüberwachung freizugeben. Anthropics Technologien wurden dann zum Lieferkettenrisiko seitens des Pentagons erklärt und OpenAI sprang in die Bresche als neuer Technologielieferant.

Das erste ruhmreiche Zaunstreichen im Sinne Anthropics begann dann in der Folge dieser Ereignisse. Abos von OpenAIs ChatGPT wurden massenhaft gekündigt – Hashtag Cancel ChatGPT – und die Öffentlichkeit und Medien schwangen gleich freudig die Pinsel am Zaun mit. Man müsse jetzt gleich Abos bei OpenAI kündigen, forderte etwa der Guardian. Viele ehemalige OpenAI-Kund*innen wanderten ab zu Anthropic.

Das ist am Ende aber leider nur scheinheiliges Zaunstreichen für ein weiteres Big-Tech-Unternehmen, das nur auf eine andere Art problematisch ist. Kriegsführung ist inzwischen an vielen Fronten von KI-Technologie durchzogen, sei es in Gaza, in der Ukraine oder jetzt im Iran. Die Markierung und Auswahl von militärischen Zielen hat sich durch KI stark beschleunigt, es werden mehr Ziele schneller angegriffen und die Kollateralschäden in der Zivilbevölkerung nehmen damit eher zu.

Anthropic für Verantwortungsbewusstsein zu feiern beim Aufzeigen von Grenzen für die militärische Nutzung ist also etwas arg einfältig. Die militärische Initiative des Pentagons namens Maven, die KI mehr und mehr in militärische Operationen einbinden wird, basiert zwar im Kern auf Software von Palantir – Palantir hat aber Schwierigkeiten, Technologie von Anthropic nach dem Disput mit dem Pentagon wieder aus Maven zu entfernen. Weil Anthropics Claude eben schon sehr lange tief mit militärischen Anwendungsfällen verwoben ist und aktiv genutzt wird, etwa wohl auch bei der US-Militäroperation zur Festnahme des venezolanischen Präsidenten Nicolás Maduro.

Kein amerikanisches Big-Tech-Unternehmen kann also wegen seines Pazifismus gefeiert werden. Sie sind alle ähnlich tief in den Bereich des Militärs oder der Geheimdienste verstrickt, behaupten nur mehr oder weniger lautstark, zu den Guten zu gehören. Öffentlichkeit und Medien haben Anthropic aber aktiv geholfen, den eigenen Zaun weiß zu streichen beziehungsweise sich eine weiße Weste nach außen hin zu geben.

Mythos und Marketing

Inmitten dieser Melange aus Hype und verzerrter Außendarstellung kommt nun ein Mythos um ein neues KI-Modell namens Mythos. Das ist im Wesentlichen erst einmal im Kern ein neues Large-Language-Modell, wie so häufig, besser in diversen synthetischen Benchmarks. Aber besonders viel besser in der Fähigkeit, Sicherheitslücken in Software zu finden. Oder um es mit den Worten von Anthropic zu sagen: „strikingly capable at computer security tasks“.

Das Bemerkenswerte ist jetzt, ohne auf die eigentlichen Fähigkeiten eingehen zu müssen, der Hype um diese Ankündigung. IT-Security ist normalerweise ein Feld, in dem es eine konstante Bedrohungslage mit diversen Sicherheitsrisiken gibt, die im täglichen Arbeiten so negativ aufstoßen können. Datenleaks, DDoS-Angriffe, Zero-Day-Exploits, kann alles täglich passieren.

Daher ist es oftmals sinnvoll, nicht in Alarmismus zu verfallen, weil das Bedrohungen nicht weniger bedrohlich macht, sondern eher den Blick auf das Wesentliche verstellt und passende Gegenhandlungen wegen Hektik und Anspannung verlangsamt. Die Kommunikation um Mythos wird aber selbst zu einer Art Mythos erhoben. Da ist dieses mythische neue Sprachmodell, das ab morgen alle Computersysteme unsicher macht – überspitzt gesagt, aber nicht weit entfernt von der medialen Darstellung.

Claudia Plattner, Präsidentin des Bundesamtes für Sicherheit in der Informationstechnik, ließ sich zu einem Endorsement unter öffentlicher Nennung eines noch nicht neutral geprüftem Produkts eines kommerziellen, ausländischen Herstellers hinreißen, das für eine ansonsten eher um Neutralität bemühte Bundesbehörde doch eher selten ist: Das BSI nehme die Ankündigungen von Anthropic sehr ernst und erwarte „Umwälzungen im Umgang mit Sicherheitslücken und in der Schwachstellenlandschaft insgesamt“. Selbst wenn es so ist, tut das Feld der Informationssicherheit auch hier gut daran, nicht wieder den Zaun für andere zu weißen.

Die Kommunikation um die Security-Fähigkeiten von Mythos ist eher Doomsday-Marketing [€] und führt vor allem bei vielen für die IT-Sicherheit Verantwortlichen zum Kampf gegen FUD – Fear, Uncertainty und Doubt sowie eben Untergangsszenarien. Eigentlich gibt es schon länger entsprechend fähige KI-Modelle, die Lücken wie die von Mythos bisher wohl finden können, eventuell nur mit einem etwas spezifischeren Kontext und einem engeren Scope der automatisierten Analyse.

Und nicht jede der von Anthropic präsentierten Lücken ist gleich ein Riesenproblem, wie etwa Red Hat für den Linux-Kernel erklären muss. Die reißerische und mythische Kommunikation von Anthropic selbst blockiert also erst einmal Kapazitäten bei IT-Security-Expert*innen, die wesentlich besser im Absichern von Software und Prozessen zur Absicherung gebraucht werden können. Aber viele Medien pinseln lieber weiter am Zaun mit.

Gesetzt den Fall, der Hype um Mythos ist, sagen wir mal, auch nur zu einem Zehntel berechtigt, dann ist doch die Frage angebracht, wie wir mit der Situation umgehen sollten, damit kein globales IT-Sicherheitsdesaster droht. Auch hier geht vieles leider in Richtung Zaunweißen, weniger in eine faire Kooperation zur Verbesserung der IT-Sicherheit. Dieser Aspekt ist weniger in Technologie begründet, sondern eher in der soziologischen Wirkung von KI auf IT-Security und Programmierung.

Glasswing und Hollowing

Als besonders – aus Eigensicht – verantwortungsbewusstes KI-Unternehmen geht Anthropic mit Mythos ja sorgsam um. Mythos wird aus Sicherheitsgründen erst einmal nicht öffentlich zur Verfügung gestellt. Mit Project Glasswing wolle man Unternehmen und wichtigen Open-Source-Maintainern dabei helfen, durch geregelten Zugang auf Mythos-Systeme durch automatisierte Analysen auf Lücken prüfen und diese somit besser absichern zu können. Auffällig ist bei der Auswahl der Unternehmen ein gewisser Hang zu „America First“, da es sich hauptsächlich um Unternehmen mit Hauptsitz in den USA handelt wie Apple, Google, Nvidia, Broadcom und Microsoft. Indirekt findet hier durch eine Vorauswahl eines Privatunternehmens und der Regierung in den USA ja auch eine gewisse geopolitische Vorentscheidung statt. Sichere Software gibt es in Zukunft auch „America First“?

Wenn Erkenntnisse aus Glasswing auf eine Open-Source-Community treffen, ist aber nicht unbedingt mit Freudenschreien zu rechnen. Der gesamte KI-Hype in der Softwareentwicklung hat vielen Open-Source-Maintainern eher offensiv in die Fresse geschlagen, um das deutlich zu sagen.

Da ist zum Beispiel ein Stellenabbau von 75 Prozent bei dem Start-up hinter dem CSS-Framework Tailwind, auch wegen immer mehr Sprachmodellen, die bisher auskömmliche Zusatzangebote wie Servicedienstleistungen oder Premium-Abos zu Tailwind immer uninteressanter machen. Bug-Bounty-Programme, die kleine finanzielle Belohnungen für gemeldete Sicherheitslücken zahlen, müssen schließen wegen zu viel AI Slop, also schlechten oder sinnfreien Beiträgen. Beispiele dafür sind etwa das Schließen des Internet Bug Bounty oder des Bug-Bounty-Programms hinter curl, dort als Versuch, das „Terror Reporting“ einzudämmen. Dazu musste das größte Code-Repository der Welt, GitHub, jüngst eingestehen, dass die KI-Welle eine Art „Eternal September“ eingeläutet habe, also einer Menge neuer, aber eher ungeeigneter Beiträge auf der Plattform – nicht zuletzt durch die durch GitHub selbst bereitgestellten KI-Assistenten wie GitHub Copilot.

Dazu werden Open-Source-Lizenzen, im Open-Source-Bereich eine oftmals fast schon unantastbare Vereinbarung von Nutzungsbedingungen, aktiv durch sogenannte „Clean Room“-Neuentwicklungen wie bei chardet unterwandert.

Programmier*innen hingegen beginnen im Job durch wachsenden KI-Einsatz immer mehr auszubrennen, wie sich etwa auf Plattformen wie Reddit zunehmend kundtut. Im Arbeitsmarkt, etwa in der Schweiz, deutet sich bei Software-Entwickler*innen eine steigende Arbeitslosigkeit in bestimmten Altersgruppen an. Programmieren als Job durchläuft eine Phase des Hollowing-out – speziell wegen KI.

Genau in diese schwierige Phase, insbesondere für Open-Source-Maintainer, kommt nun also ein gehyptes Modell, das Hunderte neue Sicherheitslücken androht, die unbedingt ganz schnell gepatcht werden müssen. Sicherheit von Open-Source-Projekten ist schon immer eine undankbare Aufgabe, wie auch die in Project Glasswing eingebundene Linux Foundation schreibt. Soll nun dafür irgendwer dankbar sein, wenn eine Technologie erst die Grundlagen der etablierten Zusammenarbeit angreift und dann auch noch eine Flut von neuer Arbeit beschert?

Das ist in etwa so, als würde Tante Pollys Zaun von Tausenden Freiwilligen überrannt werden, die wild durcheinander versuchen, den Zaun zu weißen. Mit der Entspannung und dem Spaß wäre es dann auch für Tom Sawyer vorbei.

Mögliche Verbesserungen durch von KI generierte Patches sind eher schwierig an Open-Source-Maintainer heranzutragen, solange KI-Unternehmen nicht glaubwürdig mit der Open-Source-Community und deren Werten und Zielen übereinkommen. Bisher ist das gehörig gescheitert.

Wir sind communityfinanziert

Unterstütze auch Du unsere Arbeit mit einer Spende.

Dennoch stellt sich Anthropic selbst als besonders verantwortungsbewusstes Unternehmen dar, in etwa so, wie OpenAI das schon seit Jahren immer wieder tut.

Milliarden und Verantwortung

OpenAI hat immer wieder in seiner Geschichte die PR-Strategie verfolgt, wie Anthropic es jetzt tut, und auf die Gefahren seiner neuen Produkte selbst hingewiesen – allerdings oft, um selbst einen Mythos um seine Produkte zu erzeugen.

Bei OpenAI war das beim Modell zum Klonen von Stimmen namens Voice Engine schon 2024 der Fall. Zu gefährlich, um es auf den Markt zu bringen, so die Eigenaussage.

Auch 2019 wurde der Release von GPT-2 von OpenAI mit einer „zu gefährlich“-PR-Strategie begleitet. Bemerkenswert ist dabei aus heutiger Zeit weniger das Kommunikationsmuster, sondern das, was im Juni 2019 im Repräsentantenhaus in einem Ausschuss anlässlich der Gefahr von Fake Media und KI von OpenAI-Vertretern zu den Akten gegeben wurde. Auch damals gab es bereits „staged releases“ in Form von kleineren Modellen, denen dann schrittweise größere Modelle folgten. Die Herangehensweise von Anthropic bei Mythos ist also nicht neu.

Interessant ist aber das damalige Eingeständnis, dass es schwer werden dürfte, KI-Technologie kontrollieren zu können.

In Bezug auf Stimm-Klon-Software etwa stellte OpenAI fest:

Viele der Kontrollmöglichkeiten sind weniger technischer Natur, im Gegensatz zu den Systemen, die die Technologie umgeben. (Eine Möglichkeit, sich zum Beispiel gegen Menschen zu schützen, die bei Telemarketing-Betrug KI-synthetisierte Stimmen einsetzen, besteht darin, es Kriminellen einfach schwerer zu machen, Telefonnummern zu fälschen.)

Stimmsynthesierungssoftware können wir natürlich voll funktionsfähig entwickeln, wir können sie jedoch nicht kontrollieren. Aber vielleicht löst mein Problem ja die Telefongesellschaft? – Wie sehr kann man sich aus der Verantwortung stehlen wollen?

Eigentlich sind aus Sicht von KI-Unternehmen die Kontrollmöglichkeiten somit gar nicht innerhalb der Technologie möglich, die sie mit viel Aufwand erschaffen, also vor allem mit viel, viel Geld. Das ist alles nicht möglich trotz in der Genese von KI bereitwillig ignorierten Problemen, die einer Art von Kontrolle unterliegen hätten können, wie etwa digitalem Kolonialismus, immensem Ressourcen- und Energieverbrauch, hoher Machtkonzentration, ungehemmter Datenkonsum, Wegbereitung des Faschismus, Plagiarismus und Desinformation. Alles Probleme, die bei der Schaffung von KI-Technologie ja bislang schweigend akzeptiert oder sogar erst geschaffen wurden. Alles nicht kontrollierbar? Falls aber mal jemand auf nur eines oder zwei dieser Probleme hinweist, wie etwa die Nutzung urheberrechtlich geschützter Inhalte im Falle der britischen Regierung, ist das dann alles zu teuer.

Das Grundproblem bislang jeglicher Technologie auf Basis von KI ist es immer wieder gewesen, die Technologie und die damit verbundenen Macher*innen selbst als unschuldig zu sehen. CEOs von KI-Unternehmen wie Sam Altman von OpenAI oder Dario Amodei von Anthropic tragen die Verantwortung für Multi-Milliarden-Unternehmen, scheren sich aber einen feuchten Kehricht um die Wirkung ihrer Technologien. Sie externalisieren ihre Probleme, internalisieren aber den Gewinn.

Jegliches Commitment zu „Sicherheit“ und „Verantwortung“ ist nicht mehr als ein PR-Stunt, bei dem viele Externe auch noch fleißig den Pinsel schwingen, um den Zaun zu weißen. Für Unternehmen, denen lange Jahre lang schon viel zu viel durchgehen gelassen wurde. Das ist bei Mythos nicht viel anders als bei all den vermeintlich guten, aber letztlich schädlichen „KI-Innovationen“ der Jahre zuvor.

Denn letztlich geht es KI-Unternehmen oft nur um ihr oftmals fragiles Ego. Wir sollten daher alle damit aufhören, ihnen auch noch freudig den Zaun zu weißen.



Source link

Weiterlesen

Beliebt