Künstliche Intelligenz
Windsurf-Übernahme durch OpenAI platzt, Chefs und Entwickler wechseln zu Google
Die Übernahme des Startups für künstliche Intelligenz (KI) Windsurf durch den ChatGPT-Hersteller OpenAI ist geplatzt – nun zieht es einige Entwickler und Führungskräfte von Windsurf (ehemals Codeium) offenbar zu Googles KI-Abteilung DeepMind. Es handelt sich um Windsurf-CEO Varun Mohan, Mitgründer Douglas Chen und einige Mitarbeiter aus der Forschungs- und Entwicklungsabteilung. Dies gab Windsurf am Freitag in einem Blogbeitrag bekannt.
Die bisherigen Windsurf-Mitarbeiter sollen demnach an Googles Gemini-KI-Modellen arbeiten. Laut Google sollen sich die Neuzugänge vor allem mit „agentischem Programmieren“ (Agentic Coding) beschäftigen. Das berichten das Tech-Portal TheVerge und die Nachrichtenagentur Reuters übereinstimmend. Dabei übernehmen KI-Agenten eigenständig Programmieraufgaben, wobei sie möglichst autonom auf ein vorgegebenes Ziel hinarbeiten, anstatt nur menschlichen Entwicklern bei Teilaufgaben zu assistieren. Google zahle Windsurf im Rahmen einer Vereinbarung 2,4 Milliarden US-Dollar an Lizenzgebühren, um bestimmte Technologien des Startups nicht-exklusiv nutzen zu können, berichtet Reuters unter Berufung auf eine anonyme Quelle. Google werde demnach aber keine Anteile an Windsurf erwerben und auch keine Kontrollrechte ausüben.
Medienbericht: Google zahlt Milliarden an Windsurf
Bei Windsurf soll nun Jeff Wang, bisher Head of Business bei dem Unternehmen, Mohans Interims-Nachfolger werden. Wang ist seit Mitte 2023 bei Windsurf und war hier in verschiedenen Positionen tätig. Zuvor hatte es monatelange Gerichte einer OpenAI-Übernahme von Windsurf gegeben. Das scheiterte jedoch. OpenAI wollte nicht, dass Microsoft als größter OpenAI-Geldgeber automatisch Zugang zu Windsurfs Technologien bekommt.
Windsurf entwickelt eine Software, die es Entwicklern ermöglicht, mit natürlicher Sprache Code zu schreiben. In diesem Marktsegment ist die OpenAI-Konkurrenz wie GitHub (Copilot), Anthropic und Anysphere (Cursor) stark vertreten.
Update
12.07.2025,
17:59
Uhr
Im Text hatte es ursprünglich geheißen, die OpenAI-Übernahme von Windsurf sei vollzogen. Sie ist jedoch nach langen Gesprächen gescheitert. Wir bitten den Fehler zu entschuldigen und haben Text an den entsprechenden Stellen korrigiert.
(nen)
Künstliche Intelligenz
Sparkurs bei Ford: Gewerkschaft und Management einigen sich
Der Streit über den starken Stellenabbau beim Autobauer Ford Deutschland ist entschärft. Wie Ford und die IG Metall bekanntgaben, haben sich die Tarifpartner auf Abfindungen, Altersteilzeit und einen finanziellen Schutzschirm für Rentner geeinigt. Ford hat etwa 11.500 Beschäftigte in Köln, bis Ende 2027 sollen es 2900 weniger sein.
Die Vereinbarung wurde bei Betriebsversammlungen vor mehreren Tausend Mitarbeitern vorgestellt. Sie sieht vor, dass die Ford-Rentner im Falle einer bislang nur theoretisch möglichen Insolvenz der Ford Deutschlandtochter Geld vom US-Mutterkonzern bekämen – das wäre bislang nicht der Fall.
Vor so einem Negativszenario hatte die IG Metall gewarnt, ihre Sorgenfalten dürften sich jetzt etwas glätten. Der Streit um den Stellenabbau hatte monatelang gebrodelt und im Mai zum ersten Streik bei Ford Köln geführt; einen Tag lang ruhte die Arbeit in den Werken.
Gewerkschaft geht auf Management zu
In den Verhandlungen kam die Gewerkschaft dem Management ein Stück entgegen. Bislang sind bei Ford in Köln betriebsbedingte Kündigungen bis 2032 ausgeschlossen, diese Garantie brachte die Arbeitnehmerseite in den Verhandlungen in eine relativ starke Position. Im Falle der theoretisch möglichen Firmenpleite wäre eine solche Garantie aber nichts mehr wert, daher relativierte sich dieses Faustpfand der Gewerkschaft in den Verhandlungen.
Die neue Vereinbarung sieht nach Firmenangaben vor, dass betriebsbedingte Kündigungen möglich sind, sollten alle sozialverträglichen Maßnahmen ausgeschöpft sein. Sollten sich also nicht genug Arbeitnehmer finden, die freiwillig gehen, könnte die Firma letztlich doch noch auf betriebsbedingte Kündigungen setzen.
Damit die Vereinbarung gültig wird, fehlt noch die Zustimmung der IG-Metall-Mitglieder bei Ford – diese soll in einer Urabstimmung eingeholt werden. „Wir haben jetzt ein echtes Sicherheitsnetz, das den Beschäftigten die existenziellen Ängste nimmt“, sagte der IG-Metall-Sprecher bei Ford Köln, David Lüdtke, und wertete das Verhandlungsergebnis positiv.
„Der Stellenabbau setzt vor allem auf freiwilliges Ausscheiden“, sagte Betriebsrat Benjamin Gruschka. „Die Abfindungen sind großzügig und deutlich besser als üblich in der Automobilbranche.“
Ford ist unter Druck
Ford Deutschland ist in einer schwierigen Lage. Der Autohersteller hat sich in Köln von der Produktion von Verbrennerautos verabschiedet, 2023 lief der letzte Kleinwagen Ford Fiesta vom Band.
Mit knapp zwei Milliarden Euro wurde der Standort für die Herstellung von Elektroautos umgebaut, doch diese Investitionen zahlen sich bislang nicht aus – zwei neue Elektroautomodelle sind noch keine Verkaufsschlager.
Immerhin zieht ihr Verkauf aber Schritt für Schritt an, wie Zahlen des Kraftfahrt-Bundesamtes (KBA) belegen. Dank einer schon länger bekannten milliardenschweren Finanzspritze der US-Mutter wird der Schuldenberg der Deutschlandtochter weitgehend abgebaut.
Der Geschäftsführer der Ford-Werke, Marcus Wassenberg, nannte die Vereinbarung mit der Gewerkschaft eine gute Nachricht für Ford und seine Mitarbeitenden, denn sie sei ein wichtiger Schritt zum Aufbau eines nachhaltig profitablen Geschäfts in Europa. „Die Vereinbarung ist eine wichtige Grundlage, um Fords Führungsposition im Nutzfahrzeugsegment auszubauen und ein profitables, stark differenziertes und wettbewerbsfähiges Pkw-Geschäft aufzubauen.“
Mehr über die Marke Ford
(fpi)
Künstliche Intelligenz
Diese Werkzeuge sollen Kunstwerke vor KI schützen – doch die lassen sich umgehen
Forschende haben demonstriert, dass es möglich ist, bestehende Schutzmaßnahmen gegen unerwünschtes KI-Training auszuhebeln. Das Verfahren, das die Wissenschaftler Lightshed getauft haben, ist jetzt das jüngste Beispiel für ein Katz-und-Maus-Spiel zwischen Kreativen und Anbietern generativer KI, das zunehmend auch vor Gericht ausgetragen wird. Generative KI-Modelle, die Bilder erstellen können, müssen vorab anhand einer Masse von Bildmaterial angelernt werden. Die für dieses Training verwendeten Datensätze enthalten Kritikern zufolge oft urheberrechtlich geschütztes Material, das ohne jede Genehmigung genutzt wird. Dies beunruhigt Kreative, die befürchten, dass die Modelle ihren Stil lernen, ihre Werke imitieren und sie damit letztlich arbeitslos machen.
Ab 2023 wurden jedoch einige potenzielle Verteidigungsmittel entwickelt, als Teams Programme wie Glaze und Nightshade herausbrachten, die Bildmaterial im Netz schützen, indem sie es für KI-Trainingszwecke „vergifteten“. (Der Beteiligte Shawn Shan wurde im vergangenen Jahr sogar für seine Arbeit daran zum Innovator des Jahres der US-Ausgabe von MIT Technology Review gekürt.). Die Macher hinter dem Lightshed-Projekt behaupten jedoch, diese und ähnliche Tools unterlaufen zu können, sodass die Bildwerke wieder problemlos zu Trainingszwecken verwendet werden können.
Um es klar zu sagen: Die Forscher hinter Lightshed versuchen nicht etwa, Werke von Künstlern zu stehlen. Sie wollen nur nicht, dass die Kreativen sich in falscher Sicherheit wiegen. „Man kann eben nicht sicher sein, dass Unternehmen keine Methoden haben, um dieses KI-Gift zu entfernen. Das wird den Kreativen aber niemand sagen“, meint Hanna Foerster, Doktorandin an der Universität Cambridge und Hauptautorin der Studie. Deshalb sei es wichtig, diese Methoden jetzt zu erkennen.
KI-Modelle funktionieren zum Teil dadurch, dass sie implizit Grenzen zwischen verschiedenen Kategorien von Bildern ziehen. Glaze und Nightshade verändern deshalb eine ausreichende Anzahl von Bildpunkten, um ein Werk über diese Grenze hinweg zu verschieben, ohne die für den Nutzer sichtbare Bildqualität zu beeinträchtigen. KI-Modelle ordnen die eingelesenen Bilder dann falsch ein, was das Training verunmöglicht. Oder zusammengefasst: Die für Menschen fast unmerklichen Veränderungen werden als Störungen bezeichnet und beeinträchtigen die Fähigkeit des KI-Modells, ein Bildwerk zu verstehen.
KI erkennt falsche Interpretationen
Glaze führt praktisch dazu, dass KI-Modelle einen Bildstil falsch interpretieren (zum Beispiel ein fotorealistisches Gemälde als Cartoon). Nightshade hingegen führt dazu, dass das Modell das Motiv grundsätzlich falsch erkennt (etwa eine Katze in einer Zeichnung als Hund). Glaze wird verwendet, um den individuellen Stil eines Künstlers zu schützen, während Nightshade dazu dient, das Training von KI-Modellen generell zu unterbinden, die das Internet nach Kunstwerken durchsuchen. Foerster wollte zeigen, dass das nicht unbedingt erfolgreich ist. Sie arbeitete mit einem Team von Forschern der TU Darmstadt und der University of Texas in San Antonio zusammen, um Lightshed zu entwickeln. Sein Trick: Das Werkzeug lernt, wo genau Tools wie Glaze und Nightshade diese Art von digitalem Gift digital auf Bildwerke aufbringen, damit es diese effektiv entfernen kann. Die Gruppe wird ihre gesamten Ergebnisse im August auf dem Usenix Security Symposium, einer weltweit führenden Konferenz zum Thema Cybersicherheit, vorstellen.
Die Forscher lernten Lightshed an, indem sie ihm Bildwerke vor und nach dem Durchlauf von Nightshade, Glaze und anderen Sicherheitstools fütterten. Foerster beschreibt den Prozess als ein Training, „nur das Gift auf vergifteten Bildern“ zu rekonstruieren. Die Identifizierung jener Grenze, ab der die Zusatzmerkmale eine KI tatsächlich verwirren, mache es einfacher, nur diese „abzuwaschen“.
LightShed ist dabei laut der Forscher extrem effektiv. Während andere Forscher einzelne einfache Wege gefunden haben, die Methodik der Sicherheitstools zu unterlaufen, ist LightShed anpassungsfähiger. Es kann sogar das, was es von einem Anti-KI-Tool – beispielsweise Nightshade – gelernt hat, auf andere Schutzwerkzeuge wie Mist oder MetaCloak anwenden, ohne diese zuvor kennengelernt zu haben.
Zwar hat es einige Schwierigkeiten mit geringen Dosen des digitalen Gifts, das man auch Poisoning nennt. Doch diese beeinträchtigen die Fähigkeit der KI-Modelle, die zugrunde liegenden Bildwerke zu verstehen, in der Regel nicht, sodass es zu einer Win-Win-Situation für die KI wird – oder einer Lose-Lose-Situation für die Künstler, die diese Schutztools verwenden.
Lernen für neue Sicherheitstools
Rund 7,5 Millionen Menschen, darunter viele Kreative mit kleiner und mittlerer Fangemeinde und geringen Ressourcen, haben Glaze bereits heruntergeladen, um ihre Kunst zu schützen. Diejenigen, die Tools wie Glaze verwenden, sehen darin eine wichtige technische Verteidigungslinie, insbesondere solange die Regulierung im Bereich KI-Training und Urheberrecht noch ungeklärt ist. Die Autoren von Lightshed betrachten ihre Arbeit als Warnung, dass Tools wie Glaze keine dauerhaften Lösungen sind. „Es könnten noch einige Versuche nötig sein, um bessere Ideen für diesen Schutz zu entwickeln“, sagt Foerster.
Die Entwickler von Glaze und Nightshade scheinen dieser Ansicht zuzustimmen: Auf der Website von Nightshade wurde bereits vor Beginn der Arbeit an Lightshed darauf hingewiesen, dass das Tool nicht grundsätzlich zukunftssicher sei. Shan, der die Forschung zu beiden Tools geleitet hat, ist dennoch nach wie vor davon überzeugt, dass Abwehrmaßnahmen wie die seinen sinnvoll sind, auch wenn es Möglichkeiten gibt, sie zu umgehen.
„Es ist eine Abschreckung.“ Also eine Möglichkeit, KI-Unternehmen zu warnen, die Bedenken der Kreativen ernstzunehmen. Das Ziel sei es, so viele Hindernisse wie möglich aufzubauen, damit die Firmen dazu genötigt sind, direkt mit ihnen zu arbeiten. Shan glaubt, dass „die meisten Kreativen verstehen, dass dies nur eine vorübergehende Lösung ist“. Es sei dennoch sinnvoll, erste Hürden gegen die unerwünschte Nutzung ihrer Werke zu errichten.
Foerster hofft nun, dass die Erkenntnisse aus der Lightshed-Entwicklung dabei helfen, neue Abwehrmaßnahmen für Kreative zu entwickeln. Dazu gehören clevere Wasserzeichen, die auch nach der Bearbeitung durch ein KI-Modell im Output erhalten bleiben. Die Forscherin glaubt zwar nicht, dass dies ein Werk für immer vor KI schützen wird. Es gehe aber darum, das Gleichgewicht wieder in Richtung der Kreativen zu verschieben.
Dieser Beitrag ist zuerst bei t3n.de erschienen.
(jle)
Künstliche Intelligenz
Klage gegen Kurznachrichtendienst X wegen Hass-Postings abgewiesen
Eine Klage gegen das Internetportal X wegen der Verbreitung mehrerer antisemitischer Postings ist vom Berliner Kammergericht auch in der zweiten Instanz wegen fehlender internationaler Zuständigkeit zurückgewiesen worden. Das Kammergericht bestätigte damit am Donnerstag in der Berufungsklage die Entscheidung des Landgerichts von Juni 2024, wie nun mitgeteilt wurde.
Zwei Klägerinnen wollten durchsetzen, dass es X untersagt wird, sechs antisemitische Hass-Postings weiter zu verbreiten. Diese seien volksverhetzend und Aufrufe zur Gewalt. Die Betreiber des Portals X erwiderten laut der Mitteilung, die Berliner Gerichte seien international nicht zuständig, weil X seinen Sitz in Irland habe.
Kammergericht: Erfüllungsort in Irland
Das Kammergericht erklärte, es sehe den Erfüllungsort ebenfalls in Irland. Es liege auch keine sogenannte Verbrauchersache vor, die das ändern könne. Eine der Klägerin habe dem Gericht nur unzureichende Informationen gegeben, ob sie als Verbraucherin anzusehen sei. Bei der anderen Klägerin sei die Klage unzulässig, weil sie keine Wohnadresse angegeben habe.
Die Organisation HateAid, die in dem Verfahren ursprünglich ebenfalls als Klägerin aufgetreten war, hatte gegen das Urteil des Landgerichts keine Berufung eingelegt. Das Urteil ist noch nicht rechtskräftig. Gegen die Entscheidung kann Nichtzulassungsbeschwerde beim Bundesgerichtshof eingelegt werden.
Antisemitismusbeauftragter: „Antisemitische Postings in großer Zahl vorhanden“
Der Antisemitismusbeauftragte der Bundesregierung, Felix Klein, teilte mit, die Entscheidung des Gerichts sei selbstverständlich zu akzeptieren. Er halte aber seine Kritik an X aufrecht, „da es eine Tatsache ist, dass auf der Plattform antisemitische Postings in großer Zahl vorhanden sind und X in nicht zufriedenstellender Weise dazu beiträgt, diesem unerträglichen Zustand abzuhelfen“.
Klein betonte: „Ich erwarte von dem Unternehmen, Verantwortung zu übernehmen und tatkräftig gegen Hass und Hetze vorzugehen. Öffentliche antisemitische Anfeindungen, Beleidigungen gegen Jüdinnen und Juden, Verharmlosungen und Leugnung der Shoah dürfen wir in unserer Gesellschaft nicht dulden, sie sind Gift für die freiheitliche demokratische Grundordnung.“
(mho)
-
Online Marketing & SEOvor 1 Monat
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Apps & Mobile Entwicklungvor 4 Wochen
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Digital Business & Startupsvor 2 Wochen
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier
-
UX/UI & Webdesignvor 4 Wochen
Philip Bürli › PAGE online
-
Social Mediavor 1 Monat
Aktuelle Trends, Studien und Statistiken
-
Social Mediavor 4 Wochen
LinkedIn Feature-Update 2025: Aktuelle Neuigkeiten
-
Online Marketing & SEOvor 4 Wochen
#WantaFanta: Warum Fanta und Nico Santos der Gen Z Wünsche erfüllen
-
Social Mediavor 4 Wochen
“Wir haben doch nichts zu erzählen…” – 3 Tricks für neue Social Media Content Ideen