Connect with us

Künstliche Intelligenz

Streitpunkt KI-Synchronisationen: Mexiko als Vorreiter


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Mexiko hat die größte und wichtigste Synchronisationsindustrie Lateinamerikas. Das Land produziert gut zwei Drittel aller Synchronisationen in der Hemisphäre. Doch bislang gibt es keine Vorschriften, die eine künstliche Intelligenz (KI) daran hindern, die Stimmen von Schauspielern zu kopieren, ohne dafür zu bezahlen oder um Erlaubnis zu fragen. Das soll sich ändern.

Weiterlesen nach der Anzeige

Die Regierung von Präsidentin Claudia Sheinbaum hat Mitte Februar eine Gesetzesinitiative vorgelegt, die die menschliche Stimme rechtlich als künstlerisches Werkzeug anerkennt, das nicht geklont werden darf. Sollte der Vorstoß Erfolg haben – wovon angesichts der Mehrheitsverhältnisse im mexikanischen Kongress auszugehen ist –, wäre Mexiko weltweit Pionier bei der Regulierung des Klonens von Stimmen in der Kultur.

Wie das mexikanische Tech-Portal Xataka berichtet, waren der Auslöser für den Gesetzesvorstoß keine mexikanischen Telenovelas, sondern koreanische Serien. Im Mai 2024 teilten Nutzer in den sozialen Netzwerken Ausschnitte aus koreanischen Serien von Amazon Prime Video und kritisierten, dass die Synchronisation ins Spanische mechanisch und roboterhaft klinge. Auch waren nirgendwo die Namen der Synchronsprecher aufgeführt. Kommentarlos zog Amazon daraufhin die synchronisierten Versionen zurück, bestätigte jedoch nie die Herkunft der Stimmen.

Mexikos Synchronsprechergewerkschaft beklagte damals bereits, dass Synchronsprecher auf dem gesamten Kontinent ihre Arbeit an KI-Tools verlieren. Diese wiederum waren zum Teil mit deren Stimmen trainiert worden.

Anfang März vergangenen Jahres kündigte Prime Video ein Pilotprogramm zur Synchronisation mithilfe von KI in Englisch und lateinamerikanischem Spanisch an. Laut Amazon handelte es sich um zwölf Serien, die ohne KI nicht synchronisiert worden wären. Das aber war der berühmte Tropfen, der das Fass zum Überlaufen brachte.

Laut dem Mexikanischen Verband der Werbesprecher AMELOC (Asociación Mexicana de Locutores Comerciales), einer gemeinnützigen Organisation, die mexikanische Werbesprecher und Synchronsprecher vereint, verfügt Mexiko über 35 aktive Studios mit rund 1.500 Schauspielern. Der Verband mexikanischer Unternehmen der Synchronisationsbranche CEMID (Consejo de Empresas Mexicanas de la Industria del Doblaje) schätzt, dass dieser Sektor in Mexiko durchschnittlich 1.000 direkte und bis zu 6.000 indirekte Arbeitsplätze bietet. Mexiko produziert etwa 65 Prozent der lateinamerikanischen Synchronisationen für Lateinamerika. Hollywood und US-Streamingdienste wie Netflix oder HBO Max haben einen Teil ihrer Produktionen ins südliche Nachbarland ausgelagert. Unter dem Motto „KI ersetzt nicht“ kam es im Juli vergangenen Jahres in Mexiko zu Protesten von Beschäftigten der Filmindustrie. Sie forderten, die Stimme als biometrisches Merkmal anzuerkennen, ähnlich wie ein Fingerabdruck. Damit soll ihre Verwendung ohne Zustimmung verhindert werden.

Weiterlesen nach der Anzeige

Die Regierung griff die Forderung auf und erarbeitete gemeinsam mit dem Nationalen Institut für Urheberrecht INDAUTOR (Instituto Nacional del Derecho de Autor) einen Entwurf, der die Reform zweier bestehender Gesetze vorsieht. Das Bundesarbeitsgesetz nimmt Synchronsprecher als formelle Arbeitnehmer des Kultursektors auf und stellt sie damit Sängern gleich. Synchronsprecher genießen damit künftig als Arbeitnehmer im Kultursektor rechtlichen Schutz. Das Bundesurheberrechtsgesetz wiederum erkennt die menschliche Stimme als „einzigartiges und unwiederholbares“ künstlerisches Werkzeug an. Die Reform legt fest, dass keine Stimme ohne die Zustimmung des Rechteinhabers geklont oder digital verwendet werden darf, und dass jede Verwendung der Stimme durch KI einer finanziellen Vergütung bedarf. Die Synchronisation mit KI wird also nicht verboten, sondern die Stimmen, die das Modell trainieren oder replizieren, werden geschützt.

Mexiko wird damit weltweit zum Vorreiter. Dass menschliche Akteure im Synchronbereich immer mehr durch KI ersetzt werden, ist auch andernorts Gegenstand von Auseinandersetzungen und Regulierungsversuchen. In Deutschland z. B. streiten sich die deutschen Synchronsprecher und -sprecherinnen seit Anfang Januar mit dem US-Streamingdienst Netflix. Auslöser ist eine Vertragsklausel, die Netflix das Recht einräumt, Synchronaufnahmen für KI-Trainingszwecke zu nutzen. Der Sprecherverband hatte im April vergangenen Jahres die Petition „Schützt die Kunst vor KI“ initiiert.


(akn)



Source link

Künstliche Intelligenz

Software Testing: KI‑generierte Testfälle im regulierten Umfeld


Richard Seidl und sein Gast Alexander Frenzel sprechen über KI-gestützte Testfallerzeugung im streng regulierten Umfeld. Ein Assistenzsystem leitet Tests direkt aus Requirements ab, mit One-Click-Generator, modularen Modellen und einem RAG-System. Statt Fragen nutzt es das Hyde-Prinzip: Behauptung formulieren, Belege in der Dokumentation finden. So bleiben Nachvollziehbarkeit, Logging und der Human in the Loop gewahrt.

Weiterlesen nach der Anzeige

Alexander Frenzel ist seit 2019 bei Fresenius Medical Care Deutschland GmbH als Expert for Test Management, Global Verification & Validation Lead für mehrere Produktreihen tätig und zudem seit 2025 Director Test Management. Er ist Mitglied des Programm-Committee des QS-Tags und Board Member des German Testing Boards.


GenAI Summit, Linien

GenAI Summit, Linien

(Bild: TechSolution/Adobe Stock)

GenAI verändert die Softwareentwicklung grundlegend und hat sich im Arbeitsalltag vieler Developer etabliert. Die KI-Tools übernehmen dabei nicht nur lästige Tipparbeit, sondern helfen bei komplexen Aufgaben. Um sicheren und effizienten Code zu erhalten, muss man aber auch ihre Risiken kennen.

Der betterCode() GenAI Summit zeigt am 11. Juni, welche KI-Tools für welche Aufgaben geeignet sind und wie die KI-Integration effizient funktioniert. Außerdem thematisiert er die Auswirkungen auf die Arbeit von Entwicklungsteams.

Bei diesem Format dreht sich alles um Softwarequalität: Ob Testautomatisierung, Qualität in agilen Projekten, Testdaten oder Testteams – Richard Seidl und seine Gäste schauen sich Dinge an, die mehr Qualität in die Softwareentwicklung bringen.

Die aktuelle Ausgabe ist auch auf Richard Seidls Blog verfügbar: „KI‑generierte Testfälle im regulierten Umfeld – Alexander Frenzel“.


(mdo)



Source link

Weiterlesen

Künstliche Intelligenz

Dienstag: Anthropic gegen chinesische KI-Firmen, SPD will Palantir blockieren


Der KI-Wettlauf wird immer mehr zum Machtkampf zwischen den Vereinigten Staaten und China. Nach OpenAI beschuldigt nun auch das US-Start-up Anthropic die chinesische Konkurrenz, zur Verbesserung ihrer KI-Modelle „Destillation“ einzusetzen. DeepSeek und andere sollen dafür Anthropics KI-Modell Claude angezapft haben. Die SPD reagiert auf monatelangen Druck aus der Zivilgesellschaft und verspricht, sich gegen den bundesweiten Einsatz der umstrittenen Analyse-Software Palantir starkzumachen. Und ein Entwurf zum Abkommen über Austausch von Biometriedaten zwischen der EU und den USA könnte dazu führen, dass bald eine Software allein über die Einreise entscheidet – die wichtigsten Meldungen im kurzen Überblick.

Weiterlesen nach der Anzeige

Als das chinesische Unternehmen DeepSeek Anfang vergangenen Jahres sein KI-Modell R1 präsentierte, reagierte die Branche geschockt. Zu gerade einmal einem Bruchteil der immensen Kosten der US-Konkurrenz hatte DeepSeek ein konkurrenzfähiges Produkt entwickelt. Schnell kamen Vorwürfe auf – vornehmlich aus den USA – DeepSeek habe für die Entwicklung seiner KI-Modelle Destillation genutzt, eine Technik, bei der ein weniger leistungsfähiges Modell anhand der Ergebnisse eines leistungsstärkeren Modells trainiert wird. OpenAI wirft bis heute DeepSeek vor, seinen Chatbot mittels ChatGPT trainiert zu haben. Nun erhebt das US-amerikanische KI-Start-up Anthropic ähnliche Vorwürfe gegen DeepSeek und andere chinesische Firmen. Anthropic wirft chinesischen Unternehmen unlautere Praktiken vor

Die Software „Gotham“ des US-amerikanischen Technologieunternehmens Palantir, das unter anderem von Tech-Milliardär Peter Thiel mitgegründet wurde, ermöglicht es Sicherheitsbehörden, große Datenmengen aus unterschiedlichen Quellen zusammenzuführen und automatisiert auszuwerten. In mehreren unionsgeführten Bundesländern kommt Palantir bereits zum Einsatz. Kritiker warnen seit Längerem vor weitreichenden Überwachungsmöglichkeiten, mangelnder Transparenz und potenziellen Eingriffen in Grundrechte. Die Abhängigkeit von einem US-Konzern erscheint zudem als ein sicherheitspolitisches Risiko. Zuletzt hatten zivilgesellschaftliche Initiativen gegen den Einsatz von Palantir in Deutschland mobilisiert. Jetzt positioniert sich die SPD. Überwachungssoftware: SPD will Palantir auf Bundesebene blockieren

Zwischen den Vereinigten Staaten und der EU knirscht es derzeit an verschiedenen Stellen – nicht erst seit Donald Trump. Bereits unter der Regierung von Präsident Joe Biden haben die USA mit der sogenannten Enhanced Border Security Partnership (EBSP) neue Anforderungen für die visumfreie Einreise geschaffen. Darin werden EU-Staaten aufgefordert, bilaterale Abkommen mit der US-Regierung zu schließen, um den Zugriff auf nationale biometrische Datenbanken zu ermöglichen. Wer bis Ende dieses Jahres keine Einigung erzielt, riskiert den Ausschluss aus dem Programm für visumfreies Reisen. Um einen Flickenteppich an Einzelverträgen zu vermeiden und ein gewisses Schutzniveau zu wahren, hat die EU-Kommission die Verhandlungen über ein übergeordnetes Rahmenabkommen übernommen. Ein aktueller Entwurf des Abkommens gewährt den US-Sicherheitsbehörden tiefgreifende Befugnisse. US-Algorithmen als Grenzhüter: Automatisierte Urteile über EU-Reisende möglich

Hochverzinsliche Anlagebetrügereien, Betrug mit mobilem Geld und betrügerische Kreditgeschäfte im großen Stil – eine von Interpol koordinierte verdeckte Operation gegen transnationale Cyberkriminalitätsnetzwerke in 16 afrikanischen Ländern hat zur Festnahme von Hunderten Verdächtigen und zur Beschlagnahmung mehrerer Millionen US-Dollar geführt. Die Operation mit dem Namen „Red Card 2.0“ war die zweite große koordinierte Aktion gegen Cybercrime in ganz Afrika innerhalb von sechs Monaten. In zahlreichen Ländern wurden Banden enttarnt und deren Mitglieder festgenommen. „Red Card 2.0“: Großangelegte Razzia gegen Cyberkriminalität in Afrika

Level 3 beschreibt hochautomatisiertes Fahren, bei dem das Auto mit bestimmten Einschränkungen selbstständig fahren kann. Ab dieser Stufe muss der menschliche Fahrer das System nicht mehr permanent beaufsichtigen, sondern darf sich anderen Tätigkeiten widmen. Hochautomatisiertes Fahren auf Level 3 ist in Deutschland bis zu einer Geschwindigkeit von 95 km/h erlaubt. Derzeit bieten nur BMW beim 7er und Mercedes bei seiner S-Klasse und dem EQS diese Option – gegen hohe Aufpreise. Mercedes will bei der überarbeiteten S-Klasse auf Level 3 verzichten. Nun zieht BMW nach. Autonomes Fahren: BMW streicht Level 3 aus 7er-Reihe

Auch noch wichtig:

Weiterlesen nach der Anzeige

  • US-Elektroautobauer Tesla will einen Taxidienst aufbauen, der ohne jeglichen menschlichen Eingriff auskommt. Die US-Regulierungsbehörde FCC hat eine wichtige Genehmigung erteilt. Tesla darf Cybercabs drahtlos laden


(akn)



Source link

Weiterlesen

Künstliche Intelligenz

KI-Update kompakt: Bremer Straßenbahn, Google, OpenClaw, GitHub


Weiterlesen nach der Anzeige

Die Bremer Straßenbahn AG will 40 Bahnen mit KI-Technologie ausstatten, je 10.000 € pro Fahrzeug. Eine KI soll die Aufnahmen auswerten und Vorfälle wie Schlägereien erkennen, damit Personal die Polizei alarmieren kann. Was die KI-Auswertung kostet, ist noch offen. Da die Systeme fehleranfällig sind, sollen Menschen die Bilder zusätzlich überwachen, was weitere Kosten verursacht.

Alle Fahrgäste werden gefilmt. Gesichter werden automatisch verpixelt, eine nachträgliche Identifikation bleibt aber über Kleidung, Größe oder Haarfarbe möglich. Die Bremer Straßenbahn AG versichert, das sei datenschutzrechtlich unbedenklich. Die Systeme wurden mit Theaterfahrten trainiert, bei denen Schauspieler etwa Schlägereien simulierten. Hamburg setzt ein ähnliches System bereits ein, dort soll eine Umarmung schon als Schlägerei erkannt worden sein.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO

Die Organisation AI Forensics hat mehr als 10 000 automatische Zusammenfassungen von Apple Intelligence untersucht und dabei systematische Verzerrungen gefunden. Das System, das unaufgefordert Kurzfassungen von Nachrichten und E-Mails auf Millionen von Apple-Geräten erstellt, erwähnte die Herkunft weißer Personen nur in etwa der Hälfte der Fälle, die asiatischer Personen fast immer. Bei mehrdeutigen Pronomen legte sich die KI meist auf ein Geschlecht fest, oft entsprechend gängiger Klischees. In einigen Fällen dichtete sie Eigenschaften hinzu, die im Originaltext nicht standen.

Googles kleineres Modell Gemma3-1B machte bei identischen Szenarien solche Fehler nur in sechs Prozent der Fälle. Besonders heikel ist, dass Nutzer die verzerrten Zusammenfassungen nicht aktiv anfordern. Sie erscheinen unaufgefordert auf dem Sperrbildschirm und im Posteingang.

Weiterlesen nach der Anzeige

Google hat 2025 mehr als 1,75 Millionen Apps geblockt, bevor sie im Play Store erscheinen konnten. Das ist ein Rückgang gegenüber den 2,36 Millionen blockierten Apps des Vorjahres, den Google als Erfolg wertet: Angreifer versuchen es seltener, weil die Hürden gestiegen sind. Entwickler müssen sich vor einer Einreichung verifizieren lassen, Google nimmt nach eigenen Angaben mehr als 10 000 Sicherheitschecks pro App vor, und generative KI hilft menschlichen Prüfern, komplexe Schadensmuster schneller zu erkennen. Zusätzlich sperrte Google über 80 000 Entwicklerkonten, ebenfalls deutlich weniger als die 158 000 des Vorjahres.

Während der Play Store sicherer wird, wächst die Bedrohung außerhalb davon stark. Googles eingebauter Schutzdienst Google Play Protect erkannte 2025 mehr als 27 Millionen schädliche Apps, die per Sideloading, also am offiziellen Store vorbei, installiert wurden. 2023 waren es erst fünf Millionen. Im August 2025 wurden 77 Apps mit zusammen 19 Millionen Installationen entdeckt, die Banking-Trojaner enthielten. Ab Herbst 2026 will Google das Installieren nicht verifizierter Apps von außen deutlich schwieriger machen.

Anthropic hat Millionen realer Interaktionen zwischen Menschen und KI-Agenten ausgewertet. Das Ergebnis: Knapp die Hälfte aller agentischen Aktivität entfällt auf Software-Entwicklung. Bereiche wie Kundenservice, Vertrieb oder Finanzen machen jeweils nur wenige Prozentpunkte aus. Anthropic spricht selbst von den frühen Tagen der Agenten-Nutzung und erklärt, andere Branchen befänden sich noch in der Experimentierphase.

Besonders auffällig ist die Entwicklung beim firmeneigenen Coding-Agenten Claude Code. Die längsten autonomen Arbeitsphasen haben sich zwischen Oktober 2025 und Januar 2026 fast verdoppelt, von unter 25 auf mehr als 45 Minuten. Anthropic nennt das einen „Deployment Overhang“: Die technische Fähigkeit der Modelle übersteigt, was Nutzer ihnen in der Praxis abverlangen. Das Forschungsinstitut METR schätzt, dass Claudes aktuelles Spitzenmodell Aufgaben mit einer Erfolgsrate von 50 Prozent lösen kann, für die ein Mensch fast fünf Stunden bräuchte. Anthropic empfiehlt, auf Monitoring nach dem Einsatz zu setzen, statt jede einzelne Agenten-Aktion manuell zu genehmigen.

Anthropic hat „Claude Code Security“ in die webbasierte Version seines Coding-Agenten integriert. Das Werkzeug durchsucht Codebasen nach Sicherheitslücken und schlägt Patches zur menschlichen Prüfung vor. Anders als viele Analysetools, die nur nach bekannten Mustern suchen, liest Claude Code Security den Code so, wie es eine Sicherheitsexpertin tun würde, und kann so auch subtile, kontextabhängige Lücken finden. Die Ergebnisse erscheinen in einem Dashboard, in dem Teams die vorgeschlagenen Korrekturen prüfen und freigeben können.

Die Ankündigung hatte unmittelbare Folgen an der Börse. Laut Bloomberg fielen die Aktienkurse zahlreicher Cybersecurity-Unternehmen am Freitag deutlich. Viele Investoren fürchten, dass KI-gestützte Werkzeuge die Nachfrage nach etablierten Sicherheitsprodukten verringern werden.


KI-Update

KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Der Entwickler Jake Ledner hat gezeigt, wie sich ein KI-Agent per Sprachbefehl über Smart Glasses steuern lässt, während man durch New York spaziert. Über sein Meta Ray-Ban-Display und WhatsApp gab er dem KI-Agenten OpenClaw Anweisungen, der auf einem Mac Studio in seiner Wohnung lief und OpenAIs Coding-Werkzeug Codex nutzte, um Code zu schreiben. Den Fortschritt verfolgte Ledner über Screenshots direkt in seinem Sichtfeld. Im Video ließ er OpenClaw seiner App eine neue Funktion hinzufügen, die nach Freigabe automatisch eingespielt wurde.

So nahtlos, wie das Video suggeriert, funktioniert das Ganze bisher nicht. OpenClaw birgt erhebliche Sicherheitsrisiken und setzt idealerweise eine dedizierte Recheneinheit voraus. Das Meta Ray-Ban-Display ist bislang nur in den USA erhältlich, und Drittentwickler haben keinen direkten Zugriff darauf. Ledner nutzt deshalb WhatsApp als Umweg, eine der wenigen Apps, die die Brille unterstützt. Google plant, noch in diesem Jahr eine eigene Smart Glasses mit Display vorzustellen.

Große Technologieunternehmen in den USA bauen zunehmend Stromerzeugungsanlagen, die nicht ans öffentliche Netz angeschlossen sind. Laut Washington Post entsteht so ein regelrechtes Schattennetz, an dem unter anderem Meta, OpenAI, Oracle und der Ölkonzern Chevron beteiligt sind. Die meisten Projekte setzen auf Gaskraftwerke, weil diese als zuverlässiger gelten als Solar- oder Windenergie. Da die effizientesten Gasturbinen lange Lieferzeiten haben, kommen oft weniger saubere Alternativen zum Einsatz, was den Treibhausgasausstoß erhöht. Ein Experte für erneuerbare Energien nennt das „katastrophal für die Klimaziele“.

Auch in Deutschland sucht die Branche nach Wegen, den Strombedarf neuer Rechenzentren zu decken. Vollständige Netzunabhängigkeit ist in Europa regulatorisch und wirtschaftlich kurzfristig nicht realistisch. Stattdessen setzen Unternehmen hier auf sogenannte Microgrids, campus-eigene Stromnetze, die an das öffentliche Netz angebunden bleiben, im Fehlerfall aber als eigenständige Insel funktionieren können. Batteriespeicher stabilisieren die Versorgung, Gaskraftwerke oder künftig wasserstofffähige Anlagen übernehmen die Grundlast. EnBW und RWE planen solche Anlagen als Ankerpunkte für Rechenzentrums-Cluster.

Die Lösung hat einen Haken für alle anderen Stromkunden. Wer sich ein eigenes Microgrid leistet, zahlt weniger Netzentgelte. Die Kosten für die verbleibenden Nutzer steigen entsprechend.

OpenAI-Mitbegründer Sam Altman hat die von Elon Musk propagierte Idee von Rechenzentren im Weltall als „lächerlich“ bezeichnet. Beim „India AI Impact Summit“ sagte er gegenüber „The Indian Express“, schon eine einfache Kostenrechnung für den Transport ins All zeige das. Ein weiteres ungelöstes Problem sei die Reparatur defekter Grafikprozessoren im All, denn diese gingen „leider immer noch sehr oft kaputt“. Altman glaubt nicht, dass die Idee im laufenden Jahrzehnt umsetzbar ist.

Auf die Frage nach den Energiekosten von KI zog Altman einen ungewöhnlichen Vergleich. Eine Anfrage an ChatGPT mit einer an einen Menschen zu vergleichen, sei unfair, da ein Mensch 20 Jahre Ernährung und die gesamte Evolution der Menschheit benötige, um klug zu werden. Gemessen daran habe KI beim Energieverbrauch „vielleicht schon aufgeholt“.

Open-Source-Projekte auf GitHub leiden zunehmend unter einer Flut minderwertiger, KI-generierter Beiträge. Entwickler nutzen KI, um automatisch Lösungsvorschläge für bekannte Probleme in fremden Projekten einzureichen, oft ohne die Anforderungen des jeweiligen Projekts zu verstehen. Die Hauptlast tragen die Maintainer, also die Kernentwickler, die jeden Beitrag prüfen müssen. Der Aufwand ist erheblich, der Ausschuss groß. Einige Projekte, darunter Gentoo Linux, haben GitHub deshalb bereits verlassen und sind zu alternativen Plattformen wie Codeberg gewechselt, einem offenen Projekt mit Sitz in Berlin.

GitHub, das zur KI-Abteilung von Microsoft gehört, hat nach Kritik aus der Community nun erste Maßnahmen gegen minderwertige Beiträge angekündigt. Maintainer sollen minderwertige Beiträge künftig schneller löschen können, ohne sie im Detail prüfen zu müssen. Außerdem sollen sie Beiträge auf bestimmte Nutzergruppen beschränken können, etwa auf Entwickler, die bereits nachgewiesene Beiträge in anderen Projekten vorweisen. Eine automatische Prüfung von Beiträgen anhand selbst definierter Kriterien ist ebenfalls geplant. Umgesetzt ist bislang noch nichts.

Die Motion Picture Association, Hollywoods Branchenverband, hat dem chinesischen Technologiekonzern Bytedance ein Unterlassungsschreiben geschickt. Auslöser war der KI-Videogenerator Seedance 2.0, der kurz nach seinem Start eine Welle viraler Videos mit geschützten Charakteren aus Marvel, Star Wars und anderen Franchises produzierte. Die MPA spricht von einer „systemischen Rechtsverletzung“ und wirft Bytedance vor, das Modell ohne Zustimmung auf den Werken der Studios trainiert und den Dienst ohne ausreichende Schutzmaßnahmen veröffentlicht zu haben. Es ist das erste Mal, dass die MPA direkt gegen ein KI-Unternehmen vorgeht.

Zuvor hatten Netflix, Warner Bros., Disney, Paramount und Sony bereits eigene Unterlassungsschreiben verschickt. Bytedance erklärte, man arbeite an stärkeren Schutzmaßnahmen, nannte aber keine Details. Das reichte der MPA offenbar nicht. Berichten zufolge verzögern die Auseinandersetzungen den Start der öffentlichen Programmierschnittstelle von Seedance 2.0.

Bei OpenAI arbeiten mehr als 200 Mitarbeiter an eigener KI-Hardware. Laut „The Information“ soll als erstes Produkt ein Smart Speaker für 200 bis 300 US-Dollar erscheinen. Das Gerät erfasst per Kamera Menschen und Umgebung und könnte sogar Einkäufe via Gesichtserkennung ermöglichen. Ein Marktstart ist frühestens Anfang 2027 geplant. Weitere Projekte wie eine smarte Lampe und Smart Glasses befinden sich noch in einer frühen Phase. Das Hardware-Team ging aus der Übernahme des Start-ups „io“ hervor, das von Apples ehemaligem Designchef Jony Ive gegründet wurde.

Apple verfolgt ohne Ive einen eigenen Weg im Bereich KI-Hardware. Geplant sind eine smarte Brille ohne Display, ein KI-Anhänger sowie AirPods mit Kamerasystem. Alle Geräte sollen die sogenannte „visuelle Intelligenz“ ausbauen, also die KI-Analyse der Umgebung. Ein erstes Produkt könnte noch in diesem Jahr erscheinen.

Nach einem überraschenden Führungswechsel bei Microsofts Xbox-Sparte hat die neue Leiterin Asha Sharma in einem internen Memo ihre Prioritäten skizziert. Laut „The Verge“ nennt sie drei Schwerpunkte: gute Spiele, die Rückkehr von Xbox als Marke und die Zukunft des Spielens. Zum umstrittenen Thema KI in der Spieleentwicklung bezieht Sharma klar Stellung: Man wolle zwar mit modernen Technologien arbeiten, aber Spiele sollen „Kunst, erstellt von Menschen“ bleiben.

Sharma schreibt wörtlich, man werde „weder kurzfristige Effizienz anstreben noch das Ökosystem mit seelenlosem KI-Schrott überschwemmen“. Für Spieler, die KI-generierte Inhalte in Spielen kritisch sehen, ist das eine ungewöhnlich direkte Ansage aus einem der größten Spielekonzerne der Welt.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO


(igr)



Source link

Weiterlesen

Beliebt