Künstliche Intelligenz
Gericht streicht Honorar: KI-Einsatz führt zu Unverwertbarkeit eines Gutachtens
In der juristischen Welt galt die Beauftragung eines Sachverständigen bisher in der Regel als Garant für fachliche Tiefe und menschliche Expertise. Doch der zunehmende Einzug der Künstlichen Intelligenz (KI) in die Justiz sorgt nun auch für unerwünschte Folgen im Gerichtssaal. Das Landgericht Darmstadt hat mit einem jetzt veröffentlichten Beschluss vom 10. November ein Signal gegen die intransparente Nutzung von KI-Systemen in gerichtlichen Gutachten gesetzt (Az.: 19 O 527/16). In dem Fall strich es die Vergütung eines Facharztes für Mund-, Kiefer- und Gesichtschirurgie auf genau null Euro zusammen.
Weiterlesen nach der Anzeige
Der Sachverständige hatte dem Gericht laut der Entscheidung eine Rechnung über 2374,50 Euro präsentiert. Die zuständige Zivilkammer verweigerte die Zahlung aber komplett, da sie das eingereichte, überaus übersichtliche Werk als rechtlich unverwertbar einstufte.
Die Begründung des Gerichts liest sich wie eine Analyse der Besonderheiten aktueller großer Sprachmodelle wie GPT, Claude oder Gemini. Die Richter sind überzeugt, dass das von ihnen nur in Anführungsstrichen gesetzte „Gutachten“ in wesentlichen Teilen unter Einsatz einer KI zustande gekommen sei. Dies habe der beauftragte Professor ihnen gegenüber aber nicht angezeigt.
Die Maschine hinterlässt Spuren
Den Ausschlag gaben mehrere Faktoren, die für KI-generierte Texte typisch sind. So fielen den Juristen bizarre Formulierungen auf, in denen der Sachverständige sich selbst inklusive vollständiger Anschrift als Adressaten des Beweisbeschlusses benannte. Auch die monotone Struktur des Textes, die „insgesamt fast ausschließlich aus Hauptsätzen“ mit identischen Satzanfängen bestanden hat, sowie untypische Wiederholungen von Aktenzeichen und Datumsangaben werteten die Richter als Indizien für ein maschinelles Muster.
Pikant an dem Fall ist die offensichtliche Nachlässigkeit des Sachverständigen bei der Überprüfung der KI-Ergebnisse. Das Gericht verweist auf Fragmente im Text, die sich am ehesten durch eine unzureichende Korrektur der Prompts erklären ließen. So habe sich in der „Abfassung“ ein verräterischer Halbsatz gefunden. Darin werde im Sinne des ursprünglichen Auftrags bestätigt, dass eine Vorarbeit eines bestimmten Diplom-Ingenieurs berücksichtigt werde. Die Kammer sieht darin einen Hinweis auf ein „Nachschärfen“ der Eingabebefehle an den Chatbot.
Die Ausführungen wirkten insgesamt wie eine generische Zusammenfassung der Akten, heißt es weiter. Diese hätten zudem gravierende inhaltliche Mängel aufgewiesen. So habe der Sachverständige die Klägerin offenbar nicht einmal selbst untersucht und sich nur auf ein Unfallgeschehen bezogen, das so gar nicht stattgefunden habe.
Weiterlesen nach der Anzeige
Honoraranspruch geht flöten
Rechtlich stützte das Landgericht seine Entscheidung auf mehrere Paragrafen des Justizvergütungs- und -entschädigungsgesetzes sowie der Zivilprozessordnung. Ein Kernpunkt war der Verstoß gegen die Pflicht zur persönlichen Leistungserfüllung. Wenn ein Gutachten in erheblichem Umfang von einer Maschine oder Dritten erstellt wird, ohne dass der beauftragte Experte dies offenlegt und die Verantwortung übernimmt, geht demnach der Anspruch auf Honorar verloren.
Der Sachverständige hatte laut dem Beschluss auf Nachfrage nur vage angegeben, die Gesamtverantwortung verbleibe bei ihm. Er habe aber die Zweifel an seiner Urheberschaft nicht ausräumen können.
Zusätzlich zur KI-Problematik kritisiert die Kammer das Missverhältnis zwischen dem abgerechneten Zeitaufwand und dem tatsächlichen Ertrag. Selbst wenn der vermutete KI-Einsatz unberücksichtigt bliebe, wären für die lediglich anderthalb Seiten an inhaltlichen Ausführungen allenfalls vier Arbeitsstunden angemessen gewesen. Die Vergütung dafür hätte deutlich unter der in Rechnung gestellten Summe bleiben müssen.
Die Kammer unterstreicht so, dass Sachverständige in der Justiz zwar prinzipiell digitale Hilfsmittel nutzen dürfen. Sie müssen diese aber zumindest zwingend deklarieren und ihrem Auftrag gerecht werden. Eine Verschleierung von KI-generierten Inhalten führt dem Beschluss zufolge nicht nur zur Unbrauchbarkeit des angeforderten Beweismittels für den Prozess, sondern lässt den Experten am Ende auch ohne Bezahlung zurück.
(wpl)
Künstliche Intelligenz
Dienstag: Anthropic gegen chinesische KI-Firmen, SPD will Palantir blockieren
Der KI-Wettlauf wird immer mehr zum Machtkampf zwischen den Vereinigten Staaten und China. Nach OpenAI beschuldigt nun auch das US-Start-up Anthropic die chinesische Konkurrenz, zur Verbesserung ihrer KI-Modelle „Destillation“ einzusetzen. DeepSeek und andere sollen dafür Anthropics KI-Modell Claude angezapft haben. Die SPD reagiert auf monatelangen Druck aus der Zivilgesellschaft und verspricht, sich gegen den bundesweiten Einsatz der umstrittenen Analyse-Software Palantir starkzumachen. Und ein Entwurf zum Abkommen über Austausch von Biometriedaten zwischen der EU und den USA könnte dazu führen, dass bald eine Software allein über die Einreise entscheidet – die wichtigsten Meldungen im kurzen Überblick.
Weiterlesen nach der Anzeige
Als das chinesische Unternehmen DeepSeek Anfang vergangenen Jahres sein KI-Modell R1 präsentierte, reagierte die Branche geschockt. Zu gerade einmal einem Bruchteil der immensen Kosten der US-Konkurrenz hatte DeepSeek ein konkurrenzfähiges Produkt entwickelt. Schnell kamen Vorwürfe auf – vornehmlich aus den USA – DeepSeek habe für die Entwicklung seiner KI-Modelle Destillation genutzt, eine Technik, bei der ein weniger leistungsfähiges Modell anhand der Ergebnisse eines leistungsstärkeren Modells trainiert wird. OpenAI wirft bis heute DeepSeek vor, seinen Chatbot mittels ChatGPT trainiert zu haben. Nun erhebt das US-amerikanische KI-Start-up Anthropic ähnliche Vorwürfe gegen DeepSeek und andere chinesische Firmen. Anthropic wirft chinesischen Unternehmen unlautere Praktiken vor
Die Software „Gotham“ des US-amerikanischen Technologieunternehmens Palantir, das unter anderem von Tech-Milliardär Peter Thiel mitgegründet wurde, ermöglicht es Sicherheitsbehörden, große Datenmengen aus unterschiedlichen Quellen zusammenzuführen und automatisiert auszuwerten. In mehreren unionsgeführten Bundesländern kommt Palantir bereits zum Einsatz. Kritiker warnen seit Längerem vor weitreichenden Überwachungsmöglichkeiten, mangelnder Transparenz und potenziellen Eingriffen in Grundrechte. Die Abhängigkeit von einem US-Konzern erscheint zudem als ein sicherheitspolitisches Risiko. Zuletzt hatten zivilgesellschaftliche Initiativen gegen den Einsatz von Palantir in Deutschland mobilisiert. Jetzt positioniert sich die SPD. Überwachungssoftware: SPD will Palantir auf Bundesebene blockieren
Zwischen den Vereinigten Staaten und der EU knirscht es derzeit an verschiedenen Stellen – nicht erst seit Donald Trump. Bereits unter der Regierung von Präsident Joe Biden haben die USA mit der sogenannten Enhanced Border Security Partnership (EBSP) neue Anforderungen für die visumfreie Einreise geschaffen. Darin werden EU-Staaten aufgefordert, bilaterale Abkommen mit der US-Regierung zu schließen, um den Zugriff auf nationale biometrische Datenbanken zu ermöglichen. Wer bis Ende dieses Jahres keine Einigung erzielt, riskiert den Ausschluss aus dem Programm für visumfreies Reisen. Um einen Flickenteppich an Einzelverträgen zu vermeiden und ein gewisses Schutzniveau zu wahren, hat die EU-Kommission die Verhandlungen über ein übergeordnetes Rahmenabkommen übernommen. Ein aktueller Entwurf des Abkommens gewährt den US-Sicherheitsbehörden tiefgreifende Befugnisse. US-Algorithmen als Grenzhüter: Automatisierte Urteile über EU-Reisende möglich
Hochverzinsliche Anlagebetrügereien, Betrug mit mobilem Geld und betrügerische Kreditgeschäfte im großen Stil – eine von Interpol koordinierte verdeckte Operation gegen transnationale Cyberkriminalitätsnetzwerke in 16 afrikanischen Ländern hat zur Festnahme von Hunderten Verdächtigen und zur Beschlagnahmung mehrerer Millionen US-Dollar geführt. Die Operation mit dem Namen „Red Card 2.0“ war die zweite große koordinierte Aktion gegen Cybercrime in ganz Afrika innerhalb von sechs Monaten. In zahlreichen Ländern wurden Banden enttarnt und deren Mitglieder festgenommen. „Red Card 2.0“: Großangelegte Razzia gegen Cyberkriminalität in Afrika
Level 3 beschreibt hochautomatisiertes Fahren, bei dem das Auto mit bestimmten Einschränkungen selbstständig fahren kann. Ab dieser Stufe muss der menschliche Fahrer das System nicht mehr permanent beaufsichtigen, sondern darf sich anderen Tätigkeiten widmen. Hochautomatisiertes Fahren auf Level 3 ist in Deutschland bis zu einer Geschwindigkeit von 95 km/h erlaubt. Derzeit bieten nur BMW beim 7er und Mercedes bei seiner S-Klasse und dem EQS diese Option – gegen hohe Aufpreise. Mercedes will bei der überarbeiteten S-Klasse auf Level 3 verzichten. Nun zieht BMW nach. Autonomes Fahren: BMW streicht Level 3 aus 7er-Reihe
Auch noch wichtig:
Weiterlesen nach der Anzeige
- US-Elektroautobauer Tesla will einen Taxidienst aufbauen, der ohne jeglichen menschlichen Eingriff auskommt. Die US-Regulierungsbehörde FCC hat eine wichtige Genehmigung erteilt. Tesla darf Cybercabs drahtlos laden
(akn)
Künstliche Intelligenz
Streitpunkt KI-Synchronisationen: Mexiko als Vorreiter
Mexiko hat die größte und wichtigste Synchronisationsindustrie Lateinamerikas. Das Land produziert gut zwei Drittel aller Synchronisationen in der Hemisphäre. Doch bislang gibt es keine Vorschriften, die eine künstliche Intelligenz (KI) daran hindern, die Stimmen von Schauspielern zu kopieren, ohne dafür zu bezahlen oder um Erlaubnis zu fragen. Das soll sich ändern.
Weiterlesen nach der Anzeige
Die Regierung von Präsidentin Claudia Sheinbaum hat Mitte Februar eine Gesetzesinitiative vorgelegt, die die menschliche Stimme rechtlich als künstlerisches Werkzeug anerkennt, das nicht geklont werden darf. Sollte der Vorstoß Erfolg haben – wovon angesichts der Mehrheitsverhältnisse im mexikanischen Kongress auszugehen ist –, wäre Mexiko weltweit Pionier bei der Regulierung des Klonens von Stimmen in der Kultur.
Arbeit von Synchronsprechern durch KI bedroht
Wie das mexikanische Tech-Portal Xataka berichtet, waren der Auslöser für den Gesetzesvorstoß keine mexikanischen Telenovelas, sondern koreanische Serien. Im Mai 2024 teilten Nutzer in den sozialen Netzwerken Ausschnitte aus koreanischen Serien von Amazon Prime Video und kritisierten, dass die Synchronisation ins Spanische mechanisch und roboterhaft klinge. Auch waren nirgendwo die Namen der Synchronsprecher aufgeführt. Kommentarlos zog Amazon daraufhin die synchronisierten Versionen zurück, bestätigte jedoch nie die Herkunft der Stimmen.
Mexikos Synchronsprechergewerkschaft beklagte damals bereits, dass Synchronsprecher auf dem gesamten Kontinent ihre Arbeit an KI-Tools verlieren. Diese wiederum waren zum Teil mit deren Stimmen trainiert worden.
„KI ersetzt nicht“
Anfang März vergangenen Jahres kündigte Prime Video ein Pilotprogramm zur Synchronisation mithilfe von KI in Englisch und lateinamerikanischem Spanisch an. Laut Amazon handelte es sich um zwölf Serien, die ohne KI nicht synchronisiert worden wären. Das aber war der berühmte Tropfen, der das Fass zum Überlaufen brachte.
Laut dem Mexikanischen Verband der Werbesprecher AMELOC (Asociación Mexicana de Locutores Comerciales), einer gemeinnützigen Organisation, die mexikanische Werbesprecher und Synchronsprecher vereint, verfügt Mexiko über 35 aktive Studios mit rund 1.500 Schauspielern. Der Verband mexikanischer Unternehmen der Synchronisationsbranche CEMID (Consejo de Empresas Mexicanas de la Industria del Doblaje) schätzt, dass dieser Sektor in Mexiko durchschnittlich 1.000 direkte und bis zu 6.000 indirekte Arbeitsplätze bietet. Mexiko produziert etwa 65 Prozent der lateinamerikanischen Synchronisationen für Lateinamerika. Hollywood und US-Streamingdienste wie Netflix oder HBO Max haben einen Teil ihrer Produktionen ins südliche Nachbarland ausgelagert. Unter dem Motto „KI ersetzt nicht“ kam es im Juli vergangenen Jahres in Mexiko zu Protesten von Beschäftigten der Filmindustrie. Sie forderten, die Stimme als biometrisches Merkmal anzuerkennen, ähnlich wie ein Fingerabdruck. Damit soll ihre Verwendung ohne Zustimmung verhindert werden.
Weiterlesen nach der Anzeige
Reform stärkt Synchronsprecher
Die Regierung griff die Forderung auf und erarbeitete gemeinsam mit dem Nationalen Institut für Urheberrecht INDAUTOR (Instituto Nacional del Derecho de Autor) einen Entwurf, der die Reform zweier bestehender Gesetze vorsieht. Das Bundesarbeitsgesetz nimmt Synchronsprecher als formelle Arbeitnehmer des Kultursektors auf und stellt sie damit Sängern gleich. Synchronsprecher genießen damit künftig als Arbeitnehmer im Kultursektor rechtlichen Schutz. Das Bundesurheberrechtsgesetz wiederum erkennt die menschliche Stimme als „einzigartiges und unwiederholbares“ künstlerisches Werkzeug an. Die Reform legt fest, dass keine Stimme ohne die Zustimmung des Rechteinhabers geklont oder digital verwendet werden darf, und dass jede Verwendung der Stimme durch KI einer finanziellen Vergütung bedarf. Die Synchronisation mit KI wird also nicht verboten, sondern die Stimmen, die das Modell trainieren oder replizieren, werden geschützt.
Mexiko wird damit weltweit zum Vorreiter. Dass menschliche Akteure im Synchronbereich immer mehr durch KI ersetzt werden, ist auch andernorts Gegenstand von Auseinandersetzungen und Regulierungsversuchen. In Deutschland z. B. streiten sich die deutschen Synchronsprecher und -sprecherinnen seit Anfang Januar mit dem US-Streamingdienst Netflix. Auslöser ist eine Vertragsklausel, die Netflix das Recht einräumt, Synchronaufnahmen für KI-Trainingszwecke zu nutzen. Der Sprecherverband hatte im April vergangenen Jahres die Petition „Schützt die Kunst vor KI“ initiiert.
(akn)
Künstliche Intelligenz
KI-Update kompakt: Bremer Straßenbahn, Google, OpenClaw, GitHub
Bremens Straßenbahnen werden zur KI-Überwachungszone
Weiterlesen nach der Anzeige
Die Bremer Straßenbahn AG will 40 Bahnen mit KI-Technologie ausstatten, je 10.000 € pro Fahrzeug. Eine KI soll die Aufnahmen auswerten und Vorfälle wie Schlägereien erkennen, damit Personal die Polizei alarmieren kann. Was die KI-Auswertung kostet, ist noch offen. Da die Systeme fehleranfällig sind, sollen Menschen die Bilder zusätzlich überwachen, was weitere Kosten verursacht.
Alle Fahrgäste werden gefilmt. Gesichter werden automatisch verpixelt, eine nachträgliche Identifikation bleibt aber über Kleidung, Größe oder Haarfarbe möglich. Die Bremer Straßenbahn AG versichert, das sei datenschutzrechtlich unbedenklich. Die Systeme wurden mit Theaterfahrten trainiert, bei denen Schauspieler etwa Schlägereien simulierten. Hamburg setzt ein ähnliches System bereits ein, dort soll eine Umarmung schon als Schlägerei erkannt worden sein.

Apple Intelligence verzerrt Zusammenfassungen systematisch
Die Organisation AI Forensics hat mehr als 10 000 automatische Zusammenfassungen von Apple Intelligence untersucht und dabei systematische Verzerrungen gefunden. Das System, das unaufgefordert Kurzfassungen von Nachrichten und E-Mails auf Millionen von Apple-Geräten erstellt, erwähnte die Herkunft weißer Personen nur in etwa der Hälfte der Fälle, die asiatischer Personen fast immer. Bei mehrdeutigen Pronomen legte sich die KI meist auf ein Geschlecht fest, oft entsprechend gängiger Klischees. In einigen Fällen dichtete sie Eigenschaften hinzu, die im Originaltext nicht standen.
Googles kleineres Modell Gemma3-1B machte bei identischen Szenarien solche Fehler nur in sechs Prozent der Fälle. Besonders heikel ist, dass Nutzer die verzerrten Zusammenfassungen nicht aktiv anfordern. Sie erscheinen unaufgefordert auf dem Sperrbildschirm und im Posteingang.
Google blockt Millionen schädliche Apps mithilfe von KI
Weiterlesen nach der Anzeige
Google hat 2025 mehr als 1,75 Millionen Apps geblockt, bevor sie im Play Store erscheinen konnten. Das ist ein Rückgang gegenüber den 2,36 Millionen blockierten Apps des Vorjahres, den Google als Erfolg wertet: Angreifer versuchen es seltener, weil die Hürden gestiegen sind. Entwickler müssen sich vor einer Einreichung verifizieren lassen, Google nimmt nach eigenen Angaben mehr als 10 000 Sicherheitschecks pro App vor, und generative KI hilft menschlichen Prüfern, komplexe Schadensmuster schneller zu erkennen. Zusätzlich sperrte Google über 80 000 Entwicklerkonten, ebenfalls deutlich weniger als die 158 000 des Vorjahres.
Während der Play Store sicherer wird, wächst die Bedrohung außerhalb davon stark. Googles eingebauter Schutzdienst Google Play Protect erkannte 2025 mehr als 27 Millionen schädliche Apps, die per Sideloading, also am offiziellen Store vorbei, installiert wurden. 2023 waren es erst fünf Millionen. Im August 2025 wurden 77 Apps mit zusammen 19 Millionen Installationen entdeckt, die Banking-Trojaner enthielten. Ab Herbst 2026 will Google das Installieren nicht verifizierter Apps von außen deutlich schwieriger machen.
KI-Agenten sind bislang vorwiegend ein Werkzeug für Entwickler
Anthropic hat Millionen realer Interaktionen zwischen Menschen und KI-Agenten ausgewertet. Das Ergebnis: Knapp die Hälfte aller agentischen Aktivität entfällt auf Software-Entwicklung. Bereiche wie Kundenservice, Vertrieb oder Finanzen machen jeweils nur wenige Prozentpunkte aus. Anthropic spricht selbst von den frühen Tagen der Agenten-Nutzung und erklärt, andere Branchen befänden sich noch in der Experimentierphase.
Besonders auffällig ist die Entwicklung beim firmeneigenen Coding-Agenten Claude Code. Die längsten autonomen Arbeitsphasen haben sich zwischen Oktober 2025 und Januar 2026 fast verdoppelt, von unter 25 auf mehr als 45 Minuten. Anthropic nennt das einen „Deployment Overhang“: Die technische Fähigkeit der Modelle übersteigt, was Nutzer ihnen in der Praxis abverlangen. Das Forschungsinstitut METR schätzt, dass Claudes aktuelles Spitzenmodell Aufgaben mit einer Erfolgsrate von 50 Prozent lösen kann, für die ein Mensch fast fünf Stunden bräuchte. Anthropic empfiehlt, auf Monitoring nach dem Einsatz zu setzen, statt jede einzelne Agenten-Aktion manuell zu genehmigen.
Anthropic baut Sicherheitscheck direkt in Claude Code ein
Anthropic hat „Claude Code Security“ in die webbasierte Version seines Coding-Agenten integriert. Das Werkzeug durchsucht Codebasen nach Sicherheitslücken und schlägt Patches zur menschlichen Prüfung vor. Anders als viele Analysetools, die nur nach bekannten Mustern suchen, liest Claude Code Security den Code so, wie es eine Sicherheitsexpertin tun würde, und kann so auch subtile, kontextabhängige Lücken finden. Die Ergebnisse erscheinen in einem Dashboard, in dem Teams die vorgeschlagenen Korrekturen prüfen und freigeben können.
Die Ankündigung hatte unmittelbare Folgen an der Börse. Laut Bloomberg fielen die Aktienkurse zahlreicher Cybersecurity-Unternehmen am Freitag deutlich. Viele Investoren fürchten, dass KI-gestützte Werkzeuge die Nachfrage nach etablierten Sicherheitsprodukten verringern werden.

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.
Vibe Coding unterwegs: KI-Agent schreibt Code per Sprachbefehl aus der Hosentasche
Der Entwickler Jake Ledner hat gezeigt, wie sich ein KI-Agent per Sprachbefehl über Smart Glasses steuern lässt, während man durch New York spaziert. Über sein Meta Ray-Ban-Display und WhatsApp gab er dem KI-Agenten OpenClaw Anweisungen, der auf einem Mac Studio in seiner Wohnung lief und OpenAIs Coding-Werkzeug Codex nutzte, um Code zu schreiben. Den Fortschritt verfolgte Ledner über Screenshots direkt in seinem Sichtfeld. Im Video ließ er OpenClaw seiner App eine neue Funktion hinzufügen, die nach Freigabe automatisch eingespielt wurde.
So nahtlos, wie das Video suggeriert, funktioniert das Ganze bisher nicht. OpenClaw birgt erhebliche Sicherheitsrisiken und setzt idealerweise eine dedizierte Recheneinheit voraus. Das Meta Ray-Ban-Display ist bislang nur in den USA erhältlich, und Drittentwickler haben keinen direkten Zugriff darauf. Ledner nutzt deshalb WhatsApp als Umweg, eine der wenigen Apps, die die Brille unterstützt. Google plant, noch in diesem Jahr eine eigene Smart Glasses mit Display vorzustellen.
KI-Rechenzentren in den USA bauen ein Stromnetz im Verborgenen
Große Technologieunternehmen in den USA bauen zunehmend Stromerzeugungsanlagen, die nicht ans öffentliche Netz angeschlossen sind. Laut Washington Post entsteht so ein regelrechtes Schattennetz, an dem unter anderem Meta, OpenAI, Oracle und der Ölkonzern Chevron beteiligt sind. Die meisten Projekte setzen auf Gaskraftwerke, weil diese als zuverlässiger gelten als Solar- oder Windenergie. Da die effizientesten Gasturbinen lange Lieferzeiten haben, kommen oft weniger saubere Alternativen zum Einsatz, was den Treibhausgasausstoß erhöht. Ein Experte für erneuerbare Energien nennt das „katastrophal für die Klimaziele“.
Deutschland setzt bei Rechenzentren auf Microgrids statt Netzunabhängigkeit
Auch in Deutschland sucht die Branche nach Wegen, den Strombedarf neuer Rechenzentren zu decken. Vollständige Netzunabhängigkeit ist in Europa regulatorisch und wirtschaftlich kurzfristig nicht realistisch. Stattdessen setzen Unternehmen hier auf sogenannte Microgrids, campus-eigene Stromnetze, die an das öffentliche Netz angebunden bleiben, im Fehlerfall aber als eigenständige Insel funktionieren können. Batteriespeicher stabilisieren die Versorgung, Gaskraftwerke oder künftig wasserstofffähige Anlagen übernehmen die Grundlast. EnBW und RWE planen solche Anlagen als Ankerpunkte für Rechenzentrums-Cluster.
Die Lösung hat einen Haken für alle anderen Stromkunden. Wer sich ein eigenes Microgrid leistet, zahlt weniger Netzentgelte. Die Kosten für die verbleibenden Nutzer steigen entsprechend.
Sam Altman hält Rechenzentren im All für unrealistisch
OpenAI-Mitbegründer Sam Altman hat die von Elon Musk propagierte Idee von Rechenzentren im Weltall als „lächerlich“ bezeichnet. Beim „India AI Impact Summit“ sagte er gegenüber „The Indian Express“, schon eine einfache Kostenrechnung für den Transport ins All zeige das. Ein weiteres ungelöstes Problem sei die Reparatur defekter Grafikprozessoren im All, denn diese gingen „leider immer noch sehr oft kaputt“. Altman glaubt nicht, dass die Idee im laufenden Jahrzehnt umsetzbar ist.
Auf die Frage nach den Energiekosten von KI zog Altman einen ungewöhnlichen Vergleich. Eine Anfrage an ChatGPT mit einer an einen Menschen zu vergleichen, sei unfair, da ein Mensch 20 Jahre Ernährung und die gesamte Evolution der Menschheit benötige, um klug zu werden. Gemessen daran habe KI beim Energieverbrauch „vielleicht schon aufgeholt“.
GitHub kündigt Maßnahmen gegen KI-Müll in Open-Source-Projekten an
Open-Source-Projekte auf GitHub leiden zunehmend unter einer Flut minderwertiger, KI-generierter Beiträge. Entwickler nutzen KI, um automatisch Lösungsvorschläge für bekannte Probleme in fremden Projekten einzureichen, oft ohne die Anforderungen des jeweiligen Projekts zu verstehen. Die Hauptlast tragen die Maintainer, also die Kernentwickler, die jeden Beitrag prüfen müssen. Der Aufwand ist erheblich, der Ausschuss groß. Einige Projekte, darunter Gentoo Linux, haben GitHub deshalb bereits verlassen und sind zu alternativen Plattformen wie Codeberg gewechselt, einem offenen Projekt mit Sitz in Berlin.
GitHub, das zur KI-Abteilung von Microsoft gehört, hat nach Kritik aus der Community nun erste Maßnahmen gegen minderwertige Beiträge angekündigt. Maintainer sollen minderwertige Beiträge künftig schneller löschen können, ohne sie im Detail prüfen zu müssen. Außerdem sollen sie Beiträge auf bestimmte Nutzergruppen beschränken können, etwa auf Entwickler, die bereits nachgewiesene Beiträge in anderen Projekten vorweisen. Eine automatische Prüfung von Beiträgen anhand selbst definierter Kriterien ist ebenfalls geplant. Umgesetzt ist bislang noch nichts.
Hollywoods Branchenverband geht erstmals direkt gegen einen KI-Anbieter vor
Die Motion Picture Association, Hollywoods Branchenverband, hat dem chinesischen Technologiekonzern Bytedance ein Unterlassungsschreiben geschickt. Auslöser war der KI-Videogenerator Seedance 2.0, der kurz nach seinem Start eine Welle viraler Videos mit geschützten Charakteren aus Marvel, Star Wars und anderen Franchises produzierte. Die MPA spricht von einer „systemischen Rechtsverletzung“ und wirft Bytedance vor, das Modell ohne Zustimmung auf den Werken der Studios trainiert und den Dienst ohne ausreichende Schutzmaßnahmen veröffentlicht zu haben. Es ist das erste Mal, dass die MPA direkt gegen ein KI-Unternehmen vorgeht.
Zuvor hatten Netflix, Warner Bros., Disney, Paramount und Sony bereits eigene Unterlassungsschreiben verschickt. Bytedance erklärte, man arbeite an stärkeren Schutzmaßnahmen, nannte aber keine Details. Das reichte der MPA offenbar nicht. Berichten zufolge verzögern die Auseinandersetzungen den Start der öffentlichen Programmierschnittstelle von Seedance 2.0.
OpenAI plant Smart Speaker, Apple setzt auf Kamera-Zubehör
Bei OpenAI arbeiten mehr als 200 Mitarbeiter an eigener KI-Hardware. Laut „The Information“ soll als erstes Produkt ein Smart Speaker für 200 bis 300 US-Dollar erscheinen. Das Gerät erfasst per Kamera Menschen und Umgebung und könnte sogar Einkäufe via Gesichtserkennung ermöglichen. Ein Marktstart ist frühestens Anfang 2027 geplant. Weitere Projekte wie eine smarte Lampe und Smart Glasses befinden sich noch in einer frühen Phase. Das Hardware-Team ging aus der Übernahme des Start-ups „io“ hervor, das von Apples ehemaligem Designchef Jony Ive gegründet wurde.
Apple verfolgt ohne Ive einen eigenen Weg im Bereich KI-Hardware. Geplant sind eine smarte Brille ohne Display, ein KI-Anhänger sowie AirPods mit Kamerasystem. Alle Geräte sollen die sogenannte „visuelle Intelligenz“ ausbauen, also die KI-Analyse der Umgebung. Ein erstes Produkt könnte noch in diesem Jahr erscheinen.
Neue Xbox-Chefin verspricht Spiele ohne KI-Schrott
Nach einem überraschenden Führungswechsel bei Microsofts Xbox-Sparte hat die neue Leiterin Asha Sharma in einem internen Memo ihre Prioritäten skizziert. Laut „The Verge“ nennt sie drei Schwerpunkte: gute Spiele, die Rückkehr von Xbox als Marke und die Zukunft des Spielens. Zum umstrittenen Thema KI in der Spieleentwicklung bezieht Sharma klar Stellung: Man wolle zwar mit modernen Technologien arbeiten, aber Spiele sollen „Kunst, erstellt von Menschen“ bleiben.
Sharma schreibt wörtlich, man werde „weder kurzfristige Effizienz anstreben noch das Ökosystem mit seelenlosem KI-Schrott überschwemmen“. Für Spieler, die KI-generierte Inhalte in Spielen kritisch sehen, ist das eine ungewöhnlich direkte Ansage aus einem der größten Spielekonzerne der Welt.

(igr)
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Apps & Mobile Entwicklungvor 3 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Apps & Mobile Entwicklungvor 3 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
