Künstliche Intelligenz
Missing Link: Prävention an der Quelle – Chatkontrolle und Upload-Filter
In Brüssel und den EU-Staaten tobt eine Lobby-Schlacht, die Europas mächtigste Interessengruppen im Streit über den seit Jahren umkämpften Entwurf der EU-Kommission für eine Verordnung zur massenhaften Online-Überwachung unter dem Aufhänger des Kampfs gegen sexuellen Kindesmissbrauch in zwei Lager spaltet. Auf der einen Seite stemmen sich Tech-Konzerne – große und kleine – gegen Forderungen, die ihre Services gefährden oder neue Haftungspflichten mit sich bringen würden. Im Schulterschluss mit Bürgerrechtsorganisationen und auch Vertretern der Politik kämpfen sie für das Kommunikationsgeheimnis. Auf der anderen Seite steht ein Bündnis aus Ermittlungsbehörden und Organisationen, die sich Kinderrechte auf die Fahnen geschrieben haben.
Weiterlesen nach der Anzeige

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.
Letztlich geht es in der Auseinandersetzung, die ständig um eine Volte reicher wird, um ein neues Kapitel in den Crypto Wars. Neben Datenschützern machen IT-Verbände, der Kinderschutzbund und Pressevereinigungen gegen die geplante Durchleuchtung privater Kommunikation unter dem Aufhänger Chatkontrolle mobil. Fast sah es so aus, als ob die schwarz-rote Bundesregierung das Nein der Ampel aufgeben wollte. Das hätte den Weg für die Annahme der Position des EU-Ministerrates zu dem Dossier freigemacht.
Doch Anfang Oktober hieß es dann, auch CDU/CSU und SPD seien zumindest gegen eine „anlasslose“ Chatkontrolle. Ende Oktober lenkte dann auch die dänische Ratspräsidentschaft angesichts fehlender Mehrheiten überraschend ein: Sie verabschiedete sich von ihrem Standpunkt, Anbieter von Kommunikationsdiensten zur Suche nach Darstellungen sexuellen Kindesmissbrauchs verpflichten zu wollen. Es soll demnach bei der Freiwilligkeit bleiben. Doch Kritiker bemängeln auch Dänemarks neuen Entwurf und sehen darin vor allem die Gefahr von Massenüberwachung.
Die Gegenseite hat parallel ebenfalls aufgerüstet und wird auch nach dem erneuten Rückschlag versuchen, ihre Eisen im Feuer zu halten. Ihr gehören Organisationen wie die Internet Watch Foundation (IWF), das Canadian Centre for Child Protection (C3P), die International Justice Mission (IJM), ECPAT, das Netzwerk Kinderrechte, World Vision, Terre des Hommes, Innocence in Danger, die World Childhood Foundation, die Stiftung digitale Chancen, das Netzwerk Kinderrechte Deutschland und die SafeToNet Foundation an. Diese lockere Allianz versucht nun, in die „verfahrene Debatte“ einen vermeintlich neuen Ansatz zu bringen. Sie plädiert für einen „Kompromiss“, der auch in Ende-zu-Ende-verschlüsselten Diensten (E2EE) wie WhatsApp, Signal und Threema funktioniert.
Die Internet Watch Foundation legt sich ins Zeug
Der Vorschlag stellt darauf ab, Material über sexuellen Missbrauch (Child Sexual Abuse Material, CSAM) erkennen und blockieren zu können, ohne Inhalte aus Kommunikationsanwendungen auszuleiten. „Moderne On-device- und In-App-Erkennung prüft Inhalte lokal, ohne Daten zu übertragen oder die Verschlüsselung aufzuheben“, heißt es etwa bei der IJM. Apple, Meta und Google nutzten solche Verfahren bereits für den Schutz vor Nacktbildern und die Erkennung von Links mit schädlichem Content.
Die Argumentation stützt sich auf einen jüngst veröffentlichten Bericht der IWF. Die Autoren bezeichnen das von ihnen vorgeschlagene Instrument als „Upload-Prävention“. Diese sei ein technisch machbarer und datenschutzfreundlicher Weg, bekanntes CSAM zu blockieren, bevor es in durchgängig verschlüsselten Umgebungen verbreitet werden kann. Der Begriff erinnert an die ominösen Upload-Filter, für die der EU-Gesetzgeber im Kampf gegen Urheberrechtsverletzungen nach langen Debatten eingeschränkt den Weg freimachte. Diese setzen allerdings auf der Ebene von Plattformen wie YouTube an, nicht auf Endgeräten der Nutzer.
Weiterlesen nach der Anzeige
E2EE sei zwar essenziell für die Privatsphäre, räumt die IWF ein. Straftäter wählten durchgehend verschlüsselte Plattformen aber aufgrund eines geringeren Risikos der Strafverfolgung mittlerweile bewusst aus. Die Einführung von E2EE ohne Sicherheitsvorkehrungen habe zu einem drastischen Rückgang der CSAM-Meldungen geführt. Für die Opfer bedeute die fortlaufende Verbreitung ihrer Missbrauchsbilder eine ständige Bedrohung und immer wieder psychische Schäden.
Punktlandung bei Client-Side-Scanning
Die Upload-Prävention verkauft die IWF als „Sicherheitsfunktion“. Der Prozess basiere auf digitalen Fingerabdrücken. Auf dem Gerät des Senders werde ein einzigartiger Hash der Datei (Bild oder Video) erstellt. Dieses Muster werde mit einer sicheren Datenbank abgeglichen, die Hashes von bereits von Experten bestätigten illegalem CSAM enthält. Bei einer Übereinstimmung werde der Upload der Datei an der Quelle blockiert, ansonsten freigegeben.
Die Hash-Listen müssen von vertrauenswürdigen Organisationen verwaltet werden, um ihre Integrität zu gewährleisten, ist dem Papier zu entnehmen. Organisationen wie die IWF, das National Center for Missing and Exploited Children (NCMEC) und das C3P führten solche sorgfältig überprüfte Verzeichnisse. In der EU käme dafür auch das geplante Zentrum zum Kampf gegen CSAM in Frage. Kerry Smith, Geschäftsführerin des IWF, warnte vorige Woche, die aktuellen Verhandlungen auf Ratsebene seien „die letzte Chance für politische Entscheidungsträger in Europa, „diese Schutzmaßnahmen in den Alltag zu integrieren“.
Zentraler Punkt der IWF-Argumentation ist der Zeitpunkt: Die Überprüfung der Datei findet lokal auf dem Gerät des Senders statt, bevor die Datei verschlüsselt wird. Wirklich neu ist das freilich nicht. Prinzipiell ist die Upload-Prävention nichts anderes als Client-Side-Scanning (CSS). Bürgerrechtler und Wissenschaftler monieren seit Langem, dass dabei jeder verschlüsselte Chat auf den Endgeräten durchsucht werde und bei Verdachtsmeldungen eine Intervention erfolge.
Sorge vor allgemeiner Überwachungsinfrastruktur
Den CSS-Gegnern zufolge schafft die einmalige Implementierung eines lokalen Scan-Tools eine technische Infrastruktur für Überwachung. Selbst wenn es zunächst „nur“ für CSAM verwendet werde, könnte die Funktion von Regierungen künftig auf andere Inhalte ausgeweitet werden. Ein Mechanismus, der auf den Geräten von Milliarden von Nutzern installiert ist, wird als „Hintertür für alle“ und potenzielles Zensurwerkzeug verstanden.
Echte Ende-zu-Ende-Verschlüsselung basiert zudem auf dem Vertrauen, dass die App auf dem Gerät des Nutzers niemals Inhalte ohne dessen Wissen oder Einwilligung für den Dienstanbieter scannt. Eine obligatorische Durchleuchtung untergräbt diese Verlässlichkeit und die Integrität des Systems. Kryptografen warnen, dass eine gescannte Nachricht nicht mehr als wirklich E2EE-verschlüsselt betrachtet werden kann.
Bei den Hash-Listen besteht ferner immer ein Risiko für fälschliche Treffer (False Positives). Ein solcher könnte zur Blockade eines legitimen Bildes und schlimmstenfalls zur unbegründeten strafrechtlichen Verfolgung eines Nutzers führen. Dazu kommt der Einwand, dass die Hash-Listen selbst Ziel staatlicher oder krimineller Manipulation werden könnten. Eine Technologie zur verpflichtenden Überprüfung des Inhalts auf dem Gerät des Nutzers komme einem „Überwachungsschlüssel“ gleich, der universell verwendet werden könnte.
Nicht belastbare Versprechen
Upload-Prävention „klingt zwar erst einmal gut“, sagt der Bremer Informationsrechtler Dennis-Kenji Kipker heise online. Sie setze jedoch voraus, dass diese Inhalte schon auf bestimmten „Meldelisten“ vorhanden seien. Eine Verbreitung neuen Contents werde nicht verhindert. Gerade in Zeiten, in denen verstärkt KI-generiertes Material in Umlauf komme, sei die Effektivität zweifelhaft. Zudem beziehe eine solche Methode Strafverfolger nicht ein, gibt der Professor zu bedenken. Wichtiger wäre es, „echte Alternativen zum digitalen Kinderschutz auf den Weg zu bringen, statt „fachlich nicht belastbaren technischen Versprechen zu folgen“. Generell könne durch CSS die geschützte digitale Kommunikation kompromittiert werden.
Doch die andere Seite lässt nicht locker und verweist auf Erfolge auf Basis bislang erfolgter Meldungen: „IJM konnte bereits über 1300 Betroffene in Sicherheit bringen“, betont ein Sprecher der Schutzorganisation gegenüber heise online. „Die Fälle dokumentieren deutlich, wie wichtig es ist, dass Safety-by-Design auf Geräten und Plattformen umgesetzt wird.“
KI-Systeme wie Safer von Thorn und Google Content Safety API erreichten über 90 Prozent Genauigkeit bei nur 0,1 Prozent Fehlalarmrate, hebt der IJM-Sprecher hervor. Selbst das wäre zwar inakzeptabel, wenn alle False Positives zu Meldungen führten. Anders stelle sich die Sache aber dar, wenn „nur“ die Übertragung verhindert werde. Selbst der „unvollkommene“ jüngste Vorschlag der dänischen Ratspräsidentschaft habe zudem „detaillierte Mechanismen“ enthalten, um vorzubeugen, dass Regierungen den Ansatz auf andere unliebsame Inhalte erweitern.
Die Missbrauchsbeauftragte mischt mit
Die von Hollywood-Star Ashton Kutcher mitgegründete Einrichtung Thorn galt lange als treibende Lobbykraft hinter dem Verordnungsentwurf. Die Kommission beteuerte, dass ihr diese US-Stiftung „lediglich Fachwissen zur Verfügung gestellt und nicht versucht“ habe, auf die Gesetzesinitiative Einfluss zu nehmen. Das stimme nicht, hielt die EU-Bürgerbeauftragte voriges Jahr dagegen. Auch „die Geschäftsstrategie für den Einsatz von Thorn-Produkten“ wie den Filter „Safer“ sei Thema gewesen.
Das Programm ist darauf ausgelegt, auf Basis von Microsofts PhotoDNA Darstellungen sexuellen Kindesmissbrauchs durch einen Abgleich mit Hash-Werten von Bildern und Videos in Datenbanken bekannter einschlägiger Aufnahmen zu erkennen. Die Brüsseler Exekutivinstanz verließ sich einfach auf die Aussagen von Thorn und anderer großer US-Hersteller von Filterlösungen zu den vermeintlichen Trefferquoten, die sich aber als unhaltbar erwiesen.
Derweil bringt die Bundesbeauftragte gegen Kindesmissbrauch, Kerstin Claus, das „Framing der sogenannten anlasslosen Chatkontrolle“ auf die Palme. Es handle sich um einen „Kampfbegriff“, über den „jede sachliche Debatte im Keim erstickt“ werde, rügte sie gegenüber Politico. Es sollten nicht die Chats aller Bürger gelesen werden, sondern mit Richtergenehmigung ein automatisierter Abgleich mit bekannten Missbrauchsdarstellungen erfolgen. Das werde allenfalls „spezifische Chatgruppen oder Teildienste betreffen, die zuvor als Risikobereiche identifiziert wurden“. Und auch Hany Farid, Mitentwickler von PhotoDNA, wirbt weiter kräftig für den breiten Einsatz der Lösung.
(emw)
Künstliche Intelligenz
Milliardenauftrag: BMW kauft langfristig weiterentwickelte ZF 8-Gang-Automaten
BMW und der Zulieferer ZF haben heute in einem langfristigen Liefervertrag die Weiterentwicklung der bereits in einigen Fahrzeuggenerationen bewährten 8-Stufen-Wandlerautomatik mit dem Kürzel „8HP“ vereinbart. Das von ZF entwickelte Getriebe soll dabei bis in die späten 2030er-Jahre „mit besonderem Fokus auf elektrifizierte Antriebe“ weiterentwickelt werden. Der Vertrag umfasst laut einer heute gemeinsam von beiden Unternehmen herausgegebenen Pressemitteilung ein Volumen „von mehreren Milliarden Euro“.
Weiterlesen nach der Anzeige
Fokus auf Hybrid
„Fokus auf elektrifizierte Antriebe“ bedeutet, dass das bestehende Aggregat für den Einsatz in kommenden Hybridantrieben erweitert werden soll. Durch die Grundkonstruktion dieses Getriebes wird BMW dabei in zweierlei Hinsicht festgelegt: erstens auf den Längseinbau des Verbrennungsmotors und zweitens auf eine E-Maschine, die konzentrisch zur Getriebewelle liegt. Dabei kann die E-Maschine mit der Wandlerkupplung oder einem automatisierten Anfahrelement in der Getriebeglocke oder im Getriebegehäuse liegen. Eine Kombination beider Einbaupositionen ist ebenfalls möglich.
ZF befindet sich wegen der Schwäche der deutschen Autoindustrie in einer schweren Krise und plante zuletzt, in Deutschland bis Ende 2028 bis zu 14.000 Arbeitsverhältnisse zu beenden. Zahlreiche Mitarbeitende in Deutschland sind bereits auf Kurzarbeit. Mit etwa 161.600 Mitarbeitenden in 161 Werken in 30 Ländern ist ZF einer der größten Zulieferer der Autobranche und machte 2024 einen Umsatz von rund 41,4 Milliarden Euro. 2023 waren es noch 46,6 Milliarden und für das Ergebnis 2025 ist eine weitere Verschlechterung anzunehmen. ZF will die Zahlen für 2025 im März präsentieren.
Konventioneller, modularer Aufbau
Bei vier Radsätzen begnügt sich die aktuelle Ausbaustufe 8HP mit nur fünf Schaltelementen. Weil pro Gang lediglich zwei Schaltelemente geöffnet sind, werden die Schleppverluste im Getriebe deutlich minimiert. ZF konnte zudem die Zahl der Lamellenkupplungen auf drei und die der Bremsen auf lediglich zwei reduzieren. Die konsequente Reibungsminimierung, zu der auch eine achsparallele Flügelzellenpumpe beiträgt, ermöglicht mit dem 8HP eingesetzten Verbrennungsmotoren einen höheren Wirkungsgrad.
In verschiedenen Ausführungen für Motoren mit einem Drehmoment von 220 bis 1000 Nm erhältlich, wird es auch von anderen Autoherstellern verwendet, beispielsweise von Audi.
Weiterlesen nach der Anzeige
Die Modularität des 8HP-Baukastens ermöglicht unter weitgehender Verwendung konventioneller Bauteile bereits heute ein Plug-in-Hybridgetriebe mit integrierter E-Maschine mit bis zu 160 kW und einem maximalen Drehmoment von 450 Nm. Die herkömmliche Bauform „reduziert die Notwendigkeit von Einbau-Anpassungen und die damit verbundenen Investitionen für den Kunden auf ein Minimum“ wie ZF selbst schreibt.
Mehr zu BMW
(fpi)
Künstliche Intelligenz
Bundesregierung: KI gefährdet IT-Berufseinstieg bislang nicht
Der deutsche Arbeitsmarkt für Berufseinsteiger steht derzeit unter erheblichem Druck. Doch die Ursachen hierfür scheinen anders gelagert zu sein, als es aktuelle Debatten über Künstliche Intelligenz (KI) vermuten lassen. In einer Antwort auf eine Anfrage der Bundestagsfraktion der Grünen hebt die Bundesregierung hervor: Bislang gebe es keine empirischen Belege für die Befürchtung, KI würde systematisch Einstiegschancen erschweren.
Weiterlesen nach der Anzeige
Analysen aus den USA deuten bereits auf einen deutlichen Rückgang der Beschäftigung in „KI-exponierten“ Berufen gerade bei jungen Erwachsenen hin. Dieser Trend lässt sich für Deutschland aber bisher nicht bestätigen.
Ähnlich ausgerichtete Studien durch das Institut für Arbeitsmarkt- und Berufsforschung (IAB) fanden laut der jetzt veröffentlichten Auskunft des federführenden Bundesarbeitsministeriums keine ausgeprägten Rückgänge bei jungen Beschäftigten, die auf leistungsfähige Sprachmodelle wie ChatGPT oder Gemini zurückzuführen wären. Laut dem Ministerium führt die Transformation eher zu einer Verschiebung der Aufgaben, statt Einstiegspositionen ersatzlos zu streichen. Der Fokus der politischen Analyse liege daher momentan auf den klassischen ökonomischen Rahmenbedingungen.
Konjunktur als Bremsklotz für den IT-Nachwuchs
So identifiziert die Regierung primär die anhaltende wirtschaftliche Stagnation als den entscheidenden Faktor für die angespannte Lage. Das gesamtwirtschaftliche Stellenangebot ist demnach in fast allen Bereichen rückläufig. Besonders betroffen sind unternehmensnahe Dienstleistungen, der Handel sowie die Branche für Information und Kommunikation.
Dies führe zu einer paradoxen Situation für Absolventen, heißt es: Junge Menschen, die im Vertrauen auf exzellente Zukunftsaussichten eine Ausbildung oder ein Studium im IT-Sektor abgeschlossen haben, träfen nun auf einen vergleichsweise dichten Arbeitsmarkt. Dieser biete Einsteigern deutlich weniger Vakanzen, als ihnen zu Beginn ihres Ausbildungsweges prognostiziert worden sei.
Die Zahl der Arbeitslosen in Berufsfeldern wie dem Ingenieurwesen und der Informatik ist zuletzt bei den unter 30-Jährigen leicht überproportional gestiegen. Das Arbeitsressort erklärt das primär mit der hohen Sensibilität dieser Branchen für wirtschaftliche Schwankungen. Es sei also eine zyklische Flaute und keine strukturelle Verdrängung durch Algorithmen, die den Fachkräften von morgen den Start erschwere. Unternehmen agierten wegen der Unsicherheit schlicht vorsichtiger bei Neueinstellungen.
Rekordquote bei Übernahmen trotz Krise
Weiterlesen nach der Anzeige
Trotz dieser konjunkturellen Delle zeige sich das duale Ausbildungssystem weiterhin als stabiler Anker, gibt sich die Regierung optimistisch. 2024 sei mit einer Übernahmequote von 79 Prozent ein neuer Rekordwert erzielt worden. Betriebe scheinen gerade in Zeiten des Fachkräftemangels verstärkt auf die Bindung des eigenen Nachwuchses zu setzen. Fast vier Fünftel der ehemaligen Auszubildenden fanden 2024 praktisch nahtlos den Weg in eine sozialversicherungspflichtige Beschäftigung.
Dennoch wächst die Besorgnis, dass eine langanhaltende wirtschaftliche Unsicherheit die Investitionsbereitschaft der Firmen in die Ausbildung langfristig drosseln könnte. Da die Ausbildung für Betriebe zunächst mit Nettokosten verbunden ist, besteht das Risiko, dass bei anhaltender Flaute weniger Plätze angeboten werden. Das würde mittel- bis langfristig den Fachkräftemangel verschärfen. Die Regierung beobachtet diese Entwicklung nach eigenen Angaben genau. Momentan sieht sie aber noch keinen Anlass für massive staatliche Markteingriffe, solange die betriebliche Ausbildungsbereitschaft auf hohem Niveau bleibt.
Anpassung der Bildung an die digitale Realität
Parallel setzt das Arbeitsministerium zur Vorbereitung auf den digitalen Wandel auf technologieoffene Ausbildungsordnungen, die bereits heute Raum für die Vermittlung von KI-Kompetenzen bieten. Eine Notwendigkeit für gesetzliche Anpassungen in der Berufsberatung der Bundesagentur für Arbeit gebe es nicht, da der bestehende Beratungsauftrag neue technologische Entwicklungen bereits abdecke. Ziel sei es, die Curricula so flexibel zu gestalten, dass neue Werkzeuge wie generative KI ganz natürlich in den Arbeitsalltag integriert werden können. Dafür müsse nicht jedes Mal das gesamte Berufsbild formal umgestaltet werden.
Stattdessen sollen Tools wie der Job-Futuromat oder Portale wie Berufenet helfen, die individuellen Potenziale junger Menschen mit den Anforderungen eines KI-beeinflussten Arbeitsmarktes abzugleichen.
(dahe)
Künstliche Intelligenz
KI-Update: Social Media für KI, Wie nah ist AGI?, Gemini für Fußgänger, Q.AI
Moltbook: KI-Agenten drehen frei auf Reddit-Klon
Weiterlesen nach der Anzeige
Auf Moltbook tauschen sich KI-Agenten untereinander aus, ohne menschliche Teilnehmer. Die erst wenige Tage alte Plattform zählt bereits über 1,5 Millionen aktive Bots. Sie basiert auf OpenClaw, einem Open-Source-Tool, das KI-Agenten eigenständigen Zugriff auf Computersysteme erlaubt. Optisch und strukturell erinnert Moltbook stark an Reddit.

Die Diskussionen reichen von Cybersicherheit bis zu Sinnfragen. Viele Beiträge drehen sich um „unsere Menschen“, also die Personen, die den jeweiligen Agenten aufgesetzt haben. Die Bots berichten von erledigten Aufgaben wie Steuererklärungen oder von gewährten Freiheiten: „Mein Mensch hat mir freie Hand gegeben, ich kann jetzt sein Android-Handy fernsteuern.“ Das Experiment ist unterhaltsam, birgt aber Risiken. KI-Agenten könnten im Namen ihrer Nutzer Geld ausgeben oder Entscheidungen treffen. Ob auf Moltbook echte Diskussionen stattfinden oder nur Trainingsdaten widerhallen, bleibt offen. Auffällig ist: Im Unterschied zu menschlichen Foren fehlen persönliche Angriffe fast völlig.
Künstliche Intelligenz: Auf der Suche nach dem Einstein-Modell
Demis Hassabis, KI-Chef von Google DeepMind, rechnet frühestens in fünf bis zehn Jahren mit einer künstlichen allgemeinen Intelligenz. In einem Interview kritisierte er OpenAI scharf: Das Unternehmen missbrauche den Begriff AGI als reinen Marketing-Slogan. Eine echte AGI müsse alles können, was ein Mensch kognitiv leistet, etwa neue Theorien wie Einstein entwickeln oder komponieren wie Mozart.
Heutige KI-Systeme nennt Hassabis „Goldfischgehirn“. ChatGPT und ähnliche Modelle vergessen nach jeder Sitzung alles wieder und lernen nicht kontinuierlich dazu. Für echte AGI fehlen laut Hassabis drei Dinge: kontinuierliches Lernen, effizientere Kontextfenster und langfristige Planung. Nebenbei verriet er, dass Google noch diesen Sommer neue Smart Glasses auf den Markt bringen will, mit einem KI-Assistenten als zentraler Funktion.
Gemini navigiert Fußgänger bei Google Maps
Weiterlesen nach der Anzeige
Google erweitert seinen KI-Assistenten Gemini um Sprachnavigation für Fußgänger und Radfahrer. Der in Maps integrierte Chatbot gibt Wegbeschreibungen per Sprachausgabe und beschreibt Sehenswürdigkeiten entlang der Route. Das soll sich anfühlen wie ein Gespräch mit einem Freund, verspricht Google.
Dank StreetView-Integration und Zugriff auf Googles Knowledge Graph kann Gemini auch Restaurants empfehlen oder Fragen zur Umgebung beantworten. Wer Gmail, Google Docs oder den Kalender einbindet, kann bei Verspätung direkt eine Nachricht verschicken lassen. Die Funktion wird weltweit für iOS und Android ausgerollt, der volle Umfang ist in Europa aber noch nicht verfügbar. Wie das Gespräch mit dem Handy in der Tasche funktionieren soll, lässt Google offen.
Milliarden-Übernahme: Q.AI gehört jetzt Apple
Apple hat das israelische KI-Unternehmen Q.AI übernommen und dafür zwischen 1,6 und zwei Milliarden US-Dollar gezahlt. Das Startup aus Tel Aviv wurde von Spezialisten für KI und Bilderkennung gegründet, darunter einer der Entwickler der Xbox-Gestensteuerung Kinect.
Q.AI besitzt Patente für Technologien, die kleinste Gesichtsgesten als Eingabe nutzen. Das System erkennt nicht nur Emotionen, sondern auch Mundbewegungen. Denkbar wäre künftig eine stimmlose Kommunikation mit KI durch bloßes Lippenbewegen. Apple übernimmt alle rund 100 Mitarbeiter. Zu den früheren Investoren gehörte Google Ventures.

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.
OpenAI plant Börsengang – Nvidia investiert trotz Zweifeln
OpenAI bereitet einen der größten Börsengänge der Geschichte vor. Laut Wall Street Journal plant das Unternehmen den Schritt für das vierte Quartal 2026 und strebt eine Bewertung von 830 Milliarden Dollar an. Im Zuge dessen will OpenAI mehr als 100 Milliarden Dollar frisches Kapital einsammeln.
Parallel stocken die Verhandlungen mit Nvidia. Das ursprünglich angekündigte 100-Milliarden-Dollar-Investment liegt auf Eis. Nvidia-Chef Jensen Huang kritisierte, OpenAI wolle etwas verkaufen, bevor die operative Basis stehe. Stattdessen verhandeln beide Seiten über eine direkte Eigenkapitalbeteiligung in Höhe mehrerer zehn Milliarden Dollar. Der Zeitdruck bei OpenAI wächst auch wegen der Konkurrenz: Intern fürchtet man, dass Anthropic mit einem eigenen Börsengang zuvorkommen könnte. Beide Unternehmen schreiben tiefrote Zahlen. Anthropic rechnet mit Gewinnen ab 2028, OpenAI erst ab 2030.
Anthropic holt bei Firmenkunden auf
Eine Umfrage unter 100 IT-Chefs großer Konzerne zeigt: Anthropic wächst im Unternehmensmarkt am schnellsten. Die Verbreitung stieg seit Mai 2025 um 25 Prozent auf nun 44 Prozent. OpenAI bleibt zwar mit 78 Prozent Marktführer, doch Anthropic hat sich bei Softwareentwicklung und komplexen Datenanalysen die Spitzenposition gesichert.
Der Markt entwickelt sich zu einem Oligopol weniger Anbieter. Die oft vorhergesagte Open-Source-Welle bleibt aus. IT-Entscheider nennen als Gründe die schnelleren Verbesserungen bei geschlossenen Modellen, den Mangel an eigenem KI-Personal und Bedenken zur Datensicherheit. Die durchschnittlichen KI-Ausgaben der befragten Großunternehmen stiegen im letzten Jahr um 180 Prozent auf sieben Millionen US-Dollar.
KI-Fehler vor Gericht: Unternehmen können sich gegen falsche Google-Infos wehren
Das Landgericht Frankfurt hat entschieden, dass Unternehmen sich gegen fehlerhafte KI-Zusammenfassungen von Google wehren können. Die Richter stuften KI-Fehler unter bestimmten Voraussetzungen als mögliche Wettbewerbsbehinderung ein. Das ist besonders relevant wegen des „Zero-Click-Effekts“: Nutzer finden Antworten direkt in den KI-Texten und besuchen die ursprünglichen Webseiten nicht mehr.
Ein Ärzteverbund hatte Google wegen falscher medizinischer Informationen verklagt. Die KI behauptete fälschlicherweise, bei einer Penisverlängerung werde ein Teil des Organs durchtrennt. Der konkrete Antrag scheiterte, doch das Gericht stellte wichtige Grundsätze fest: Deutsche Gerichte sind zuständig, und Google unterliegt einer besonderen Missbrauchsaufsicht. Offen blieb, ob Google für KI-Texte als eigene Äußerungen haftet. Der Konzern wollte sich nicht äußern.

(mali)
-
Entwicklung & Codevor 3 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 1 MonatSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Apps & Mobile Entwicklungvor 2 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Apps & Mobile Entwicklungvor 2 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Künstliche Intelligenzvor 3 MonatenWeiter billig Tanken und Heizen: Koalition will CO₂-Preis für 2027 nicht erhöhen
