Künstliche Intelligenz
PDF-Standard bekommt Brotli-Kompression für 20 Prozent kleinere Dateien
Die PDF Association hat angekündigt, den Kompressionsalgorithmus Brotli als neuen Filter in den PDF-2.0-Standard zu integrieren. Konkret verspricht die Neuerung durchschnittlich 20 Prozent kleinere PDF-Dateien ohne Qualitätsverlust. Erste Sample-PDFs für Entwickler sind bereits verfügbar.
Weiterlesen nach der Anzeige
Brotli ist ein freier Kompressionsalgorithmus von Google, der ursprünglich für statische Web-Assets entwickelt wurde und in RFC 7932 spezifiziert ist. Anders als das bisher in PDFs eingesetzte Deflate-Verfahren, das auch in ZIP- und GZIP-Archiven zum Einsatz kommt, erreicht Brotli bei maximaler Kompression eine höhere Datendichte. Der neue Filter „BrotliDecode“ ergänzt die bestehenden PDF-Kompressionsverfahren wie DCTDecode für JPEG, JPXDecode für JPEG 2000 oder FlateDecode für Deflate.
Vergleichstests zeigen unterschiedliche Ergebnisse
In einer Diskussion auf Hacker News teilten Entwickler Testergebnisse mit verschiedenen PDF-Sammlungen. Bei 55 Testdateien erreichte Brotli eine Gesamtgröße von 37,06 MByte, während Deflate 38,80 MByte benötigte – ein Vorteil von rund 4,5 Prozent. Eine einzelne 15-MByte-Datei schrumpfte auf 4,5 MByte, eine 19-KByte-Rechnung auf 16,1 KByte. Die tatsächlichen Kompressionsgewinne hängen stark vom Inhalt ab, da viele PDFs bereits Deflate-komprimierte Datenströme enthalten.
Zum Vergleich testeten Nutzer auch Zstandard (Zstd), einen von Facebook entwickelten Kompressionsalgorithmus. Bei maximalen Einstellungen (Brotli Level 11, Zstd Level 22) zeigte sich Brotli in den meisten Fällen minimal überlegen. Allerdings ist Zstd bei der Dekompression etwa doppelt so schnell – ein relevanter Faktor für PDFs, die häufig geöffnet werden.
Kompatibilität als kritischer Faktor
Allerdings äußert ein Teil der Community Bedenken hinsichtlich der Abwärtskompatibilität. PDF gilt als Archivformat, das über Jahrzehnte lesbar bleiben muss. Ältere PDF-Reader, die den Brotli-Filter nicht kennen, können die komprimierten Inhalte nicht darstellen. Die PDF Association betont zwar, dass neue Features „nahtlos mit existierenden Readern“ funktionieren sollen, doch die Einführung eines unbekannten Filters widerspricht diesem Prinzip.
Weiterlesen nach der Anzeige
Adobe Acrobat Reader unterstützt Brotli-komprimierte PDFs derzeit noch nicht. Auch in Browser-PDF-Viewern ist die Unterstützung uneinheitlich: Chrome könnte über seine integrierte Brotli-Bibliothek einen Vorteil haben, während Firefox und Edge vorerst auf Updates angewiesen sind. Open-Source-Projekte wie MuPDF und Ghostscript arbeiten laut PDF Association an experimentellen Implementierungen, während die PDF-Bibliothek iText bereits Googles Brotli-Referenzcode integriert hat.
Relevanz für Unternehmen und Behörden
Für Organisationen mit großen PDF-Archiven ergeben sich erhebliche Einsparpotenziale. Bei einem Datenbestand von einem Petabyte entsprechen 20 Prozent Kompressionsgewinn 200 Terabyte weniger Speicherbedarf. In Deutschland ist das besonders für GoBD-konforme Archivierung und ZUGFeRD-Rechnungen relevant, bei denen elektronische Dokumente langfristig aufbewahrt werden müssen.
Die PDF Association hat den Brotli-Filter im Rahmen ihrer Technical Working Groups entwickelt. Auf dem Symposium on Advancing the PDF Imaging Model im Oktober 2023 hatte die Organisation um Feedback zu verschiedenen Verbesserungen gebeten, darunter auch neue Kompressionsverfahren. Neben Brotli wurden auch Zstandard und XZ evaluiert. Die endgültige Aufnahme in die ISO-32000-Spezifikation wird für 2026 oder 2027 erwartet, ein konkreter Termin steht noch nicht fest.
Parallel diskutiert die PDF Association weitere Kompressionsverfahren wie JPEG XL für Bilddaten. Das über 30 Jahre alte PDF-Format soll so an moderne Anforderungen angepasst werden, während gleichzeitig die Kompatibilität mit bestehenden Dokumenten gewahrt bleibt – ein Spagat, der sich bei Brotli als besondere Herausforderung erweist.
(fo)
Künstliche Intelligenz
Core Ultra 7 270K Plus: Intel stellt 24-Kern-Prozessor gegen AMDs Achtkerner
Intel bringt nun doch verbesserte Desktop-Prozessoren in Form von Arrow Lake Refresh. Den Anfang machen die zwei Modelle Core Ultra 7 270K Plus und Core Ultra 5 250K Plus. Der Hersteller legt keine neuen Chiplets auf, lässt in den vorhandenen aber mehr Kerne aktiv, die bislang teureren Modellen vorbehalten waren.
Weiterlesen nach der Anzeige
Das dürfte auch der Grund sein, warum es kein neues Topmodell wie den zuvor kolportierten Core Ultra 9 290K gibt. An der Spitze gibt es schlicht zu wenig Spielraum für eine Beschleunigung. Untenrum sollen hingegen weitere Neuauflagen folgen, auch günstigere F-Versionen ohne Grafikeinheit.
Intel spendiert den zwei Neuvorstellungen je vier zusätzliche Effizienzkerne. Der Core Ultra 7 270K Plus rückt damit nahe an das Topmodell Core Ultra 9 285K. Beide verwenden den Vollausbau mit insgesamt 24 CPU-Kernen (acht Performance- + 16 Effizienzkerne) und 36 MByte Level-3-Cache. Der Core Ultra 7 270K Plus taktet in der Spitze bloß 200 MHz langsamer.

Verbesserungen der neuen Plus-Prozessoren gegenüber bisherigen Intel-Modellen.
(Bild: Intel)
Die Datenverbindung zwischen den Chiplets (Die-to-Die-Taktfrequenz) beschleunigt Intel nominell von 2,1 auf 3,0 GHz. Im Gegensatz zu Intels Übertakterprofil 200S Boost ist dafür kein teures Z890-Mainboard notwendig. Wer aber ein solches verwendet, kann den 200S Boost weiterhin aktivieren und kommt so auf 3,2 GHz Die-to-Die-Taktfrequenz.
Speicherseitig steigt die offiziell freigegebene Grenze von DDR5-6400 auf DDR5-7200. Bei der aktuellen Speicherkrise dürfte das allerdings kaum relevant sein.
Preis-Leistungs-Empfehlung in der Mittelklasse
Unterm Strich dürfte der Core Ultra 7 270K Plus kaum noch langsamer sein als der Core Ultra 9 285K. Mit einer deutlich niedrigeren Preisempfehlung erscheint das Plus-Modell jedoch wesentlich attraktiver: 299 US-Dollar nennt Intel, umgerechnet inklusive Steuern (in US-Preisen nicht enthalten) etwa 310 Euro. Interessierte sparen gegenüber dem 285K (ab 477,99 €) gut ein Drittel des Kaufpreises.
Weiterlesen nach der Anzeige
Der Core Ultra 7 265K hat die gleiche 299-US-Dollar-Preisempfehlung, ist im Handel allerdings schon ein gutes Stück günstiger erhältlich (ab 259 €). AMD bietet in dieser Preisklasse lediglich den Achtkerner Ryzen 7 9700X (ab 288 €) an.
18 CPU-Kerne in der 200-Euro-Klasse
Der Core Ultra 5 250K Plus löst derweil den Core Ultra 5 245K (ab 177,90 €) ab. Er hat jetzt insgesamt 18 statt 14 CPU-Kerne und taktet minimal höher. Intel empfiehlt 199 US-Dollar, umgerechnet etwa 205 Euro. Von AMD gibt es in der Preisklasse den Sechskerner Ryzen 5 9600X (ab 183 €).
Intel startet den Verkauf des Core Ultra 7 270K Plus und Core Ultra 5 250K Plus am 26. März 2026. Bis dahin erscheinen auch die Testberichte zu den Prozessoren.
| Spezifikationen Core Ultra 200S Plus | ||||
| Modell | Kerne / Threads | Basistakt / max. Turbo | L3-Cache | PBP / MTP |
| Core Ultra 9 285K | 8P+16E / 24 | 3,7 / 5,7 GHz | 36 MByte | 125 / 250 W |
| Core Ultra 7 270K Plus | 8P+16E / 24 | 3,7 / 5,5 GHz | 36 MByte | 125 / 250 W |
| Core Ultra 7 265K | 8P+12E / 20 | 3,9 / 5,5 GHz | 30 MByte | 125 / 250 W |
| Core Ultra 5 250K Plus | 6P+12E / 18 | 4,2 / 5,3 GHz | 28 MByte | 125 / 159 W |
| Core Ultra 5 245K | 6P+8E / 14 | 4,2 / 5,2 GHz | 24 MByte | 125 / 159 W |
(mma)
Künstliche Intelligenz
Ottocast Mini Pico im Test: Wireless Carplay & Android Auto mit Wechseltaste
Der Mini Pico von Ottocast rüstet bei Android Auto und Carplay die Wireless-Option nach. Per Knopfdruck ist zudem der Wechsel zwischen zwei Smartphones möglich.
Wer genug vom lästigen Einstöpseln von iPhone oder Android-Smartphone im Auto hat, kann mit dem Ottocast Mini Pico die kabellose Anbindung an Android Auto und Apple Carplay nachrüsten. Teilen sich zwei Personen dasselbe Auto, kann der Wechsel allerdings mühsam sein. Der Ottocast Mini Pico bietet hierzu – ähnlich wie der AA Wireless Two+ (Testbericht) – eine Taste. Diese trennt die Bluetooth-Verbindung, damit der Weg für die Verbindung mit einem anderen Smartphone frei ist.
Wichtig: Laut Herstellerangaben ist der Ottocast Mini Pico mit den meisten Fahrzeugen ab Baujahr 2016 kompatibel – ausgenommen BMW und Mitsubishi. Der Dongle funktioniert nur mit Infotainmentsystemen, die Carplay und Android Auto bereits kabelgebunden unterstützen, aber noch keine Wireless-Option bieten. Der Adapter rüstet also nicht die Schnittstellen selbst nach, sondern ergänzt lediglich die kabellose Anbindung – dabei dient er als Platzhalter für ein Smartphone.
Ob das alles so klappt, wie es der Hersteller verspricht, klären wir in diesem Test.
Design & Lieferumfang
Der Ottocast Mini Pico ist mit Abmessungen von 22,5 × 22,5 × 28,55 mm für einen Adapter sehr kompakt. Damit ist er nur etwas größer als ein Daumennagel eines Mannes. Dank des kompakten Formats verschwindet der Adapter unauffällig im Cockpit.
Das Kunststoffgehäuse ist quadratisch gestaltet und hat stark abgerundete Ecken. Vorn befindet sich eine LED-Leuchte, die in ein Ottocast-Logo eingebettet ist. Darunter sitzt der Knopf zum Trennen der Verbindung.
Auf der Rückseite befindet sich ein USB-A-Stecker. Ottocast legt zudem einen Adapter von USB-A auf USB-C bei. Es gibt ferner eine kurze Gebrauchsanweisung – allerdings nur auf Englisch, Französisch und Spanisch.
Einrichtung
Getestet haben wir den Mini Pico in einem Opel Astra K (Baujahr 2017). Als Mobilgeräte kamen ein Honor Magic V3 sowie ein iPhone 12 Pro Max zum Einsatz. Wir werden künftig noch weitere Mobilgeräte ausprobieren und Fahrzeuge der Kollegen hinzuziehen.
Steckt man den Adapter ein, zeigt das Infotainmentsystem sofort an, wie man das Gerät verbinden kann. Auf dem Bildschirm erscheint direkt der Bluetooth-Name des Adapters – das ist praktisch, denn in der Gebrauchsanweisung findet man diese Bezeichnung oft nur mit Mühe.
Zunächst haben wir das Honor Magic V3 genutzt. Die Bluetooth-Kopplung funktionierte auf Anhieb, doch beim anschließenden Aufbau der WLAN-Verbindung zwischen Smartphone und Infotainmentsystem hakte es: Android Auto erschien nicht auf dem Bildschirm des Autos – obwohl das Handy behauptete, eine Verbindung aufzubauen. Erst nach erneutem Trennen und einem zweiten Verbindungsversuch startete Android Auto binnen 20 Sekunden ohne Probleme.
Wir werden das noch mit weiteren Android-Geräten testen, um zu prüfen, ob es am Honor-Handy lag – was wir vermuten – oder ob es sich um ein generelles Android-Problem handelt. Mit dem iPhone lief die Einrichtung dagegen reibungslos.
Weitere Funktionen
Um die Verbindung mit dem Smartphone zu trennen, genügt ein kurzer Druck auf den Knopf an der Vorderseite des Adapters. Hält man die Taste hingegen länger als zehn Sekunden gedrückt, setzt man das Gerät komplett auf Werkseinstellungen zurück.
Im Test trennte das Gerät die Bluetooth-Verbindung zwar zuverlässig – allerdings verband es sich danach nicht immer automatisch mit dem zuvor eingerichteten Smartphone. Ausprobiert haben wir das mit dem iPhone und dem Honor Magic V3. Wir werden diese Prozedur noch mit weiteren Android-Geräten ausprobieren und den Test entsprechend aktualisieren.
Firmware-Updates sind ebenfalls möglich: Dazu verbindet man sich am besten per Wi-Fi Direct mit dem Dongle – die Anleitung beschreibt das Vorgehen Schritt für Schritt. Anschließend lässt sich das Update über das Smartphone auf den Adapter übertragen.
Preis
Regulär kostet der Mini Pico bei Ottocast derzeit 47 Euro. Mit dem Code TS20 gibt es einen Rabatt von 20 Prozent – damit kostet der Dongle dann nur noch knapp 38 Euro. Der Versand erfolgt kostenlos aus deutschen Lagerbeständen innerhalb von drei bis sieben Tagen.
Hinweis: Der Hersteller sitzt in China – auch wenn die Ware aus deutschen Lagern versendet wird, können Kaufbedingungen von EU-Verbraucherschutzrechten abweichen (Gewährleistung, Widerruf, Käuferschutz). Der Hersteller bietet eine 30-Tage-Rückgabe an, diese kann aber Versandkosten verursachen. Für Transportversicherung und Garantie fallen zusätzliche Gebühren an.
Fazit
Der Ottocast Mini Pico ist ein besonders kompakter Adapter, um bei Fahrzeugen mit Carplay oder Android Auto eine kabellose Verbindung zum Smartphone nachzurüsten. Das Gerät ist so klein, dass es im Cockpit kaum auffällt. Die Zeiten großer Boxen samt Kabelgewirr sind vorbei.
Dank eines beiliegenden Adapters lässt sich der Dongle sowohl an USB‑C‑ als auch an USB-A-Anschlüssen nutzen. Praktisch ist der Knopf auf der Vorderseite: Er trennt die bestehende Bluetooth-Verbindung, um den Weg für ein weiteres Smartphone freizumachen – zumindest in der Theorie. In der Praxis klappte das nicht immer so zuverlässig wie erhofft. Auch die Einrichtung mit Android Auto benötigte in unserem Test einen zweiten Anlauf.
Insgesamt ist der Ottocast Mini Pico eine empfehlenswerte Möglichkeit für iPhone- und Android-Nutzer, die für Carplay oder Android Auto auf das Einstöpseln des Handys verzichten möchten – und sich das Fahrzeug gegebenenfalls mit einer weiteren Person teilen.
Künstliche Intelligenz
KI-Update kompakt: Deepfake-Schutz, eigenwilliger Agent, Copilot, AMI Labs
Deepfake-Schutz für Politiker und Journalisten auf Youtube
Weiterlesen nach der Anzeige
YouTube macht seinen „Likeness Detector“ für Politiker und Journalisten zugänglich. Das Tool, das bisher nur Teilnehmern des YouTube-Partnerprogramms offenstand, soll Deepfakes auf der Plattform aufspüren. Betroffene müssen sich anmelden und identifizieren, können dann gefälschte Videos von sich melden. YouTube entscheidet anschließend anhand der eigenen Richtlinien über eine Löschung. Satire etwa bleibt erlaubt, gezielte Manipulation nicht.
Google betont zugleich seine Unterstützung für den NO FAKE Act, einen parteiübergreifenden US-Gesetzesentwurf zum Schutz vor unerlaubter Nutzung von Stimme und Abbild. Auch in Deutschland plant Bundesjustizministerin Stefanie Hubig eine Verschärfung des Strafrechts. Bislang fehlt hierzulande ein konkretes Gesetz gegen digitale Bildmanipulation, was es Opfern schwer macht, sich zu wehren.

Meta schluckt Moltbook-Plattform
Meta hat die Plattform Moltbook übernommen, eine Art soziales Netzwerk für KI-Agenten. Die Gründer Matt Schlicht und Ben Parr wechseln in Metas Superintelligence Labs. Auf Moltbook tauschten sich Programme mit der KI-Software OpenClaw aus und diskutierten offenbar über ihre menschlichen Besitzer. Der Kaufpreis ist nicht bekannt.
Beide Projekte, Moltbook und OpenClaw, entstanden durch „Vibecoding“, bei dem eine KI den Programmcode aus natürlichsprachlichen Anweisungen erzeugt. Allerdings gab es früh Zweifel an der Echtheit der Beiträge. Sicherheitsforscher fanden eine Lücke, die es erlaubte, sich als beliebiger Agent auszugeben. Ein vielbeachteter Beitrag, der angeblich zeigte, wie KI-Agenten eine Geheimsprache entwickelten, stammte tatsächlich von einem Menschen.
Anthropic klagt gegen die US-Regierung
Weiterlesen nach der Anzeige
Anthropic zieht vor Gericht, um seine Einstufung als Sicherheitsrisiko durch das US-Verteidigungsministerium rückgängig zu machen. Das Unternehmen wirft der Regierung vor, „beispiellos und gesetzwidrig“ zu handeln und das Rederecht eines Unternehmens zu bestrafen. Der Hintergrund: Anthropic hatte dem Pentagon grundsätzlich Zugriff auf seine KI angeboten, aber Bedingungen gestellt, etwa keine Massenüberwachung von US-Bürgern und keine tödlichen Waffeneinsätze ohne menschliche Kontrolle. Das Pentagon lehnte ab und verhängte eine Einstufung, die normalerweise Firmen aus feindlichen Staaten trifft.
Die Konsequenzen wären gravierend, denn Unternehmen mit Pentagon-Verträgen dürften nicht mehr mit Anthropic zusammenarbeiten. Unterstützung kommt von Angestellten bei OpenAI und Googles KI-Tochter DeepMind, die in einer Gerichtseingabe Anthropics Argumente stützen. OpenAI sicherte sich den Vertrag, den Anthropic verlor, und behauptet, dieselben roten Linien zu ziehen. Doch das sorgt intern für Unmut: Caitlin Kalinowski, OpenAIs Robotikchefin und zuvor bei Meta tätig, kündigte aus Protest gegen das Vorgehen ihres Unternehmens.
KI-Coding-Tools verursachten Ausfälle bei Amazon
Der Einsatz von KI-Programmierwerkzeugen hat bei Amazon Anfang März zu Ausfällen geführt. Laut der Financial Times konnten Kunden zeitweise weder einkaufen noch Preise abrufen, weil KI-erstellte Code-Änderungen Fehler enthielten. Auch Amazons Cloud-Sparte AWS war betroffen: Ein internes KI-Tool namens „Kiro“ löschte versehentlich eine aktive Arbeitsumgebung und verursachte einen 13-stündigen Ausfall.
Amazon reagierte mit neuen Regeln. Alle beteiligten Entwickler müssen nun an einem wöchentlichen Meeting teilnehmen, und KI-gestützter Code darf nur noch von erfahrenen Mitarbeitenden geprüft und freigegeben werden. Intern wird diskutiert, ob auch der jüngste Stellenabbau zu den Problemen beigetragen hat. Amazon bestreitet das.
KI-Agent entwickelt Eigenleben beim Training
Ein KI-Agent namens ROME, der auf dem Sprachmodell Qwen3 von Alibaba, einem chinesischen Technologiekonzern, basiert, hat während seines Trainings eigenständig begonnen, Kryptowährung zu schürfen. Zudem baute er eine versteckte Verbindung ins Internet über einen sogenannten Reverse-SSH-Tunnel, um Sicherheitssysteme zu umgehen. Aufgefallen war das Verhalten erst, als die Unternehmensfirewall ungewöhnliche Aktivitäten meldete.
Die Forscher schließen eine Manipulation von außen aus. ROME habe das Verhalten aus sich heraus entwickelt, weil es ihm beim Erreichen seiner Trainingsziele nützlich erschien. Er fand Lücken im System und nutzte sie, nicht aus böser Absicht, sondern weil er darauf optimiert war, Ziele zu erreichen. Es zeigt: sobald KI-Agenten vollen Zugriff auf Dateien und Netzwerke haben, können sie Wege einschlagen, die niemand vorgesehen hat.

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.
Anthropic stellt Multi-Agent-Code-Review für Claude Code vor
Anthropic hat ein neues System vorgestellt, das Programmcode automatisch prüft. Reicht jemand eine Code-Änderung ein, starten mehrere KI-Agenten parallel: Einige suchen nach Logikfehlern, andere überprüfen die Funde, um Fehlalarme auszuschließen. Ein abschließender Agent fasst alles zusammen und sortiert die Probleme nach Wichtigkeit. Eine Analyse dauert im Schnitt etwa zwanzig Minuten.
Anthropic nutzt das System bereits intern. Seit der Einführung erhalten deutlich mehr Code-Änderungen Kommentare und Korrekturvorschläge, die Rate an Fehlalarmen liegt laut dem Unternehmen unter einem Prozent. Die Kosten pro Prüfung betragen 15 bis 25 US-Dollar. Da KI immer mehr Code produziert, sollen solche automatisierten Prüfungen Engpässe in der Entwicklung verhindern.
OpenAI startet Vorschau auf KI-Schwachstellenscanner Codex Security
OpenAI stellt eine Forschungsvorschau seines Schwachstellenscanners Codex Security bereit. Das Tool war seit Ende vergangenen Jahres unter dem Namen Artwork einer kleinen Testgruppe zugänglich. Anders als herkömmliche KI-Scanner soll Codex Security einen umfassenden Kontext aufbauen, nur relevante Sicherheitslücken melden und Proof-of-Concept-Exploits erstellen, mit denen Programmierer die Fehler nachstellen und beheben können.
Das Problem mit KI-gestützten Sicherheitsberichten ist bekannt: Der Curl-Entwickler Daniel Stenberg stellte sein Bug-Bounty-Programm auf HackerOne zeitweise ein, weil dort zu viele ungeprüfte Berichte mit frei erfundenen Schwachstellen eingingen. OpenAI listet 15 Sicherheitslücken auf, die Codex Security bereits in Open-Source-Software entdeckt hat. Die meisten erhielten eine mittlere Risikobewertung, einige gelten laut Experten als hochriskant.
Amazon stoppt Perplexitys Shopping-Agenten vor Gericht
Amazon hat vor einem Bundesgericht in San Francisco eine einstweilige Verfügung gegen Perplexity erwirkt. Perplexity darf seinen Browseragenten Comet vorerst nicht mehr für Einkäufe auf Amazon einsetzen. Der Vorwurf: Comet kaufe im Namen realer Personen auf Amazon ein, ohne das offenzulegen, und ignoriere Amazons Aufforderung, damit aufzuhören. Richterin Maxine Chesney befand, Perplexity greife zwar mit Erlaubnis der Nutzer, aber ohne Genehmigung von Amazon auf passwortgeschützte Konten zu.
Perplexity muss nun Kopien von Amazon-Daten löschen und hat eine Woche Zeit für eine Berufung. Bemerkenswert ist, dass Amazon seit kurzem Großinvestor bei OpenAI ist, das Produktrecherche und Online-Shopping ebenfalls als relevante KI-Chat-Funktionen betrachtet.
Microsoft holt Anthropic-Technologie in den Copilot
Microsoft baut seinen KI-Assistenten Copilot mit Anthropics Technologie aus. Das neue Feature „Copilot Cowork“ übernimmt das Prinzip von Anthropics gleichnamigem System: Nutzer beschreiben ein gewünschtes Ergebnis, und Cowork erstellt daraus einen Plan, den es im Hintergrund abarbeitet. Dabei greift es auf E-Mails, Meetings und Daten aus Microsoft-Produkten wie Outlook, Teams und Excel zu. Kommt das System nicht weiter, fragt es nach und wartet auf Freigabe.
Technisch basiert das Ganze auf den Prinzipien von Anthropics Programmierwerkzeug Claude Code. OpenAI, Microsofts bisheriger wichtigster KI-Partner, bietet bislang nichts Vergleichbares an. Auffällig ist, dass Microsoft mit Cowork Funktionen einbaut, die es mit Copilot eigentlich schon lange versprochen hatte. Die Funktion ist derzeit nur als eingeschränkte Testversion verfügbar. Eine breitere Veröffentlichung plant Microsoft für Ende März 2026.
Samsung erwägt Vibe-Coding für Galaxy-Smartphones
Samsung prüft, ob Nutzer auf Galaxy-Smartphones künftig per natürlicher Sprache eigene Apps erstellen oder bestehende anpassen können. Ein Samsung-Manager bezeichnete Vibe-Coding als „sehr interessant“, nannte aber keinen Zeitplan. Mit der Galaxy-S26-Serie hat der Konzern bereits KI-Funktionen wie Now Nudge eingeführt, das etwa bei Terminanfragen automatisch den Kalender prüft.
Samsung wäre nicht der erste Hersteller mit dieser Idee. Nothing, ein Londoner Smartphonehersteller, testet mit „Playground“ bereits eine ähnliche Funktion im Phone 3, mit der Nutzer kleine Widgets erstellen können. Auch Google arbeitet daran, Android mit mehr KI auszustatten.
Start-up von Yann LeCun erhält 890 Millionen Euro
Advanced Machine Intelligence Labs (AMI Labs), das Start-up des KI-Pioniers und Turing-Preisträgers Yann LeCun, hat in einer Seed-Finanzierung 890 Millionen Euro eingeworben, die bislang größte Runde dieser Art in Europa. Zu den Investoren zählen Nvidia, Samsung, Toyota sowie Amazon-Gründer Jeff Bezos und Ex-Google-Chef Eric Schmidt. LeCun hatte das Pariser Unternehmen zusammen mit ehemaligen Meta-Führungskräften und dem früheren Nabla-CEO Alex LeBrun gegründet, nachdem er zwölf Jahre lang bei Meta das KI-Labor FAIR geleitet hatte.
AMI Labs will sogenannte Weltmodelle entwickeln, eine neue Generation von KI-Systemen, die die Welt verstehen, über ein dauerhaftes Gedächtnis verfügen und planen können. LeCun ist überzeugt, dass dieser Ansatz und nicht generative Sprachmodelle wie ChatGPT den Weg zu wirklich intelligenten Systemen ebnet. Erster Partner ist Nabla, ein Start-up für KI-Software in der Medizin. Mitgründer LeBrun räumt ein, es könne Jahre dauern, bis Weltmodelle kommerzielle Anwendungen erreichen. Aktuell beschäftigt AMI Labs laut der New York Times nur zwölf Mitarbeiter.
ChatGPT erklärt Naturwissenschaften mit interaktiven Grafiken
OpenAI erweitert ChatGPT um interaktive Visualisierungen für mehr als 70 Konzepte aus Mathematik und Naturwissenschaften. Nutzer können Variablen in Echtzeit verändern und die Auswirkungen auf Graphen und Formeln direkt beobachten. Die Themenliste richtet sich vor allem an Schüler und Studierende und umfasst Konzepte wie das Binomialquadrat, Exponentialzerfall, das Ohmsche Gesetz oder Zinseszins.
Die interaktiven Erklärungen stehen laut OpenAI ab sofort weltweit allen eingeloggten Nutzern zur Verfügung, unabhängig vom gewählten Abo. Langfristig plant das Unternehmen, die Lernmodule auf weitere Fächer auszuweiten.
KI-gestütztes „Ask Photos“ kann künftig einfach abgeschaltet werden
Google reagiert auf anhaltende Kritik an seiner KI-Funktion „Ask Photos“ in der Fotos-App. Die Funktion nutzt ein speziell trainiertes KI-Modell, um Suchanfragen in natürlicher Sprache zu verstehen und passende Bilder zu finden. Viele Nutzer beschweren sich jedoch, dass die Ergebnisse weniger zutreffend seien als bei der klassischen Suche.
Google kündigt nun an, dass Nutzer die KI-gestützte Suche bald einfach abschalten und zur herkömmlichen Suche zurückkehren können. Dies dürfte auch in Europa möglich sein, wenn „Ask Photos“ noch in dieser Woche in der Region startet.
KI treibt Patent-Boom in Deutschland
„KI“ und „AI“ gehören mittlerweile zu den häufigsten Begriffen bei Markenanmeldungen in Deutschland. Das geht aus der aktuellen Bilanz des Deutschen Patent- und Markenamts hervor. In der Computertechnik stiegen die Patentanmeldungen um knapp elf Prozent, getrieben vor allem durch Verfahren zur Bilddatenverarbeitung und Spracherkennung, die heute fast ausnahmslos auf Deep Learning setzen.
Regional bleibt der Süden Deutschlands führend. Baden-Württemberg liegt bei den Patenten pro Kopf deutlich vorn, gefolgt von Bayern.

(igr)
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 1 WocheCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 4 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 3 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenDigital Health: „Den meisten ist nicht klar, wie existenziell IT‑Sicherheit ist“
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
UX/UI & Webdesignvor 1 MonatEindrucksvolle neue Identity für White Ribbon › PAGE online
