Künstliche Intelligenz
Weltmodell statt LLM: Start-up von Yann LeCun erhält 890 Millionen Euro
Das Start-up des KI-Pioniers, Turing-Preisträgers und ehemaligen Meta-KI-Chefwissenschaftlers Yann LeCun hat im Rahmen einer Seed-Finanzierung 890 Millionen Euro eingeworben. Das in Paris gegründete Unternehmen Advanced Machine Intelligence Labs (kurz: AMI Labs) verzeichnet damit die bislang größte Finanzierungsrunde dieser Art in Europa.
Weiterlesen nach der Anzeige
Zu den Investoren zählen neben zahlreichen Risikokapitalgebern auch namhafte Unternehmen und private Investoren, darunter Nvidia, Samsung, Toyota sowie Amazon-Gründer Jeff Bezos, Investor Mark Cuban und Ex-Google-Chef Eric Schmidt.
LeCun hatte das Start-up zusammen mit ehemaligen Meta-Führungskräften sowie dem früheren Nabla-CEO Alex LeBrun gegründet.
Das Start-up ist erst wenige Monate alt und beschäftigt laut der New York Times nur zwölf Mitarbeiter, was sich dank der neuen Finanzmittel bald ändern dürfte. AMI Labs hat eine internationale Ausrichtung und unterhält neben seinem Hauptsitz in Paris auch Standorte in New York, Montreal und Singapur.
AMI Labs setzt auf KI mit Weltverständnis
LeCun arbeitete zuvor zwölf Jahre lang bei Meta und gründete dort das KI-Labor FAIR. Er verließ Meta im November 2025, um sich mit einer eigenen Firma der Entwicklung von sogenannten Weltmodellen zu widmen. LeCun ist überzeugt, dass diese Art von KI-Modell und nicht generative Sprachmodelle wie ChatGPT den Weg zu wirklich intelligenten KI-Systemen ebnen werden.
„Wir teilen eine Überzeugung: Echte Intelligenz beginnt nicht mit Sprache. Sie beginnt in der realen Welt“, heißt es programmatisch auf der Webpräsenz des Start-ups. Demnach will das Unternehmen eine neue Generation von KI-Systemen entwickeln, die die Welt verstehen, über ein dauerhaftes Gedächtnis verfügen, schlussfolgern und planen können.
Weiterlesen nach der Anzeige
AMI Labs will seine Weltmodelle zunächst gemeinsam mit Unternehmen aus datenintensiven Branchen entwickeln, etwa aus der Industrie, der Biomedizin oder der Robotik. Auch im Bereich Verbrauchergeräte sieht LeCun mögliche Anwendungen. Obwohl Meta nicht zu den Investoren gehört, führt das Unternehmen Gespräche über eine Zusammenarbeit. Denkbar sei etwa, dass die Weltmodelle von AMI künftig KI-Assistenten in Metas Smart Glasses antreiben, sagt LeCun zu Wired.
Weltmodelle: Noch viel Grundlagenforschung nötig
Der erste offizielle Partner ist das Start-up Nabla, das KI-Software für Ärzte entwickelt, die etwa Patientengespräche automatisch dokumentiert und medizinische Notizen erstellt. Anders als große Sprachmodelle, die zu Halluzinationen neigen können, soll das Weltmodell von AMI Labs reale Prozesse besser abbilden und dadurch Risiken in sensiblen Bereichen wie der Medizin verringern.
Bis dahin ist jedoch noch viel Grundlagenforschung nötig. LeBrun sagt gegenüber Wired, es könne Jahre dauern, bis Weltmodelle von der Theorie zu kommerziellen Anwendungen gelangen.
Neben AMI Labs entwickelt auch das Start-up World Labs Weltmodelle. Es erhielt im Februar ebenfalls eine Finanzierung von rund einer Milliarde US-Dollar. Auch Meta mit seiner unter LeCuns Führung entwickelten JEPA-Architektur sowie Google mit Genie 3 experimentieren mit ähnlichen Ansätzen.
(tobe)
Künstliche Intelligenz
Post zum Freitag: Von Apples Zukunft bis zum Vinyl-Revival
Es war schon länger klar, dass Tim Cook bald das Ruder an einen Nachfolger übergeben wird. Dennoch hat mich der Termin am 20. April überrascht. Seitdem steht fest, dass John Ternus ab dem 1. September 2026 neuer Chef von Apple wird. Wer ist dieser Mann, der künftig einen der wertvollsten Konzerne der Welt führen soll? Wir haben ein detailliertes Porträt des designierten Apple-Chefs gezeichnet, der bereits 2020 mit der Präsentation der ersten M1-Macs von sich reden machte. Ich bin jedenfalls sehr gespannt, wie sich Apple unter Ternus verändert. Vielleicht gibt es ja sogar wieder eine Live-Keynote vor Publikum, wenn er – vermutlich mit dem iPhone Foldable (natürlich mit einem viel cooleren Namen) – im September seine erste große Produktvorstellung als CEO absolviert. Die polierten, aufgezeichneten Shows, die Apple seit der Pandemie zur Kunstform erhoben hat, sind wirklich nicht mehr zeitgemäß.
Weiterlesen nach der Anzeige
Apropos Kunstform: Wer kennt das nicht – man zieht ein altes Familienalbum aus dem Schrank und findet vergilbte, zerkratzte Schwarzweißfotos, die kaum noch zu erkennen sind. Wir haben uns angeschaut, wie gut KI-Tools beim Restaurieren und Kolorieren alter Familienfotos helfen können. Das Ergebnis ist beeindruckend – und weckt unweigerlich Lust, den eigenen Schuhkarton voller alter Abzüge endlich anzugehen.
Wer nach diesem nostalgischen Ausflug in die Vergangenheit noch mehr Retro-Feeling sucht, dem empfehle ich unseren Hintergrundartikel darüber, was ein wirklich gelungenes Remaster alter Videospiele ausmacht. Denn zwischen einem lieblos hochskalierten Port und einem echten Remaster liegen Welten – technisch wie rechtlich. Wer sich noch an „The Secret of Monkey Island“ oder „Turrican 2“ erinnert, wird diesen Artikel mit einem breiten Grinsen lesen.

Wenn ich an Retrogames denke, führt für mich kein Weg an „Day of the Tentacle“ vorbei, egal ob in der Originalversion oder als Remaster.
(Bild: Paul Kautz)
Vom Bildschirm zum Klang: Wer Musik nicht nur hören, sondern wirklich erleben möchte, kommt am Vinyl-Revival kaum vorbei. Wir haben uns drei Einstiegs-Plattenspieler mit Bluetooth zwischen 240 und 340 Euro genauer angeschaut. Das Ergebnis: Das analoge Vergnügen lässt sich durchaus erschwinglich gestalten – aber nicht jedes Gerät hält, was es verspricht, und so manches Bluetooth-Problem nervt im Alltag mehr als erwartet.
Wer beim Thema Energie und Nachhaltigkeit mitdenken möchte, dem lege ich unseren aktuellen Ratgeber ans Herz, der beleuchtet, was Solarfassaden im Alltag wirklich leisten können. Photovoltaik an der Fassade klingt nach einer eleganten Lösung – liefert aber zu ganz anderen Zeiten Strom als eine klassische Dachanlage. Ob sich das rechnet und wo die größten Hürden liegen, klärt der Artikel.
Zum Abschluss noch ein Hinweis in eigener Sache: Wer schon immer wissen wollte, wie man eine KI direkt auf dem eigenen Rechner betreibt – ganz ohne Cloud und ohne Account bei einem Tech-Konzern –, der sollte sich den kommenden Mittwoch vormerken. Am 29. April 2026 ab 17 Uhr laden wir Sie zu unserem Expertentalk rund um lokale KI-Modelle für Einsteiger ein. Unsere Redakteure beantworten Ihre Fragen live im Stream – und räumen dabei mit so manchem Mythos auf.
Ich wünsche Ihnen ein sonniges Wochenende
Ihr
Volker Zota
(Chefredaktion heise medien)
Weiterlesen nach der Anzeige
(vza)
Künstliche Intelligenz
KI-Update Deep-Dive: Kliniken entwickeln eigene Sprachmodelle
Sieben Millionen Patientenfälle als Grundlage
Weiterlesen nach der Anzeige
Das Universitätsklinikum Hamburg-Eppendorf (UKE) hat 2024 eine gemeinnützige Tochtergesellschaft gegründet, die Innovative Digitale Medizin (IDM gGmbH). Deren Ziel ist es, KI-Anwendungen für den deutschsprachigen Gesundheitsraum zu entwickeln – und zwar nicht nur für das UKE selbst, sondern für alle Kliniken und Praxen. „Wir sind davon überzeugt, dass die KI-Modelle, die auf solidarisch gewonnenen Gesundheitsdaten trainiert werden, auch dem System zurückgegeben werden sollten“, erklärt Dr. Nils Schweingruber, einer der Geschäftsführer der IDM. Diese Folge des KI-Updates erschien zuerst im neuen Digital Health Podcast von heise online. Er wird von Marie-Claire Koch verantwortet.

Das UKE arbeitet seit 2009 durchgehend mit einer digitalen Patientenakte und verfügt inzwischen über sieben Millionen dokumentierte Patientenfälle. Diese Daten bilden die Grundlage für das Training der KI-Modelle. „Wir gehen davon aus, dass diese KI sehr gut generalisiert und auch an anderen Orten in diesem Gesundheitssystem funktionieren wird“, sagt Schweingruber. Alle Daten werden dabei datenschutzgerecht und anonymisiert verwendet und verlassen die Klinik nicht.
Argo schreibt Arztbriefe
Das erste Produkt der IDM ist Argo, ein großes Sprachmodell, das beim Schreiben von Arztbriefen unterstützt. „Man kann aus der Patientenakte auf Argo zugreifen. Und Argo generiert dann die Epikrise, die man dann anpassen und in seinen Arztbrief übernehmen kann“, erläutert der IDM-Geschäftsführer. Die Epikrise ist der Teil des Arztbriefs, in dem sich Ärztinnen und Ärzte kritisch mit dem Krankheitsverlauf auseinandersetzen – welche Diagnosen gestellt wurden, wie behandelt wurde und worauf Weiterbehandelnde achten sollten.
Dieser Abschnitt kostet im Klinikalltag besonders viel Zeit, weil er händisch geschrieben oder diktiert werden muss. „Ich sage auch immer gerne, wir haben eine KI entwickelt, die Arztbriefe schreibt, um den Arztbrief abzuschaffen“, so Schweingruber. Langfristig soll Argo die gesamte Arztbriefschreibung übernehmen und dabei helfen, dieses klassische Instrument grundsätzlich zu überdenken. „Wenn man sich damit beschäftigt, kommt man auf einmal an einen Punkt, wo man sich darüber unterhält, was wollen wir anstelle eines Arztbriefes?“
Noch in diesem Jahr soll Argo nicht mehr nur Epikrisen generieren, sondern als komplettes Werkzeug für die Arztbriefschreibung dienen. Auch die Entwicklung von KI-Agenten für die Diagnostik und Behandlung ist geplant. Dafür strebt die IDM die Zertifizierung nach ISO 13485 an, die für Hersteller von Medizinprodukten erforderlich ist.
Weiterlesen nach der Anzeige

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.
Orpheus ersetzt herkömmliche Spracherkennung
Das zweite Produkt ist Orpheus, eine KI-gestützte Spracherkennung, die seit Anfang 2025 am UKE im Einsatz ist. Alle 15.000 Mitarbeitenden des Klinikums können damit arbeiten. „Wir hatten früh alle Berufsgruppen immer mit dabei und ich bin fest davon überzeugt, dass wenn man ein solches KI-Tool wie moderne Spracherkennung in sein Unternehmen einführt, man das nicht nur an einer Stelle machen sollte, sondern eigentlich an allen Stellen“, betont Schweingruber.
Inzwischen läuft Orpheus laut IDM an vier Universitätskliniken, über 30 Krankenhäusern, vier Universitäten und mehr als 200 weiteren ambulanten Gesundheitseinrichtungen. Der entscheidende Unterschied zu kommerziellen Lösungen ist, dass Orpheus lokal im eigenen Rechenzentrum betrieben werden kann. Für Praxen ohne eigene Infrastruktur hostet die IDM das System in einer deutschen Cloud.
Daten bleiben in Europa
Für Schweingruber ist die IDM ein Beispiel dafür, warum Europa eigene KI-Infrastruktur braucht. „Wenn man sich herkömmliche Spracherkennung in seinem Unternehmen holt, zahlt man erstens dafür sehr viel Geld und die Daten fließen letztendlich zu den Unternehmen, die das natürlich dankend annehmen und darauf ihre KI weiterentwickeln und uns wieder zurückverkaufen“, erklärt er. „Wir durchbrechen diesen Kreislauf und sagen, nein, die Daten bleiben hier bei uns in Europa, in Deutschland und wir entwickeln darauf unsere KI-Modelle hochspezifisch für unser System weiter.“
Die Technologie soll künftig nicht nur Kliniken zur Verfügung stehen, sondern allen Akteuren im Gesundheitswesen – von Praxen über Apotheken bis zu Krankenkassen. Auch eine Schnittstelle für Start-ups und andere Software-Anbieter ist geplant, damit diese die KI-Modelle der IDM einbinden können, statt auf außereuropäische Dienste angewiesen zu sein. Zudem will die Organisation in diesem Jahr auch Open-Source-Komponenten veröffentlichen.
Schweingruber ist überzeugt, dass Kliniken künftig ohne KI kaum noch arbeitsfähig sein werden. „Wir haben ja so viel Daten, die kannst du als Mensch ab einem gewissen Punkt gar nicht mehr selbst erfassen. Du brauchst KI-Technologie, um dich durch diesen ganzen Datendschungel durchzunavigieren“, sagt er. Personaleinsparungen erwartet er dadurch aber nicht – im Gegenteil: „Wir werden nicht weniger Personal, sondern wir werden ein höheres Patientenaufkommen haben und dafür diese Technologie brauchen.“
(igr)
Künstliche Intelligenz
Etherpad 2.7.0: Kollaborativer Web-Editor ohne Cloud-Zwang
Mit Version 2.7.0 des quelloffenen Echtzeit-Editors Etherpad ersetzen die Entwickler das in die Jahre gekommene Abiword durch LibreOffice als Konverter für Import und Export von DOCX-, ODT- und PDF-Dateien. Als Nebeneffekt beherrscht Etherpad den DOCX-Export nun ohne zusätzliche Werkzeuge ab Werk. Wer von einer älteren Version migriert, muss in der settings.json zwingend den Pfad zur soffice-Binary von LibreOffice eintragen – sonst bleibt die Konvertierung stecken. Daneben bringt das Release Komfortfunktionen für den Timeslider, mehr Kontrolle für Pad-Ersteller, Härtung in der Software-Lieferkette und eine lange Liste an Bugfixes.
Weiterlesen nach der Anzeige
Etherpad ist ein in Node.js geschriebener, selbst hostbarer Web-Editor für kollaboratives Schreiben in Echtzeit – funktional vergleichbar mit Google Docs, aber unter Apache-2.0-Lizenz und ohne Cloud-Zwang. Über ein Plugin-System lässt sich Etherpad um Authentifizierung, zusätzliche Exportformate oder Editorfunktionen erweitern.
Timeslider und Pad-Defaults
Der Timeslider, mit dem sich die Bearbeitungshistorie eines Pads als Replay abspielen lässt, zeigt jetzt Zeilennummern an und erlaubt es, die Wiedergabegeschwindigkeit zu verändern – schneller oder langsamer als in Echtzeit. Neu ist außerdem, dass der Ersteller eines Pads dessen Standardeinstellungen vorgibt und damit mehr Kontrolle über die initiale Konfiguration erhält. Wer mehrere Etherpad-Instanzen unter derselben Domain betreibt, kann Kollisionen zwischen Session-Cookies künftig über ein konfigurierbares Cookie-Präfix vermeiden.
Für Plugin-Entwickler gibt es den neuen Hook aceRegisterLineAttributes, mit dem sich eigene Zeilenattribute über Enter- und Zeilenumbruch-Operationen hinweg erhalten lassen. Damit verlieren etwa Plugins, die Absätze als Zitat oder Aufgabe markieren, ihre Auszeichnung beim Drücken der Eingabetaste nicht mehr. Für schnelle Erstinstallationen liefert das Projekt einen One-Line-Installer mit. Die Docker-Images stehen zusätzlich zu Docker Hub nun auch in der GitHub Container Registry (GHCR) bereit. Das npm-Publishing von Core und Plugins läuft jetzt über OIDC Trusted Publishing – langlebige API-Tokens entfallen damit, was die Sicherheit der Lieferkette erhöht.
Bugfixes von der Datenbank bis zur Eingabe
Das Update umfasst zahlreiche Bugfixes: Etherpad liefert jetzt wieder die Datenbanktreiber für Postgres, MySQL & Co. mit; frische Installationen scheiterten zuletzt häufig schon an der Datenbankverbindung. Nach einem Reconnect schreibt Etherpad ausstehende Changesets nun sofort weg, statt sie stillschweigend zu verwerfen. Auf stark frequentierten Pads sollen zudem die sporadischen „mismatched apply“-Fehler der Vergangenheit angehören.
Weiterlesen nach der Anzeige
Die maximale Nachrichtengröße in Socket.IO steigt auf 10 MByte, sodass auch große Pastes nicht mehr am Limit scheitern. Daneben behebt das Release zahlreiche Detailprobleme rund um nummerierte Listen, Copy-&-Paste-Formatierungen, Eingaben über Tottasten sowie ESM/CJS-Interop im Settings-Modul, das zuletzt die Plugin-Kompatibilität gestört hatte. Auch an der Barrierefreiheit hat das Team gearbeitet, etwa mit besserer Screenreader-Unterstützung und aria-live-Meldungen. Die vollständigen Release Notes stehen im GitHub-Repository des Projekts bereit.
Lesen Sie auch
Siehe auch:
(fo)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 1 MonatCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 2 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Social Mediavor 1 MonatVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
