Künstliche Intelligenz
KI-Update kompakt: ChatGPT Pulse, Code World Model, eHealth, KI-Suche
OpenAI macht ChatGPT zum personalisierten Newsfeeds
OpenAI hat ChatGPT Pulse eingeführt, eine Funktion, die proaktiv Themen vorschlägt und Informationen liefert, ohne dass Nutzer danach suchen. Das System nutzt die Memory-Funktion, Chat-Historie und direktes Feedback, um personalisierte Themenkarten zu erstellen. Diese bieten einen schnellen Überblick ähnlich einem Feed in sozialen Netzwerken.
Die Funktion soll Menschen dabei helfen, morgens auf dem Handy zu schauen, was ChatGPT für sie bereithält. OpenAI folgt damit dem Trend aller großen KI-Unternehmen, die glauben, dass Menschen Informationen lieber von außen bekommen möchten, statt aktiv zu suchen. Fraglich bleibt, wie weit Nutzer bereit sind, persönliche Daten preiszugeben, um personalisierte Informationen zu erhalten.
Microsoft erweitert Copilot um Anthropic-Modelle
Microsoft führt schrittweise Alternativen zu OpenAI-Modellen im KI-Assistenten-System Copilot ein. Kunden können künftig auf KI-Modelle von Anthropic umsteigen. Bei der Tochter Github ist Anthropic für zahlende Abonnenten des Github Copilot bereits erste Wahl im Visual Studio Code (VS Code).
Den Anfang macht das Microsoft Copilot Studio, mit dem KI-Agenten erstellt werden. Nach einem Opt-in können die Anthropic-Modelle Claude Sonnet 4 und Claude Opus 4.1 aktiviert werden. Die Umstellung soll flexibel sein, sodass unterschiedliche Aufgaben mit verschiedenen KI-Modellen bearbeitet werden können.
Meta gründet Lobby-Team gegen KI-Gesetze
Meta hat das American Technology Excellence Project gegründet, um weitere KI-Regulierung in den USA zu verhindern. Das Team soll über Dutzende Millionen US-Dollar verfügen und in Bundesstaaten politische Kandidaten unterstützen, die auf Metas Linie sind. Allein in diesem Jahr wurden laut dem Technologie-Webseite Engadget über 1000 Vorschläge zur KI-Regulierung auf bundesstaatlicher Ebene eingebracht.
Meta glaubt, Regulierung würde die USA im Wettrennen um KI mit China zurückwerfen. Schon zuvor hatte das Unternehmen eine ähnliche Interessengruppe in Kalifornien eingerichtet, wo bereits einzelne KI-Gesetze existieren, etwa zum Schutz digitaler Abbilder von Schauspielern oder bezüglich Falschinformationen vor Wahlen.
Metas Code-Modell simuliert Programmausführung
Meta hat das Code World Model entwickelt, ein KI-System mit 32 Milliarden Parametern, das Code nicht nur schreibt, sondern auch dessen Ausführung im Computer simuliert. Das Modell kann vorhersagen, ob ein Programm in einer Endlosschleife hängen bleibt, analysiert die Komplexität von Algorithmen und schätzt Laufzeiten bei verschiedenen Eingabegrößen.
Das System arbeitet auch rückwärts: Aus einer Beschreibung dessen, was ein Programm tun soll, simuliert es die Ausführung und leitet den passenden Code ab. Das Training erfolgte mit über 120 Millionen Python-Programmausführungen. Meta hat das Modell als Open-Weights-Modell unter einer nicht-kommerziellen Forschungslizenz veröffentlicht.
Alibaba stellt Videomodell mit synchronisiertem Ton vor
Alibaba hat Wan2.5-Preview veröffentlicht, ein Videomodell, das zehn Sekunden lange Full HD-Videos mit synchronisiertem Ton erzeugt. Das System verwendet eine multimodale Architektur, die Text, Bilder, Video und Audio in einem einheitlichen System verarbeitet. Als Eingabe akzeptiert es Text, Bilder oder Audio und kann Stimmen mehrerer Personen, Soundeffekte und Hintergrundmusik erstellen.
Wan2.5-Preview erreicht laut Alibaba ein ähnliches Niveau wie Googles Veo 3. In Demonstrationsvideos zeigen sich allerdings noch Schwächen: Bild- und Tonspur passen nur oberflächlich zusammen, Schlagzeugspiel und Musik synchronisieren sich nicht taktgenau, und die Darstellung konsistenter Gesichter bereitet Probleme.
Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.
Gesundheitsverband fordert eigenes KI-Reallabor
Der Spitzenverband Digitale Gesundheitsversorgung hat ein „Green Paper“ vorgelegt und fordert eine branchenspezifische „AI Regulatory Sandbox“ für das Gesundheitswesen. Der Verband vertritt über 170 E-Health-Unternehmen und sieht einen Engpass aus unklaren Regularien, mangelndem Datenzugang und fehlenden Testumgebungen für KI-Entwickler.
Das bereits existierende KI-Reallabor der Bundesnetzagentur sei zu unspezifisch für die besonderen Anforderungen von Medizin und Pflege. Besonders problematisch bleibt der Datenzugang: Gesundheitsdaten sind besonders geschützt und auf viele Einrichtungen verteilt. Zudem überschneiden sich die Medizinprodukte-Verordnung und der AI Act teilweise, was zu Verunsicherung führt.
Altman will KI-Einsatz im Gesundheitswesen vorantreiben
OpenAI-Chef Sam Altman sieht große Chancen für KI in der Medizin. „Wir haben beobachtet, dass immer mehr Menschen ChatGPT zur Unterstützung bei der Verwaltung ihrer Gesundheitsversorgung nutzen, und das funktioniert mittlerweile recht gut“, sagte Altman bei der Verleihung des Axel-Springer-Awards in Berlin. Mit GPT-5 wolle OpenAI dies weiter vorantreiben und mit Ärzten zusammenarbeiten.
Ärzte würden es nutzen, um bessere Versorgung zu bieten, aber auch Patienten würden es häufig für Fragen verwenden. Altman ist der neunte Preisträger des undotierten Axel-Springer-Awards, mit dem jährlich Personen gewürdigt werden, die in herausragender Weise Märkte verändern.
Hollywood-Studios haben zu wenig Daten für KI-Training
Die geplante KI-Partnerschaft zwischen dem Filmstudio Lionsgate und dem Start-up Runway kommt langsamer voran als erwartet. Ein überraschender Grund: Die Filmbibliothek reicht nicht aus, um ein leistungsfähiges KI-Modell zu trainieren. Laut einem Insider sei selbst Disneys gesamter Filmkatalog zu klein für dieses Vorhaben.
Ursprünglich wollte Lionsgate seinen Filmkatalog nutzen, um mit Runway ein eigenes KI-Modell für die Filmproduktion zu entwickeln. Zusätzlich bremsen rechtliche Fragen das Projekt: Ungeklärte Bildrechte von Schauspielerinnen und Schauspielern erschweren die Nutzung des Materials. Lionsgate betont, man verfolge weiter KI-Projekte mit mehreren Anbietern.
KI-Zusammenfassungen bedrohen zivilgesellschaftliche Vielfalt
KI-Chatbots und automatisierte Zusammenfassungen in Suchmaschinen verändern das Online-Suchverhalten grundlegend. Immer mehr Menschen bleiben auf den Plattformen und konsumieren nur die dort aufbereiteten Inhalte. Zivilgesellschaftliche Organisationen mit ihrer Expertise bleiben in den Zusammenfassungen bei Suchanfragen unsichtbar und werden oft nicht einmal als Quelle genannt.
Wenn die Organisationswebseiten weniger besucht werden, können NGOs nicht auf ihre weiterführenden Angebote verweisen und um Spenden werben. Große Tech-Konzerne nehmen damit Einfluss auf öffentliche Meinungsbildung, ohne angemessen demokratisch kontrolliert zu werden. Manuel Hofmann von der Deutschen Aidshilfe fordert, dass Plattformen ihre Quellen in KI-Zusammenfassungen prominent ausweisen müssen sowie mehr demokratische Kontrolle.
App verkauft Telefonaufnahmen für KI-Training
„Neon – Money Talks“ ist derzeit in den USA auf Platz 4 in den iPhone-App Charts, noch vor Google und WhatsApp. Die App zeichnet Telefongespräche auf und zahlt dafür 15 US-Cent pro Minute, maximal 30 US-Dollar pro Tag. Die Aufnahmen werden dann für KI-Trainings weiterverkauft, angeblich bereinigt um personenbezogene Daten.
Die Vertragsklauseln sind ein juristisches Minenfeld: Neon Mobile sichert sich unwiderrufliche, weltweite, gebührenfreie, übertragbare und sublizenzierbare Lizenzen. Teilnehmende verzichten auf Ansprüche bezüglich dessen, was Neon oder dessen Kunden aus den Aufnahmen generieren, und haften selbst, wenn sie bei Gesprächen Rechte Dritter verletzen.
Spotify führt Maßnahmen gegen KI-Musik ein
Spotify will seine Nutzer und Musikschaffende vor KI-Musik schützen. Musiker sollen künftig offenlegen, ob und wie KI bei der Produktion zum Einsatz kommt. Ein neues Beschwerdeformular ermöglicht es Künstlern, sich zu melden, wenn ihre Stimme illegal von KI kopiert wurde. Allerdings muss jeder KI-Song einzeln beanstandet werden.
Ab Herbst soll ein Filter KI-Spammer automatisch erkennen, die massenhaft Song-Kopien und kurze KI-Tracks hochladen, um den Algorithmus auszutricksen und möglichst viele Wiedergaben zu bekommen. Der Algorithmus soll diese Inhalte dann nicht mehr empfehlen.
(igr)