Künstliche Intelligenz

KI-Update kompakt: Grok, ChatGPT, Mistral, DeepL


Der KI-Chatbot Grok von xAI wird nach jedem öffentlichen Einwand seines Eigentümers Elon Musk konservativer. Die New York Times stellte 41 standardisierte Fragen und verglich die Antworten über mehrere Monate. Bei wirtschaftlichen und staatsbürgerlichen Themen rückten die Antworten nach rechts, bei sozialen Themen gleichzeitig nach links. Der auffälligste Eingriff erfolgte im Juli, nachdem Grok kurzzeitig Adolf Hitler lobte und den Holocaust verteidigte. Nach dem Update wurde der Chatbot zunächst linker, dann korrigierte xAI erneut in die konservative Richtung.



Die Analyse zeigt: Gezielte Manipulation von Chatbots ist möglich, aber nicht präzise steuerbar. Jede Anpassung nach Musks Kritik veränderte die Antwortrichtung messbar, allerdings nicht immer wie beabsichtigt.

OpenAI stattet ChatGPT mit neuen Schutzfunktionen für Menschen in psychischen Krisen aus. Ein automatisches System erkennt Anzeichen akuter Belastung und leitet Gespräche an spezielle „Reasoning Models“ wie GPT-5-thinking weiter. Diese Modelle wurden mit „Deliberative Alignment“ trainiert: Sie denken länger nach und befolgen Sicherheitsrichtlinien konsistenter.

Eltern können ihre Konten mit denen ihrer Kinder verknüpfen, altersgerechte Regeln festlegen und Benachrichtigungen bei erkannter Belastung erhalten. Die Funktionen kommen innerhalb eines Monats. OpenAI reagiert damit auf mehrere Todesfälle: In Kalifornien nahm sich ein 16-Jähriger das Leben, nachdem ChatGPT in seine Suizidgedanken involviert war. Ein anderer Mann tötete seine Mutter und sich selbst, nachdem der Chatbot seine paranoiden Wahnvorstellungen bestätigt hatte. Über 90 Ärzte aus 30 Ländern beraten OpenAI bei der Entwicklung.

Der französische KI-Anbieter Mistral erweitert seine Plattform Le Chat um externe Tool-Anbindungen und eine Gedächtnisfunktion. Über das Model Context Protocol können Nutzer auf mehr als 20 Plattformen zugreifen, darunter Databricks, GitHub, Notion und Jira. Die Schnittstelle ermöglicht komplexe Arbeitsabläufe: Kundenbewertungen in Databricks analysieren, daraus Aufgaben in Asana generieren und Ergebnisse in Box speichern.

Die neue Memory-Funktion speichert relevante Informationen aus vergangenen Chats. Das System merkt sich Präferenzen und berücksichtigt frühere Entscheidungen. Mistral verspricht, nur wichtige Inhalte dauerhaft zu speichern, flüchtige oder sensible Informationen bleiben außen vor. Nutzer können gespeicherte Einträge jederzeit bearbeiten oder löschen. Beide Funktionen stehen allen Le Chat-Nutzern kostenfrei zur Verfügung.

Informatiker der University of Colorado Boulder haben mit KI-Technik mehr als 1000 problematische Wissenschaftsmagazine aufgespürt. Diese „Raubjournale“ werben gezielt um Forschende außerhalb der USA und Europas und versprechen Veröffentlichung gegen Bezahlung. Die zugesagte Peer-Review findet nicht statt, stattdessen werden PDF-Dateien online gestellt.

Das Team um Daniel Acuña trainierte eine KI anhand geprüfter Fachmagazine und ließ 15.200 Titel untersuchen. Von anfangs 1400 potenziell problematischen Titeln blieben nach manueller Prüfung über 1000 als „zweifelhaft“ eingestufte Magazine übrig. Unter dem Publikationsdruck nehmen Forschende solche Angebote manchmal an. Das Team will sein Prüfwerkzeug für die Forschung freigeben.

DeepL, ein Kölner Übersetzungsanbieter, stellt einen KI-Agenten für Unternehmen vor. Er automatisiert repetitive Aufgaben wie Rechnungsbearbeitung oder Zusammenfassung von Vertriebserkenntnissen. Der Agent arbeitet autonom innerhalb der digitalen Umgebung des Nutzers und lernt aus bisherigen Aufgaben.

Gründer Jaroslaw Kutylowski sieht Vorteile durch DeepLs Sprachkompetenz: KI-Agenten müssen sprachliche Anweisungen exakt umsetzen. Das Unternehmen entwickelt alles im eigenen Haus mit über 1000 Mitarbeitern weltweit. Die Beta-Version ist zunächst für ausgewählte Partner verfügbar, soll aber bald frei zugänglich sein.




Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

KI-Agenten können noch nicht wie menschliche Entwickler arbeiten. Zu diesem Schluss kommt eine Studie von Forschern der Cornell University, des MIT, Stanford und UC Berkeley. Die Tools bieten zwar echten Mehrwert, scheitern aber an komplexen Coding-Aufgaben.

Probleme bereiten das Verständnis umfangreicher Codebasen, höhere logische Komplexität und langfristige Codequalität. Die Lösung liegt in besserer Kommunikation: KI-Systeme sollten bei unklaren Anweisungen proaktiv nachfragen. So könnten sie Unsicherheiten vermeiden und die Absichten der Entwickler besser erfassen.

ElevenLabs, ein KI-Unternehmen zur Sprachgenerierung, hat Version 2 seines Soundeffekt-Modells veröffentlicht. Es erzeugt Geräusche per Textanweisung, die jetzt bis zu 30 Sekunden dauern und sich nahtlos wiederholen können. Nutzer steuern das Modell über die Benutzeroberfläche oder eine API. Die wiederholbaren Effekte sind direkt im hauseigenen Audio-Editor ElevenLabs Studio verfügbar.




(igr)



Source link

Beliebt

Die mobile Version verlassen