Künstliche Intelligenz
KI-Update: Chat GPT-5, KI-Übersetzer, KI und Unis, KI-Schuld, Nvidia und China
OpenAI startet GPT-5 mit adaptiver Architektur
OpenAI hat sein neues Flaggschiff-Modell GPT-5 vorgestellt, das mit einer adaptiven Architektur aufwartet. Das System passt seinen „Denkaufwand“ intelligent an die jeweilige Aufgabe an: Einfache Fragen beantwortet ein schnelles Modell, komplexe Probleme übernimmt eine Variante mit vertiefter Analyse. Ein automatischer Router entscheidet im Hintergrund, welche Version zum Einsatz kommt.
Das Unternehmen hebt besonders Fortschritte beim Programmieren hervor – ein Bereich, in dem OpenAI zuletzt hinter Konkurrent Anthropic zurücklag. GPT-5 soll nun besser darin sein, Benutzeroberflächen, Webseiten und kleine Apps mit einer einzigen Anweisung zu entwickeln sowie komplexe Code-Basen zu verbessern. Zugang erhalten Nutzer gestaffelt: Kostenlose Konten bekommen begrenzten Zugriff auf GPT-5, während Plus- und Pro-Abonnenten erweiterte Nutzungsrechte genießen.
Wie Studierende KI an der Uni nutzen
Künstliche Intelligenz ist an Universitäten längst Alltag. Ein Forschungsbericht der Hochschule Darmstadt legt nahe, dass 90 Prozent der Studierenden in Deutschland KI-Tools nutzen – als Recherchehilfe, Erklärtool oder Ghostwriter. Die Folgen sind bisweilen verheerend: Ein Professor berichtete auf Reddit, dass vier von zehn korrigierten Bachelorarbeiten durchfielen, weil KI-Systeme unpassende oder erfundene Quellen verwendet hatten.
Die Beweggründe für den KI-Einsatz sind vielfältig. Laut einer Studie greifen besonders Studierende unter Druck und mit hoher Arbeitsbelastung auf ChatGPT zurück, während vorsichtigere Kommilitonen aus Angst vor Konsequenzen zurückschrecken. Bemerkenswert: Wer ChatGPT exzessiv nutzt, erzielt schlechtere Endergebnisse. Martin Wan vom Hochschulforum Digitalisierung sieht dennoch eine Chance, die veraltete Prüfungskultur zu überdenken – statt KI zu verbieten, sollten Hochschulen sie sinnvoll integrieren.
Google startet interaktives Lernen mit Gemini
Google führt mit „Guided Learning“ ein interaktives Lernformat in seine Gemini-App ein. Das System soll komplexe Themen Schritt für Schritt vermitteln – mit Rückfragen, Bildern, Videos und Quizbausteinen. Die Inhalte basieren auf LearnLM, einem speziell für Bildungszwecke trainierten Modell.
Entwickelt wurde die Funktion in Zusammenarbeit mit Lehrkräften, Lernforschern und Studierenden. Über Google Classroom können Lehrende die Materialien direkt in ihren Unterricht einbinden. Mit diesem Vorstoß folgt Google ähnlichen Lernformaten, die bereits von OpenAI und Anthropic angeboten werden.
Google Gemini durch Kalendereinträge angreifbar
Forscher des Technion und der Sicherheitsfirma SafeBreach haben eine beunruhigende Schwachstelle in Googles Gemini-Assistenten entdeckt. Das System ließ sich durch versteckte Anweisungen in harmlosen Kalendereinträgen hacken und fernsteuern – mit erschreckend einfachen Mitteln.
Die Angreifer versteckten schädliche Prompts in E-Mails, Kalendereinladungen oder geteilten Dokumenten. Sobald Nutzer ihren Gemini-Assistenten aktivierten, übernahm der versteckte Prompt die Kontrolle. In Tests konnten die Forscher Lichter ausschalten, Fenster öffnen oder Boiler aktivieren – ausgelöst durch harmlose Wörter wie „danke“. Google hat inzwischen reagiert: Das Unternehmen führte verpflichtende Nutzerbestätigungen bei sensiblen Aktionen ein und implementierte einen Klassifikator, der indirekte Prompt-Injections erkennen soll.
Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.
Stadt Chemnitz: KI-Übersetzer beschleunigen Verfahren und sparen Kosten
Die Stadt Chemnitz nutzt seit Februar 2025 DSGVO-konforme KI-Übersetzergeräte, um Sprachbarrieren in Behörden zu überwinden. 112 Pocketalk-S-Geräte sind im Einsatz – mit überzeugenden Ergebnissen. Sven Spitzner, Leiter des Sachgebiets Technik und Telefonie, berichtet von beschleunigten Verfahren und reduzierten Dolmetscherkosten.
Die Smartphone-ähnlichen Übersetzer werden besonders im Bürgeramt, Welcome Center, bei der Kfz-Zulassung und im Jugendamt geschätzt. In einer Schule konnte etwa ein dringend notwendiges Elterngespräch kurzfristig ohne Dolmetscher erfolgreich durchgeführt werden. Trotz gelegentlicher Probleme mit starken Dialekten oder verschachtelten Sätzen werden die Übersetzungen als überwiegend akkurat wahrgenommen – ein Modell, das auch andere Städte wie Troisdorf bereits übernommen haben.
KI mit Schuldgefühlen kooperativer machen?
Kann künstliche Intelligenz kooperativer werden, wenn man ihr Schuldgefühle beibringt? Eine im Journal of the Royal Society Interface veröffentlichte Studie liefert dazu bemerkenswerte Erkenntnisse. Forscher ließen Software-Agenten das klassische „Gefangenendilemma“ spielen und statteten sie mit einem Zähler für unkooperative Handlungen aus.
Überschritt dieser Zähler einen Schwellenwert, gaben die Programme Punkte ab – ein digitales Äquivalent zu Schuldgefühlen. Das Ergebnis war eindeutig: Besonders soziale Schuld, die nur auftrat, wenn auch das Gegenüber betroffen war, förderte kooperatives Verhalten deutlich. Die „schuldigen“ Agenten verhielten sich merklich kooperativer als ihre emotionslosen Pendants. Ob sich diese Erkenntnisse auf komplexe KI-Systeme wie große Sprachmodelle übertragen lassen, bleibt allerdings offen.
Nvidias Antwort an China: Kill-Switch wäre „eine offene Einladung für Desaster“
Nvidia hat Vorwürfe der chinesischen Regierung entschieden zurückgewiesen, seine KI-Beschleuniger enthielten versteckte Kill-Switches. In einer Stellungnahme betont der Sicherheitschef des Unternehmens, dass die Chips „keine Hintertüren, keine Kill-Switches, keine Spyware“ enthalten.
Der Chiphersteller argumentiert, dass fest eingebaute Fernabschaltmechanismen die Grundprinzipien der Cybersicherheit verletzen würden. Solche Funktionen seien „permanente Fehler und eine offene Einladung zur Katastrophe“. Die Stellungnahme erfolgte, nachdem die chinesische Regierung dem Unternehmen weitreichende Hintertüren in seinen Chips vorgeworfen hatte.
(mali)