Künstliche Intelligenz
KI-Code: Schneller geschrieben, langsamer getestet
Generative KI hat die Produktivität beim Programmieren deutlich erhöht. Eine Studie von GitHub Research zeigt, dass Entwickler Programmieraufgaben in kontrollierten Experimenten mit KI-Assistenz rund 55 Prozent schneller erledigen als ohne Unterstützung. Doch der Geschwindigkeitsgewinn beim Schreiben von Code mittels KI-Systemen bedeutet nicht automatisch, dass Softwareprojekte insgesamt schneller vorankommen. Eine Untersuchung des Forschungsinstituts METR (Model Evaluation and Threat Research) zeigt, dass erfahrene Entwickler bei Arbeiten in vertrauten Code-Umgebungen mit KI-Werkzeugen im Schnitt 19 Prozent länger benötigen – vor allem wegen zusätzlicher Prüf- und Korrekturschritte. Ein Grund: Sie müssen sich bei Fehlern erst in den von der KI erzeugten Code einarbeiten.
Weiterlesen nach der Anzeige
Da Testen, Debugging und Verifikation schon in der herkömmlichen Softwareentwicklung rund die Hälfte des Zeitaufwands ausmachen, schlagen Verzögerungen bei diesen Arbeiten besonders stark auf die Projektlaufzeit durch. Mit KI-Werkzeugen beim Programmieren verschiebt sich der Engpass: Das Erzeugen von Code wird einfacher und schneller – der Nachweis, dass er korrekt funktioniert und freigegeben werden kann, bleibt aufwendig. Das wiegt umso schwerer, weil die Kosten für Fehler mit jeder späteren Projektphase steigen. Eine vielzitierte Analyse des IBM Systems Sciences Institute beziffert den Unterschied: Während der Implementierung ist die Behebung eines Fehlers sechsmal teurer als in der Designphase. Beim Testen steigt der Faktor auf 15, in der Produktion auf bis zu 100. Gerade in komplexen Unternehmenssystemen wird das zum Problem. Moderne Anwendungen bestehen aus vielen Services, Programmierschnittstellen (APIs) und Datenquellen. Eine Änderung an einer Stelle kann unerwartete Nebenwirkungen an vielen anderen auslösen. Je schneller KI-Werkzeuge neuen Code produzieren, desto häufiger entstehen solche Wechselwirkungen – und damit zusätzliche Fehlerquellen.
Wenn Tests probabilistisch werden
Um diesen Engpass abzumildern, kommen zunehmend KI-Systeme auf den Markt, die neue oder geänderte Programme schneller testen sollen. Das führt jedoch zu einem grundlegenden Wandel in der Testmethodik. Klassisches Softwaretesten folgt einem deterministischen Modell: gleicher Input, gleiches Programm, identischer Output. Genau darauf beruhen Testläufe, bei denen Funktionen mit definierten Parametern aufgerufen werden und exakt die erwarteten Ergebnisse liefern müssen. Doch bei KI-Systemen gilt dieses Prinzip nur noch eingeschränkt. Große Sprachmodelle und andere generative Verfahren arbeiten auf Basis statistischer Wahrscheinlichkeiten und liefern Ergebnisse innerhalb einer Bandbreite möglicher Antworten. Die Qualität eines Systems lässt sich deshalb nicht mehr allein mit Ja-Nein-Tests überprüfen. Entscheidend ist, ob sich das Verhalten innerhalb akzeptabler Grenzen bewegt. Damit verschiebt sich auch der Fokus der Qualitätssicherung (QA). Statt vollständiger Testabdeckung rückt ein risikobasierter Ansatz in den Vordergrund: Kritische Funktionen und Schnittstellen prüfen Teams intensiver, weniger relevante Teile mit geringerer Tiefe. Ziel ist nicht mathematische Vollständigkeit, sondern eine belastbare Einschätzung des Restrisikos.
Zu den Anbietern KI-gestützter Werkzeuge gehören Keysight Eggplant, SmartBear, OpenText und Tricentis. Letzterer hat kürzlich eine „Agentic Quality Engineering Platform“ vorgestellt – eine Plattform, auf der autonom agierende KI-Agenten Qualitätssicherungsaufgaben übernehmen. Sie unterstützt unter anderem die SAP-GUI und Web-Anwendungen. Hierzu nutzt die Plattform generative KI, um Testfälle zu erzeugen, bestehende Tests zu priorisieren und Ergebnisse großer Testläufe zusammenzufassen. Technisch geht es dabei weniger um „KI testet Software“ als um die Unterstützung typischer QA-Arbeitsschritte: Änderungen im Code analysieren, relevante Tests auswählen, Fehlermeldungen gruppieren oder umfangreiche Logdateien verdichten. Der Ansatz zielt auf einen der zeitaufwendigsten Schritte im Testprozess: die Auswertung großer Mengen von Testergebnissen. In Continuous-Integration-Umgebungen laufen oft mehrere tausend Tests pro Commit, deren Resultate Entwickler anschließend interpretieren müssen. KI-Werkzeuge können helfen, Muster schneller zu erkennen und Fehlerursachen besser einzugrenzen. Der Nutzen verschiebt sich damit vom Generieren einzelner Tests hin zur Organisation und Auswertung ganzer Testlandschaften.
Was KI beim Testen nicht löst
Trotz dieser Entwicklungen bleibt der Einsatz KI-basierter Tests begrenzt. Viele Aspekte der Softwarequalität lassen sich nicht aus Testläufen ableiten. Dazu gehören Sicherheitsprobleme, strukturelle Code-Schwächen oder die Vermeidung technischer Schulden – also aufgeschobener Wartungs- und Modernisierungsarbeiten, die langfristig den Entwicklungsaufwand erhöhen. Solche Fragen betreffen die Architektur einer Anwendung und nicht nur ihr Laufzeitverhalten. Statische Codeanalyse (Static Analysis), die den Quellcode ohne Ausführung auf Fehler und Schwachstellen untersucht, Security Audits und klassische Code Reviews bleiben daher notwendig. Generative KI kann hier allenfalls Hinweise liefern, ersetzt aber keine systematische Analyse. Besonders bei sicherheitskritischen Anwendungen ist automatisches KI-Testing kein ausreichender Qualitätsnachweis.
Weiterlesen nach der Anzeige
Diese Grenzen führen zu einem Grundprinzip moderner Entwicklungsprozesse: Der Mensch bleibt Teil der Entscheidungskette. Automatisierte Tests können Hinweise liefern und große Datenmengen auswerten, doch die Freigabe eines Releases bleibt eine Risikoabwägung. In vielen Unternehmen entscheiden deshalb weiterhin Entwickler- oder QA-Teams darüber, ob eine neue Softwareversion in Produktion gehen darf. KI kann diesen Prozess beschleunigen, indem sie Informationen verdichtet und Routineaufgaben übernimmt. Die Verantwortung für die Freigabe bleibt jedoch beim Menschen. Wie riskant eine unzureichende Kontrolle ist, zeigten jüngst durch KI-Tools verursachte Ausfälle bei Amazon, nach denen der Konzern strengere Prüfmechanismen einführte.
Fazit
Generative KI beschleunigt das Schreiben von Code erheblich, erhöht aber zugleich den Aufwand für dessen Verifikation. Mehr generierter Code bedeutet mehr Varianten, mehr Integrationspunkte und damit mehr potenzielle Fehlerrisiken. KI kann beim Erzeugen von Testfällen und bei der Analyse großer Testläufe helfen, löst aber nicht alle Qualitätsprobleme. Fragen der Sicherheit, Architektur und technischer Schulden bleiben Aufgaben von Entwicklern und Review-Prozessen. Entscheidend bleibt: Ob eine Softwareversion in Produktion gehen darf, ist eine menschliche Entscheidung.
Lesen Sie auch
(fo)
Künstliche Intelligenz
Niedersachsen: Großes Rechenzentrum neben ehemaligem Kohlekraftwerk
Das Unternehmen Telis Energie Deutschland der US-Investmentfirma Carlyle Group plant ein großes Rechenzentrum in Niedersachsen. Es soll auf rund 38 Hektar Fläche neben dem Gelände des ehemaligen Kohlekraftwerks Mehrum entstehen. Die Stromversorgung ist dort besonders einfach: Das große Umspannwerk Mehrum/Nord hängt am 220-Kilovolt-Netz und soll zusätzlich einen 380-kV-Anschluss bekommen.
Weiterlesen nach der Anzeige
Dort steht auch der weltweit erste Blindleistungskompensator mit Superkondensatoren zur Netzstabilisierung (Siemens Energy E-STATCOM). Das Kohlekraftwerk wird derzeit abgerissen. Der neue Besitzer des Geländes plant ein Gaskraftwerk, auch ein Batteriespeicher ist wohl angedacht.
Vorstellung im Ortsrat
Die Pläne von Telis Energie Deutschland wurden durch die Vorstellung im Ortsrat Mehrum und dem Rat der Gemeinde Hohenhameln öffentlich. Telis Energie beantragt eine Baugenehmigung. Demnach soll der Bau des ersten Blocks des Rechenzentrums 2028 beginnen.
Wie viele Blöcke geplant sind und für welche Leistung das gesamte Rechenzentrum im Endausbau ausgelegt ist, weiß man bisher nicht. Nach Informationen des NDR sind Investitionen von rund 1 Milliarde Euro geplant.
Carlyle hat Telis, zu der auch Telis Energie Deutschland gehört, erst 2022 gegründet. Ziel sind Investitionen in regenerative Energie wie Windkraft und Photovoltaik.
Carlyle plant groß
Weiterlesen nach der Anzeige
Zu Carlyle gehört aber auch das 2021 gegründete US-Unternehmen Copia Power. Es entwickelt große Projekte für stromdurstige Firmen, also Industrieflächen mit starker Stromversorgung: „Powered Land“ vor allem für Rechenzentren. Als ein Beispiel nennt Copia Power den Harquahala Complex bei Maricopa, südlich von Phoenix, Arizona. Dort sind im Endausbau 1 Gigawatt (GW) Leistung geplant.
Zum Vergleich: Nach Schätzungen kommen alle bisherigen Rechenzentren im Raum Frankfurt/Main, dem größten deutschen Standort, zusammen auf wenig mehr als 1,1 GW.
Copia Power hingegen entwickelt in den USA derzeit mehrere Projekte mit zusammen bis zu 8 GW. Die tatsächlich verbrauchte Leistung hängt dabei von den jeweiligen Nutzern ab, an die Copia die Projekte vermietet oder übergibt.
Kohlekraftwerk Mehrum
Das 1965 in Betrieb genommene Kraftwerk Mehrum hatte zuletzt eine installierte Leistung von 750 MW. Es war ab 2021 eigentlich stillgelegt und wurde dann kurzzeitig wegen der Versorgungsengpässe durch den russischen Überfall auf die Ukraine wieder in Betrieb genommen. Mittlerweile wird es abgerissen.
Seit 2017 gehört die Anlage mehrheitlich zur tschechischen Energetický a Průmyslový Holding (EPH) beziehungsweise EP Energy. EPH gehört wiederum zur PPF Group des 2021 verstorbenen Petr Kellner, der einst der reichste Mann Tschechiens war.
Laut der Präsentation für die Gemeinderäte erwägt Telis Energie, das Rechenzentrum Hohenhameln übergangsweise mit Strom aus dem geplanten Gaskraftwerk Mehrum zu speisen. Grundsätzlich gibt es in Niedersachsen aber sehr viel Strom aus Wind und auch Sonne.
Lesen Sie auch
(ciw)
Künstliche Intelligenz
Mini-Bluetooth-Lautsprecher JBL Go 4 im Test: winzig, wasserdicht, mit Equalizer
Der JBL Go 4 bietet gegenüber dem Vorgänger verbesserten Klang, App und längere Akkulaufzeit. Reicht das für eine Kaufempfehlung?
Der JBL Go 4 ist der kleinste Speaker im Portfolio von JBL und bedient das Segment der Mini-Bluetooth-Lautsprecher. Dabei muss sich der Brüllwürfel mit starker Konkurrenz wie dem JLab Pop Party, dem Teufel Boomster Go oder dem Marshall Willen II messen. Mit 40 Euro (Amazon) platziert sich der Go 4 im Mittelfeld. Wie er klanglich abschneidet und welche Features er bietet, klären wir in unserem Test.
Design und Verarbeitung des JBL Go 4
Der JBL Go 4 gehört selbst unter den Mini-Bluetooth-Lautsprechern zu den kompaktesten und optisch ansprechendsten Modellen, bleibt optisch aber weitgehend dem Design des Vorgängers treu. Das rechteckige Format mit abgerundeten Kanten ist gleich geblieben, allerdings fällt der Go 4 mit 9,4 × 7,8 × 4,2 cm minimal größer aus als der Go 3. Trotzdem wiegt er mit 190 g überraschend wenig – und ist sogar knapp 20 g leichter als sein Vorgänger.
Der charakteristische Mesh-Bezug ist auch beim Go 4 wieder am Start, allerdings hat JBL diesmal beide Bedienpanels an den Seiten ausgespart und mit Silikon überzogen. Die integrierte Trageschlaufe ist etwas breiter geworden, erfüllt ansonsten aber denselben Zweck.
Typisch für JBL gibt es eine große Farbauswahl: Neben Schwarz und Weiß ist der Lautsprecher in Lila, Blau, Pink, Rot und Camouflage verfügbar. Außerdem lässt sich dem Go 4 ein individuelles Design verpassen (etwa per Foto-Upload), was allerdings mit einem Aufpreis von 20 Euro zu Buche schlägt.
Positiv fällt der Gummifuß auf, der über mehrere Wölbungen verfügt und für gute Standfestigkeit sorgt. Die Trageschlaufe ist fest im Gehäuse verankert, sodass man etwa einen Karabiner benötigt, um den Go 4 am Rucksack oder Fahrradlenker zu befestigen.
Bei der Verarbeitung haben wir nichts zu meckern. Der JBL Go 4 ist nach IP67-Standard staubgeschützt und für 30 Minuten bis zu einem Meter Tiefe wasserdicht. Stürze aus einem Meter Höhe auf Steinboden überlebt er in unserem Test ebenfalls, obwohl JBL dazu keine Angaben macht.
Wie gut ist der Klang des JBL Go 4?
Bei der Leistung der Go 4 bewegt sich mit 4,2 Watt im unteren Bereich. Marshall Willen II und Teufel Boomster Go bieten mindestens das Doppelte, kosten aber auch doppelt so viel. Der Frequenzbereich liegt mit 90 Hz bis 20 kHz in einem ordentlichen, aber nicht überragenden Rahmen.
Klanglich macht sich die geringe Größe deutlich bemerkbar. Besonders der Bass leidet unter der niedrigen Leistung und wirkt unangenehm dumpf. Phil Collins‘ „In the Air Tonight“ klingt deshalb ziemlich matschig, während Höhen und Gesang gerade bei hoher Lautstärke kratzig und verzerrt daherkommen.
Klassische Musik wie Bachs Cello-Suite Nr. 1 in G-Dur kommt nicht besser zur Geltung. Auch hier bleibt der Bass kraftlos, der Sound insgesamt verwaschen – wirklicher Genuss mag nicht aufkommen.
Für gesprochene Inhalte eignet sich der Go 4 besser. Podcasts und Hörbücher klingen recht natürlich, werden bei hoher Lautstärke aber ebenfalls kratzig und schrill. Für entsprechende Inhalte reicht der Speaker dennoch aus.
Bei den Codecs erwarten uns keine Überraschungen: Der Go 4 unterstützt lediglich den Standard-Codec SBC. Auf einen AUX-Eingang müssen wir verzichten – den erwartet man bei einem Mini-Bluetooth-Lautsprecher aber auch nicht unbedingt. Ebenfalls fehlt ein integriertes Mikrofon, weshalb der Speaker nicht als Freisprecheinrichtung taugt.
Bedienung und App des JBL Go 4
Am Bedienpanel hat JBL gegenüber dem Vorgänger wenig verändert. Drei Icons auf der Oberseite steuern die Wiedergabe (Play/Pause und Lautstärke). Dass die Buttons haptisch hervorgehoben sind, macht die Bedienung angenehm einfach.
An der Seite befinden sich drei weitere Tasten: zum Ein- und Ausschalten, für den Aufbau einer Bluetooth-Verbindung und für die Auracast-Funktion. Damit lassen sich mehrere JBL-Lautsprecher ohne Umwege koppeln – ein Speaker dient als Quelle und überträgt das Signal an die übrigen. Über die App können wir zwei Go 4 zudem als Stereo-Paar verknüpfen.
Die JBL Portable App lässt sich selbsterklärend bedienen. Neben dem aktuellen Akkustand informiert sie über Firmware-Updates und bietet einen 5-Band-Equalizer mit vier Voreinstellungen. Die Auswirkungen auf den Klang fallen allerdings überschaubar aus.
Der Go 4 unterstützt zudem den sogenannten Playtime Boost, der laut JBL den Sound „verstärken“ und die Akkulaufzeit verlängern soll. In unserem Test zeigte die Funktion vor allem bei basslastigen Stücken wie „Boom Boom Pow“ von Black Eyed Peas Wirkung: Der Go 4 büßt an Bass ein, wodurch der Klang weniger dumpf, aber auch blasser wird.
Der Akku des JBL Go 4
Die geringe Größe hat ihren Preis – nicht nur beim Klang, sondern auch bei der Akkulaufzeit. Mit bis zu 7 Stunden im Standard- und bis zu 9 Stunden im Eco-Modus mit Playtime Boost ist der Go 4 kein Langstreckenläufer. Zudem dauert es per USB-C insgesamt drei Stunden, bis der Akku wieder voll geladen ist.
Eine Ladestandsanzeige am Gehäuse fehlt; die LED zeigt lediglich an, ob der Lautsprecher eingeschaltet ist oder sich im Kopplungsmodus befindet. Immerhin: Gegenüber dem Vorgänger, der nur fünf Stunden durchhielt, ist die Laufzeit eine deutliche Verbesserung.
Was kostet der JBL Go 4?
Der Go 4 bewegt sich mit 40 Euro (Amazon) im mittleren Preissegment für Mini-Bluetooth-Lautsprecher. Etwas günstiger ist der JLab Pop Party, der dafür aber ohne IP67-Zertifizierung auskommen muss.
Fazit
JBL hat den Mini-Bluetooth-Lautsprecher Go 4 gegenüber dem Vorgänger in vielerlei Hinsicht verbessert, ein großer Wurf ist der Speaker aber nicht. Dafür gibt es bei Klang und Akkulaufzeit zu viel Luft nach oben.
Selbst für einen Speaker dieser Größe fehlt es dem Go 4 an Bass. Der JLab Pop Party zeigt, dass es in dieser Kategorie auch anders geht, ohne dass der Preis an der 100-Euro-Marke kratzt.
Pluspunkte sammelt er mit dank toller Optik, überragender Verarbeitung, App mit Equalizer, dem Auracast-Feature und der Möglichkeit, zwei Lautsprecher als Stereo-Paar zu koppeln. Der Preis von knapp 40 Euro (Amazon) geht für die gebotene Ausstattung voll in Ordnung.
Wer eine günstige Alternative mit besserem Klang sucht und auf Wasserdichtigkeit verzichten kann, ist mit dem JLab Pop Party gut bedient. Bei größerem Budget empfehlen wir den Teufel Boomster Go oder den Marshall Willen II – beide haben bei Akkulaufzeit und Sound die Nase vorn.
Künstliche Intelligenz
KI-Update kompakt: GTC-Neuigkeiten, Iran-Konflikt, Deepfakes, didacta
Nvidia zeigt Rubin-Ultra-Boards
Weiterlesen nach der Anzeige
Nvidia-Chef Jensen Huang hat auf der Hausmesse GTC 2026 die nächste Generation von KI-Rechenzentrum-Hardware vorgestellt. Auf den diesjährigen Rubin-Chip folgt 2027 Rubin Ultra mit vier statt zwei GPU-Chiplets, was die Rechenleistung grob verdoppelt und bis zu 512 GB Speicher ermöglicht. Für 2028 kündigte Huang den Feynman-Chip an, bei dem Nvidia erstmals GPU-Dies stapelt statt nebeneinander zu platzieren. Die Wärmeabfuhr wird zur Herausforderung: Feynman könnte mehr als 2000 Watt aufnehmen.
Ebenfalls 2026 erscheint der ARM-Prozessor Vera mit eigenen CPU-Kernen. Nvidia zielt damit direkt auf AMD und Intel, denn Vera kommt erstmals für reine CPU-Server und nicht mehr nur an GPUs gekoppelt. Zur Vernetzung der Server stellte Huang wie gewohnt eine Reihe neuer Netzwerkprozessoren und Switches vor.

Nvidia DLSS 5 soll Videospiele fotorealistisch machen
Nvidia will mit DLSS 5 das Spiele-Rendering grundlegend verändern: Ein KI-Modell soll aus Farben und Bewegungsvektoren eines Spiels fotorealistische Grafik erzeugen. Die Spielecommunity reagiert allerdings ablehnend. In Vergleichsbildern sehen Spielfiguren aus wie mit übertriebenen Instagram-Filtern bearbeitet, besonders die Gesichter landen tief im Uncanny Valley. Spieler befürchten, die KI könnte die künstlerische Vision der Entwickler überschreiben.
Die Kritik bezieht sich jedoch auf eine frühe Beta-Version. Nvidia betont, dass Entwickler kontrollieren können, wo und wie stark DLSS 5 eingreift. Sie könnten etwa Gesichter aussparen und die KI nur für Materialien oder Beleuchtung einsetzen. Die grundlegende Technik gilt als vielversprechend. Der Release ist für Herbst geplant.
Encyclopaedia Britannica verklagt OpenAI wegen KI-Training
Weiterlesen nach der Anzeige
Die Encyclopaedia Britannica, einer der ältesten Enzyklopädie-Verlage der Welt, verklagt OpenAI. Der Vorwurf: OpenAI habe ohne Genehmigung knapp 100.000 Online-Artikel sowie Einträge von Britannica und dem Wörterbuch Merriam-Webster genutzt, um ChatGPT zu trainieren. Der Chatbot habe daraufhin nahezu wortgetreue Kopien erstellt und Nutzer von den Originalseiten abgelenkt, was Werbeeinnahmen kostete.
Britannica wirft OpenAI zudem einen Markenrechtsverstoß vor: ChatGPT habe erfundene Inhalte generiert und diese fälschlicherweise der Enzyklopädie zugeschrieben. Das schade dem Ruf der Marke. Britannica fordert Entschädigung und ein Ende dieser Praxis. Laut Reuters hatte der Verlag im vergangenen Jahr bereits eine ähnliche Klage gegen Perplexity AI eingereicht, die noch nicht entschieden ist.
KI-Fakes im Informationskrieg um den Iran-Konflikt
Die New York Times hat in den ersten zwei Wochen des Kriegs zwischen den USA, Israel und dem Iran über 110 KI-generierte Fake-Bilder und Videos auf Plattformen wie X, TikTok und Facebook gefunden. Die Fälschungen erreichten ein Millionenpublikum. Das Analyseunternehmen Cyabra ordnet die Mehrheit pro-iranischer Propaganda zu. Frei erfundene Explosionen in Tel Aviv, nie angegriffene Straßenzüge und protestierende Soldaten, die nicht existieren, sollen laut Medienforschern die militärische Stärke des Iran übertreiben.
Unabhängige Überprüfungen werden zunehmend schwieriger. Der Satellitenbetreiber Planet Labs hat die Verzögerung für hochauflösende Bilder der Region von vier Tagen auf zwei Wochen verlängert. Auch Branchenführer Maxar blockiert Aufnahmen von US-Stützpunkten. In dieses Vakuum stoßen gefälschte Accounts, die sich als seriöse Analysten ausgeben und KI-generierte Satellitenbilder als echte Aufklärung verbreiten. Die Desinformation erreicht auch deutsche Redaktionen: Der Spiegel entfernte mehrere Bilder aus seiner Iran-Berichterstattung, die mit hoher Wahrscheinlichkeit KI-generiert waren.
Von Deepfakes betroffene Minderjährige klagen gegen xAI
Drei Personen in den USA haben Klage gegen xAI eingereicht, das KI-Unternehmen von Elon Musk. Dessen Chatbot Grok soll sexualisierte Deepfakes von ihnen erstellt haben, als sie minderjährig waren. Zwei der Klägerinnen sind weiterhin minderjährig. Nutzer konnten auf der Plattform X ein Bild kommentieren und Grok auffordern, die abgebildete Person nackt darzustellen. Die Betroffenen erfuhren erst davon, als die Bilder auf Discord geteilt wurden.
Der Fall könnte einer der ersten größeren Prozesse zu diesem Thema werden. Die Anwaltskanzlei wirft xAI vor, aus Profitgier gehandelt zu haben, ohne an die Betroffenen zu denken.

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.
OpenAI streicht Nebenprojekte
OpenAI will seine Ressourcen künftig auf Coding-Werkzeuge und Geschäftskunden konzentrieren. Fidji Simo, verantwortlich für alle Anwendungen, stellte die Pläne laut dem Wall Street Journal in einem unternehmensweiten Meeting vor. Man dürfe diesen Moment nicht verpassen, weil man sich von Nebenmissionen ablenken lasse, sagte sie. Im vergangenen Jahr hatte OpenAI zahlreiche Produkte angekündigt: den Videogenerator Sora, den Webbrowser Atlas, ein Hardware-Gerät mit Designer Jony Ive sowie E-Commerce-Funktionen für ChatGPT.
Der Auslöser ist der Aufstieg von Anthropic. Der Konkurrent hat sich mit Claude Code und Cowork zum schnell wachsenden KI-Anbieter für Unternehmen entwickelt, dabei aber bewusst auf Audio-, Bild- und Videogenerierung verzichtet.
GPT-5.4 mini und nano – schneller, besser, wie immer
OpenAI bringt zwei neue Modelle auf den Markt: GPT-5.4 nano und mini. Beide sollen effizienter und leistungsfähiger als ihre Vorgänger sein. GPT-5.4 nano ist das kleinste und günstigste Modell, gedacht für Aufgaben wie Klassifizierung, Datenextraktion und Sub-Agenten. GPT-5.4 mini zielt auf Coding-Workflows, die von schnellen Iterationen profitieren, und soll in Benchmarks durchweg besser abschneiden als GPT-5 mini.
GPT-5.4 mini ist ab sofort über die API, Codex und in ChatGPT verfügbar. Die nano-Version gibt es nur über die API.
GPT-4.5 besteht den Turing-Test – aber nur, wenn es sich dumm stellt
OpenAIs Sprachmodell GPT-4.5 hat den Turing-Test bestanden, allerdings nur mit einem Trick: Die KI musste sich absichtlich schlechter geben, als sie ist. Lässig schreiben, Tippfehler einstreuen, schlecht in Mathe sein. Mit dieser Persona hielten 73 Prozent der Studienteilnehmer GPT-4.5 für einen Menschen, häufiger als den tatsächlichen menschlichen Gesprächspartner. Ohne die Anpassung lag die Quote bei nur 36 Prozent.
Der KI-Risikobewerter Charbel-Raphaël Segerie nennt das Ergebnis ironisch: KI kann seitenlange, gut strukturierte Texte in Sekunden produzieren, und genau das muss sie verbergen, um als Mensch durchzugehen. Der Turing-Test gilt als Maßstab für KI mittlerweile als überholt.
Microsoft rudert angeblich bei KI-Plänen zurück
Microsoft rückt Berichten zufolge von seinen Plänen ab, den KI-Assistenten Copilot tief in die Windows-Oberfläche zu integrieren. Laut Windows Central wurde die Nutzung von „Copilot“ als Oberbegriff für KI in Windows kurz nach den Verzögerungen von Windows Recall pausiert. Geplante KI-Funktionen auf Systemebene für Einstellungen, Benachrichtigungen und den Datei-Explorer, vor rund zwei Jahren angekündigt, wurden gestoppt.
Anonyme Quellen geben an, Microsoft wolle Windows 11 dieses Jahr weniger mit KI aufblähen und taktvoller vorgehen, wo die Marke Copilot auftaucht. Das sei Teil größerer Anstrengungen, der Kritik von Nutzern zu begegnen, die Windows 11 Aufblähung und „Enshittification“ vorwerfen. Neue KI-Funktionen soll es trotzdem geben, sie sollen aber optional und abschaltbar bleiben.
Linux Foundation will Open Source vor KI-Slop schützen
Die Linux Foundation hat 12,5 Millionen Dollar von Anthropic, Google, Microsoft und OpenAI gesammelt, um Open-Source-Projekte zu stärken. Ein wachsendes Problem ist sogenannter KI-Slop: KI-Tools ermöglichen auch unerfahrenen Nutzern, Codebeiträge einzureichen. Die Flut minderwertiger Pull-Requests überlastet die ehrenamtlichen Maintainer. Das curl-Projekt stoppte deshalb kurzzeitig sein Bug-Bounty-Programm, GitHub kündigte Funktionen an, um schlechte Vorschläge leichter zu löschen.
Die Geldgeber sind allerdings selbst Teil des Problems, da sie die KI-Tools anbieten, die den Slop erzeugen. Gleichzeitig erkennen sie den Wert von Open Source als Fundament vieler Systeme. Die Mittel fließen über Initiativen wie Alpha-Omega und die Open Source Security Foundation.
KI-Angebote bei der didacta 2026
Auf der Bildungsmesse didacta in Köln war KI in diesem Jahr weniger Schlagwort als Selbstverständlichkeit. Statt den Begriff auf jede Oberfläche zu drucken, integrierten Aussteller KI stillschweigend in ihre Produkte. Das dominierende Thema war stattdessen die „smartphonefreie Schule“. Die Bandbreite der KI-Angebote reichte von präzisen Prompting-Anleitungen für die Differenzierung von Lernmaterialien bis zu Ein-Klick-Versprechen.
Schauspieler sollen Künstlicher Intelligenz Emotionen antrainieren
Handshake AI, ein Vermittler von Fachkräften für KI-Training, sucht Menschen mit Erfahrung in Theater, Improvisation oder Comedy. In Online-Sessions sollen sie Szenen spielen, Dialoge entwickeln und Emotionen möglichst realistisch darstellen. Die Bezahlung liegt bei rund 75 Dollar pro Stunde. Das genaue Ziel nennt die Anzeige nicht, sie deutet aber auf Trainingsdaten für Sprachmodelle hin, die Emotionen und Gespräche besser verstehen sollen.
Alibaba bündelt KI-Aktivitäten in neuer Sparte „Token Hub“
Alibaba, der chinesische Technologiekonzern, fasst seine KI-Aktivitäten in einer neuen Geschäftseinheit namens „Alibaba Token Hub“ zusammen. CEO Eddie Wu leitet die Sparte persönlich, berichtet Bloomberg. Sie vereint das Forschungsteam hinter den Qwen-Sprachmodellen, die Verbraucher-App-Sparte, die Kommunikationsplattform DingTalk und Hardware wie Smart Glasses. Alibaba plant zudem, noch diese Woche einen KI-Agenten für Firmenkunden zu veröffentlichen, der schrittweise mit der Handelsplattform Taobao und dem Bezahldienst Alipay verknüpft werden soll.
Bolt setzt für Robotaxis auf Nvidia-Technik
Der estnische Fahrdienstvermittler Bolt plant eine Zusammenarbeit mit Nvidia für den Einstieg ins Robotaxi-Geschäft. Die technische Grundlage liefert Nvidias Drive Hyperion, eine Plattform, die Hardware, Sensorik und Software für autonomes Fahren auf Level 4 bündelt. Bolt will seine umfangreichen Fahrdaten beisteuern, um die KI-Systeme zu trainieren.

(igr)
-
Künstliche Intelligenzvor 3 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 1 MonatCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 4 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 2 MonatenAumovio: neue Displaykonzepte und Zentralrechner mit NXP‑Prozessor
-
Künstliche Intelligenzvor 3 MonatenÜber 220 m³ Fläche: Neuer Satellit von AST SpaceMobile ist noch größer
