Künstliche Intelligenz
Linux-Entwickler kooperieren für besseres Linux-Gaming
Mehrere Mitglieder der Linux-Community schließen sich zusammen, um Gaming auf dem offenen Betriebssystem voranzubringen. Ziel der Projektgruppe Open Gaming Collective ist es, einen auf Gaming-fokussierten Kernel zu entwickeln, um bisherige Insellösungen abzulösen und Gaming-Standards auf Linux zu vereinheitlichen.
Weiterlesen nach der Anzeige
Zu der Gruppe gehören unter anderem Universal Blue, das Team hinter dem Gaming-Linux Bazzite, sowie Asus Linux und PikaOS. Sie wollen im Rahmen der Open Gaming Collective Komponenten wie Kernel-Patches, Input-Tools und Gaming-Packages bündeln, schreibt Universal Blue in der Ankündigung. „Anstatt dass jede Distribution eigene Patches pflegt und mit fragmentierter Hardware-Unterstützung kämpft, können Verbesserungen nun im gesamten Ökosystem geteilt werden“, heißt es dort. Die Gruppe hat bereits eine GitHub-Seite eingerichtet.
„Mehr Zeit zum Spielen“
Auf seiner Webseite bringt das Open Gaming Collective (OGC) seine Mission folgendermaßen auf den Punkt: „Distros können sich nun auf die Funktionen und das Nutzungserlebnis konzentrieren, die sie einzigartig machen, anstatt immer wieder dieselben Aufgaben zu erledigen. Kurz gesagt: Wir alle haben mehr Zeit zum Spielen.“
Als konkrete Beispiele nennt das Open Gaming Collective vereinheitlichten Support für Features wie Secure Boot und Controller-Unterstützung, darunter zum Beispiel auch Lenkräder. Die OGC-Konfiguration soll zuerst im auf Gaming konzentrierten Bazzite zum Einsatz kommen. Für Spieleentwickler könnte es durch die Konsolidierung der Features leichter werden, ihre Spiele nativ für Linux zu veröffentlichen. Bislang ist häufig die Kompatibilitätsschicht Proton notwendig, um für Windows entwickelte Titel auf Linux auszuführen.
Linux fürs Gaming
Weiterlesen nach der Anzeige
Linux wird seit einigen Jahren als Spieleplattform attraktiver und beliebter. Vor allem der Release des Steam Decks mit dem auf Linux basierenden SteamOS hat dem Betriebssystem einen Aufschwung beschert. Insgesamt bleibt der Anteil der Linux-Spieler trotz Aufschwung noch vergleichsweise gering: 3,58 Prozent der Steam-Nutzer spielen auf einem Linux-System, mehr als ein Viertel davon mit SteamOS. Ein Nachteil von Linux als Gaming-Plattform liegt weiterhin darin, dass die Anti-Cheat-Systeme vieler kompetitiver Multiplayer-Spiele Linux-Systeme nicht unterstützen.
Gute Nachrichten für Linux-Gamer kommen dagegen von GOG: Der DRM-freie Spiele-Store sucht aktuell nach einem neuen Entwickler, der den Client GOG Galaxy auf Linux bringen soll. Bislang gibt es den Client des DRM-freien Spielestores nur unter Windows und macOS – um GOG auf Linux zu nutzen, sind noch unabhängige Clients notwendig. Das könnte sich bald ändern.
Künstliche Intelligenz
Matter sei Dank: Ambilight-TVs sprechen wieder mit Hue und auch Lampen von Ikea
Die Lichterweiterung AmbiScape soll Lampen im Raum im Takt mit dem Bildinhalt an Philips Ambilight-TVs leuchten lassen. So finden sich AmbiScape ab diesem Jahr in allen Philips Fernsehern ab der 8001er-Reihe, mithin in allen OLED-Modellen aus 2026 und den neuen RGB-Mini-LED-Fernsehers der Serie 981. Als weitere Voraussetzung nennt Philips das Titan-Betriebssystem, bisherige Google-TVs werden AmbiScape demnach nicht unterstützen.
Weiterlesen nach der Anzeige
Wer Ambilight-Fernseher mit Lampen im Raum verbinden wollte, um die Lichteffekte auf diese auszuweiten, hatte mit TV-Modellen ab 2023 ein Problem: Weil den neueren Ambilight-Fernsehern die eingebaute Hue-Kompatibilität fehlt, kommunizierten sie weder mit der Hue Bridge Pro des ausgegliederten Lichtkonzerns Signify noch mit dessen Hue-Lampen.
Den Hue-Ersatz AmbiScape hatte Philips bereits Ende 2025 eher heimlich bei einigen Fernsehern mit Ambilight eingeführt. Ob auch diese in den Genuss der Lichterweiterung kommen werden, ist noch offen.
It Matters
AmbiScape basiert auf dem offenen Matter-Kommunikationsprotokoll und kann darüber neben einigen Hue-Lampen auch Thread-kompatible Leuchtmittel anderer Hersteller einbinden. Aktuell unterstützt Philips neben den Philips-Leuchten Hue White und Color Ambience auch die Systeme von Ikea (Tradfri LED Bulb und Dirigera Hub), Nanoleaf (Smart Bulb), Wiz (E27 Smart Bulb) und Osram (LED Bulb). Künftig können das außer klassischen Leuchtmitteln auch LED-Streifen sein, zunächst beschränkt sich die Auswahl aber auf E27-Leuchtmittel. Auch wer noch eine Philips Hue-Bridge 2.0 besitzt, kann diese weiter nutzen. Sie hat vor einiger Zeit ein Update für Matter-Support erhalten.

In einem Auswahlmenü legt man die Position der Lampen im Raum und zum Fernseher fest und kann im Ambilight-Menü zusätzlich den gewünschten Effekt einstellen.
(Bild: Ulrike Kuhlmann / heise medien)
Die genannten Ambilight-TVs aus 2026 können mit AmbiScape nun bis zu vier smarte Lampen im Raum gleichzeitig ansteuern, um den Lichteffekt der farbigen LEDs im TV-Gehäuse auf den Raum auszuweiten. Im Unterschied zur vormaligen Hue-Lösung sind derzeit nur einfarbige Anpassungen und keine Farbverläufe wie Sonnenaufgänge möglich, da der Matter-Standard diese noch nicht unterstützt. Die per AmbiScape respektive Matter angebundenen Lampen reagieren mit einer geringen Verzögerung auf Änderungen des Bildinhalts. Philips spricht von 0,5 Sekunden, in der in Berlin gezeigten Umsetzung fiel der Delay nicht störend auf.
Um AmbiScape zu aktivieren, muss man den Fernseher zunächst über einen Matter-QR-Code einmalig mit den kompatiblen smarten Lampen verbinden. Anschließend lässt sich AmbiScape per Direktwahltaste auf der Fernbedienung oder über das Ambilight-Menü in den TV-Einstellungen starten. Man kann bis zu zehn Lampen registrieren und die vier Gewählten jeweils über ein Untermenü in einer Zone zum Fernseher platzieren. Zusätzlich lässt sich die Leuchtstärke der Lampen einstellen.
Weiterlesen nach der Anzeige
Philips bietet zudem drei Ansteuermodi an: die Synchronisation mit Ambilight im Video-Modus, außerdem eine dynamische Lichtsteuerung im Musik-Modus und für sehr ruhige Stimmungen eine feste Farbwiedergabe in einer ausgewählten Farbe.
(uk)
Künstliche Intelligenz
KI-Code: Schneller geschrieben, langsamer getestet
Generative KI hat die Produktivität beim Programmieren deutlich erhöht. Eine Studie von GitHub Research zeigt, dass Entwickler Programmieraufgaben in kontrollierten Experimenten mit KI-Assistenz rund 55 Prozent schneller erledigen als ohne Unterstützung. Doch der Geschwindigkeitsgewinn beim Schreiben von Code mittels KI-Systemen bedeutet nicht automatisch, dass Softwareprojekte insgesamt schneller vorankommen. Eine Untersuchung des Forschungsinstituts METR (Model Evaluation and Threat Research) zeigt, dass erfahrene Entwickler bei Arbeiten in vertrauten Code-Umgebungen mit KI-Werkzeugen im Schnitt 19 Prozent länger benötigen – vor allem wegen zusätzlicher Prüf- und Korrekturschritte. Ein Grund: Sie müssen sich bei Fehlern erst in den von der KI erzeugten Code einarbeiten.
Weiterlesen nach der Anzeige
Da Testen, Debugging und Verifikation schon in der herkömmlichen Softwareentwicklung rund die Hälfte des Zeitaufwands ausmachen, schlagen Verzögerungen bei diesen Arbeiten besonders stark auf die Projektlaufzeit durch. Mit KI-Werkzeugen beim Programmieren verschiebt sich der Engpass: Das Erzeugen von Code wird einfacher und schneller – der Nachweis, dass er korrekt funktioniert und freigegeben werden kann, bleibt aufwendig. Das wiegt umso schwerer, weil die Kosten für Fehler mit jeder späteren Projektphase steigen. Eine vielzitierte Analyse des IBM Systems Sciences Institute beziffert den Unterschied: Während der Implementierung ist die Behebung eines Fehlers sechsmal teurer als in der Designphase. Beim Testen steigt der Faktor auf 15, in der Produktion auf bis zu 100. Gerade in komplexen Unternehmenssystemen wird das zum Problem. Moderne Anwendungen bestehen aus vielen Services, Programmierschnittstellen (APIs) und Datenquellen. Eine Änderung an einer Stelle kann unerwartete Nebenwirkungen an vielen anderen auslösen. Je schneller KI-Werkzeuge neuen Code produzieren, desto häufiger entstehen solche Wechselwirkungen – und damit zusätzliche Fehlerquellen.
Wenn Tests probabilistisch werden
Um diesen Engpass abzumildern, kommen zunehmend KI-Systeme auf den Markt, die neue oder geänderte Programme schneller testen sollen. Das führt jedoch zu einem grundlegenden Wandel in der Testmethodik. Klassisches Softwaretesten folgt einem deterministischen Modell: gleicher Input, gleiches Programm, identischer Output. Genau darauf beruhen Testläufe, bei denen Funktionen mit definierten Parametern aufgerufen werden und exakt die erwarteten Ergebnisse liefern müssen. Doch bei KI-Systemen gilt dieses Prinzip nur noch eingeschränkt. Große Sprachmodelle und andere generative Verfahren arbeiten auf Basis statistischer Wahrscheinlichkeiten und liefern Ergebnisse innerhalb einer Bandbreite möglicher Antworten. Die Qualität eines Systems lässt sich deshalb nicht mehr allein mit Ja-Nein-Tests überprüfen. Entscheidend ist, ob sich das Verhalten innerhalb akzeptabler Grenzen bewegt. Damit verschiebt sich auch der Fokus der Qualitätssicherung (QA). Statt vollständiger Testabdeckung rückt ein risikobasierter Ansatz in den Vordergrund: Kritische Funktionen und Schnittstellen prüfen Teams intensiver, weniger relevante Teile mit geringerer Tiefe. Ziel ist nicht mathematische Vollständigkeit, sondern eine belastbare Einschätzung des Restrisikos.
Zu den Anbietern KI-gestützter Werkzeuge gehören Keysight Eggplant, SmartBear, OpenText und Tricentis. Letzterer hat kürzlich eine „Agentic Quality Engineering Platform“ vorgestellt – eine Plattform, auf der autonom agierende KI-Agenten Qualitätssicherungsaufgaben übernehmen. Sie unterstützt unter anderem die SAP-GUI und Web-Anwendungen. Hierzu nutzt die Plattform generative KI, um Testfälle zu erzeugen, bestehende Tests zu priorisieren und Ergebnisse großer Testläufe zusammenzufassen. Technisch geht es dabei weniger um „KI testet Software“ als um die Unterstützung typischer QA-Arbeitsschritte: Änderungen im Code analysieren, relevante Tests auswählen, Fehlermeldungen gruppieren oder umfangreiche Logdateien verdichten. Der Ansatz zielt auf einen der zeitaufwendigsten Schritte im Testprozess: die Auswertung großer Mengen von Testergebnissen. In Continuous-Integration-Umgebungen laufen oft mehrere tausend Tests pro Commit, deren Resultate Entwickler anschließend interpretieren müssen. KI-Werkzeuge können helfen, Muster schneller zu erkennen und Fehlerursachen besser einzugrenzen. Der Nutzen verschiebt sich damit vom Generieren einzelner Tests hin zur Organisation und Auswertung ganzer Testlandschaften.
Was KI beim Testen nicht löst
Trotz dieser Entwicklungen bleibt der Einsatz KI-basierter Tests begrenzt. Viele Aspekte der Softwarequalität lassen sich nicht aus Testläufen ableiten. Dazu gehören Sicherheitsprobleme, strukturelle Code-Schwächen oder die Vermeidung technischer Schulden – also aufgeschobener Wartungs- und Modernisierungsarbeiten, die langfristig den Entwicklungsaufwand erhöhen. Solche Fragen betreffen die Architektur einer Anwendung und nicht nur ihr Laufzeitverhalten. Statische Codeanalyse (Static Analysis), die den Quellcode ohne Ausführung auf Fehler und Schwachstellen untersucht, Security Audits und klassische Code Reviews bleiben daher notwendig. Generative KI kann hier allenfalls Hinweise liefern, ersetzt aber keine systematische Analyse. Besonders bei sicherheitskritischen Anwendungen ist automatisches KI-Testing kein ausreichender Qualitätsnachweis.
Weiterlesen nach der Anzeige
Diese Grenzen führen zu einem Grundprinzip moderner Entwicklungsprozesse: Der Mensch bleibt Teil der Entscheidungskette. Automatisierte Tests können Hinweise liefern und große Datenmengen auswerten, doch die Freigabe eines Releases bleibt eine Risikoabwägung. In vielen Unternehmen entscheiden deshalb weiterhin Entwickler- oder QA-Teams darüber, ob eine neue Softwareversion in Produktion gehen darf. KI kann diesen Prozess beschleunigen, indem sie Informationen verdichtet und Routineaufgaben übernimmt. Die Verantwortung für die Freigabe bleibt jedoch beim Menschen. Wie riskant eine unzureichende Kontrolle ist, zeigten jüngst durch KI-Tools verursachte Ausfälle bei Amazon, nach denen der Konzern strengere Prüfmechanismen einführte.
Fazit
Generative KI beschleunigt das Schreiben von Code erheblich, erhöht aber zugleich den Aufwand für dessen Verifikation. Mehr generierter Code bedeutet mehr Varianten, mehr Integrationspunkte und damit mehr potenzielle Fehlerrisiken. KI kann beim Erzeugen von Testfällen und bei der Analyse großer Testläufe helfen, löst aber nicht alle Qualitätsprobleme. Fragen der Sicherheit, Architektur und technischer Schulden bleiben Aufgaben von Entwicklern und Review-Prozessen. Entscheidend bleibt: Ob eine Softwareversion in Produktion gehen darf, ist eine menschliche Entscheidung.
Lesen Sie auch
(fo)
Künstliche Intelligenz
Schwer zu finden: Apple spielt Background-Security-Improvement-Update aus
Mini-Update mitten in der Nacht: Apple hat sein erstes sogenanntes Background Security Improvement, kurz BSI, für Nutzer von iOS, macOS und iPadOS ausgespielt. Damit wird eine Sicherheitslücke im Apple-Browser Safari (beziehungsweise dessen Browser-Engine WebKit) geschlossen. Allerdings ist die Installation keineswegs simpel, Apple hat sie sogar gut versteckt – und zwar an einer Stelle, wo viele User erst gar nicht suchen. Selbst wenn zuvor automatische Updates aktiviert wurden, spielte sich das BSI nicht ein, wie Tests in der Mac & i-Redaktion zeigten.
Weiterlesen nach der Anzeige
Was hinter der neuen Update-Art steckt
BSIs sollen laut Apple dazu dienen, „Updates zwischen Updates“ zu ermöglichen, damit Nutzer nicht zu lange auf Aktualisierungen warten müssen, falls zwischen größeren Update-Paketen Lücken auftauchen. Der Vorteil der BSIs ist auch, dass sie meist nur einen kurzen Reboot der Geräte erfordern – manchmal sogar keinen –, der üblicherweise schneller ist als ein normaler Neustart.
Die nun geschlossene Lücke scheint auf den ersten Blick nicht extrem kritisch zu sein: Es geht darum, böswillige Websites davon abzuhalten, die sogenannte Same Origin Policy zu umgehen. Damit könnte auf Daten in anderen Browser-Fenstern oder Browser-Tabs zugegriffen werden. Ob es bereits dazu kam, ist unklar. Apple nennt in seinen Release Notes zumindest keine „bekannten Berichte“, wie das bei schon vorhandenen Exploits der Fall ist.
Wo man die BSIs findet
Das Problem: Apple setzt auf eine andere Verteilinfrastruktur – und BSIs können sogar untergehen. Statt unter „Allgemein“ und „Softwareupdate“, wie normale Updates, findet man BSIs unter „Datenschutz & Sicherheit“. Dort muss man dann ganz nach unten scrollen zu „Im Hintergrund ausgeführte Sicherheitsverbesserungen“ (deutscher Begriff für BSIs). Hier kann man dann „Automatisch installieren“ aktivieren, wobei selbiges wie erwähnt zumindest bei unseren Versuchen nicht erfolgte – es kann dauern, da sich Apple hier einige Tage Zeit lässt.
Ansonsten taucht hier jedes neue BSI auf, das man dann anklicken muss, um es zu installieren – nach Eingabe der PIN. Die Installation selbst erfolgt wie erwähnt recht schnell. Warum Apple BSIs nicht einfach im Bereich „Softwareupdate“ aufführt, bleibt unklar.
Weiterlesen nach der Anzeige
(bsc)
-
Künstliche Intelligenzvor 3 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 1 MonatCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 4 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 2 MonatenAumovio: neue Displaykonzepte und Zentralrechner mit NXP‑Prozessor
-
Künstliche Intelligenzvor 3 MonatenÜber 220 m³ Fläche: Neuer Satellit von AST SpaceMobile ist noch größer
