Connect with us

Apps & Mobile Entwicklung

Lidl verkauft gerade ein beliebtes Gadget, das Euch den Winter rettet!


Ja, es ist Sommer. Tatsächlich erwartet uns in den nächsten Tagen eine Hitzewelle. Dennoch hat Lidl ein Angebot auf Lager, dass sich vor allem im Winter richtig lohnt. Das Gadget gibt es beim Discounter jetzt mit winterlichen 63 Prozent Rabatt. Warum sich der Kauf genau jetzt lohnt, verrät unser Deal-Check.

Lidl scheint sich das Stichwort „antizyklisch“ auf die Fahne geschrieben zu haben. Während der August zeigt, was er drauf hat, reduziert der Supermarkt nämlich ein beliebtes Winter-Gadget deutlich. Die Rede ist hier vom Tado Starter-Kit V3+. Aktuell gibt’s das smarte Heizkörperthermostat samt WLAN-Bridge fast 50 Euro günstiger*  als bei allen anderen Online-Shops.

Der Winter kann kommen: Lohnt sich das Tado Starter-Kit V3+?

Okay, ich sitze hier mit einem Ventilator und mir läuft die eiskalte Brühe über den Nacken, aber das bedeutet natürlich nicht, dass es ewig so heiß sein wird. Vor allem Menschen, die in Altbau-Wohnungen leben kennen die Probleme, die eine schlechte Isolierung mit sich bringt: Im Sommer ist es zu heiß und im Winter zu kalt. Damit sind gehen zudem extrem hohe Heizkosten in der kalten Jahreszeit einher, die einen Großteil der Nebenkosten ausmachen können. Möchtet Ihr diese senken, lohnt sich ein smartes Heizkörperthermostat (Kaufberatung) definitiv.

Tado V3+ Display
Das Display des Tado V3+ lässt sich gut ablesen und verschwindet nach einigen Sekunden der Inaktivität. / © nextpit

Einer der absoluten Vorreiter dieser Gadgets ist Tado. Das Unternehmen bietet mit dem Starter-Kit V3+ zudem alles, was Ihr benötigt. Neben dem Thermostat ist nämlich auch die passende Bridge, sowie ein Adaptersatz, ein EU- und UK-Netzadapter und die nötige Anleitung im Lieferumfang enthalten. Ich habe mir selbst solche Thermostate verbaut und kann Euch daher sagen, dass der Einbau absolut kein Problem ist. Ich bin handwerklich ungefähr auf dem Niveau meines Hundes, kann also nicht einmal ein Regal gerade an die Wand bringen.

Dennoch war es beim Heizkörperthermostat extrem leicht. Ihr benötigt hierfür nur eine Rohrzange und etwas kraft. Dreht das alte Thermostat ab, steckt das Tado-Thermostat auf die Öffnung und zieht es fest – fertig. Anschließend müsst Ihr nur noch einen Steckplatz für die Bridge verbinden und die beiden Geräte miteinander koppeln. In der Tado-App seht Ihr dann einerseits, wie hoch Euer Verbrauch ist und andererseits könnt Ihr hier Zeitpläne und Routinen einrichten. Ihr könnt die Thermostate auch einfach in Euer Smart Home einbinden und so via Sprachbefehl steuern. Möchtet Ihr noch mehr erfahren, lohnt sich ein Blick in unseren Testbericht zum Tado V3+.

Smartes Thermostat im Sommer kaufen? Deshalb ergibt es Sinn!

Möchtet Ihr also Eure Heizkosten effektiv senken und vor allem die volle Kontrolle haben, ist die Anschaffung eines smarten Thermostates durchaus sinnvoll. Der Zeitpunkt ist nur etwas befremdlich. Allerdings nicht komplett abwegig, wenn wir uns den Preisvergleich anschauen. Lidl verlangt gerade 55,05 Euro für das Tado Starter-Kit V3+*. Hier kommen noch einmal 4,95 Euro für den Versand hinzu, was dennoch deutlich unter dem nächstbesten Angebot liegt. Denn für dieses zahlt Ihr gerade mindestens 107,95 Euro.

Tado V3+ an einer Heizung
Die Installation des Tado-Thermostats ist schnell erledigt. / © nextpit

Vor allem von September bis Dezember, also dann, wenn es richtig kalt wird, kosten smarte Thermostate deutlich mehr. Jetzt könnt Ihr also bereits für den nahenden Winter vorsorgen. Den bisherigen Bestpreis von 39,99 Euro erreicht das Set zwar nicht ganz, aber im Vergleich ist dieser Deal durchaus einen Blick wert. Übrigens: Lidl bietet derzeit auch das Tado-Einzelthermostat für 59,99 Euro* (UVP: 89,99 Euro) an. Hier könnte sich ein wenig Geduld jedoch auszahlen.

Was haltet Ihr von dem Angebot? Ist das Tado Starter-Kit V3+ interessant für Euch? Kauft Ihr antizyklisch ein, um Geld zu sparen? Wir sind gespannt auf Eure Kommentare!



Source link

Apps & Mobile Entwicklung

Was er kann – und was noch längst nicht


„Hallo ChatGPT, nutze den Agentenmodus und schreib mir einen Testbericht über den neuen Agentenmodus von ChatGPT“ – so oder so ähnlich könnte das vielleicht bald klingen, wenn ein Tech-Journalist einen Testbericht verfassen muss. Aber klappt das aktuell auch schon? Vermutlich nicht, da ich mich hier selbst mit dem Text abrackere. Aber dennoch soll der Agent aus dem Hause OpenAI schon einige interessante Tricks zu bieten haben. 

Ich hab mich also mal ein wenig mit der Materie auseinandergesetzt und verrate Euch jetzt, was Ihr mit dem Agentenmodus bereits machen könnt – und was noch nicht. Für eine ausführlichere Erklärung zum Agentenmodus innerhalb von ChatGPT klickt einfach auf den Link. Dort habe ich mich nämlich an diesen Agentenmodus herangetastet. 

Hier noch einmal das Allerwichtigste kurz zusammengefasst:

  • Der Agentenmodus steht derzeit nur den Usern zur Verfügung, die mindestens das Plus-Abo für 23 Peitschen monatlich nutzen.
  • Außerdem befindet sich der Agent noch in einem sehr frühen Stadium. Selbst OpenAI weist ausdrücklich darauf hin, dass er noch fehlerhaft ist.
  • Der Agent beantwortet nicht nur Fragen, sondern recherchiert und erstellt selbstständig Inhalte, organisiert Daten oder nimmt Buchungen vor.
  • Tools: Im Agentenmodus kann ChatGPT auf Werkzeuge wie einen Browser, einen Code Interpreter (Python), eine Dateiverwaltung und externe Dienste oder Plugins zugreifen.

ChatGPT Agentenmodus im Test

Experiment 1: Neue Hosen kaufen

Vor welche Aufgaben stelle ich ChatGPT nun? Ich lasse es leicht angehen. Links neben der Eingabezeile tippe ich auf die Tool-Box. Statt „Bild erstellen“ oder „Deep Research“ wähle ich also den Agentenmodus aus und es kann losgehen: Ich brauche neue Hosen. Also geht der Auftrag an meinen neuen Agenten: Informiere Dich über die Trends des Jahres, und bestell mir zwei Hosen in angesagten Farben. Maße: W38 / L32. Und ja, ich bin deutlich voluminöser, aber 1. wollte ich nicht, dass ChatGPT weiß, wie fett ich wirklich bin und 2. wollte ich eine Hosengröße nehmen, die man überall regulär bekommt und nicht nur im Elefanten-Bedarf. 

ChatGPT legt locker los, fragt nach wenigen Sekunden nach: Neben einer Zusammenfassung des Auftrags hakt die KI nach: Wie teuer darf der Spaß sein und hab ich eine bestimmte Marke im Sinn? Obergrenze 120 Euro und nein, ieine bestimmte Markte – und dann rödelt ChatGPT. Zehn Minuten später meldet mein fleißiger Helfer Vollzug: Tatsächlich wurden Modezeitschriften gewälzt, ChatGPT hat u.a. bei der Vogue vorbeigeschaut und informiert mich, dass weite und lockere Cargo-Hosen im Trend liegen. Muss ich blind glauben, weil ich ein echtes Modeopfer bin. 

Dementsprechend kenne ich natürlich auch nur wenige Farben: Schwarz, Weiß, Rot, Gelb, Grün, Blau, fertig aus (okay, etwas übertrieben). Instyle.de nennt als Trendfarben u.a. wohl Creme, Beige, Mocha Mousse und Mondscheingrau sowie Burgunderrot. Junge, Junge! Auch bei anderen landet mein Agent oft auf der Pastellton-Fährte. 

Endergebnis:

Ich bekomme folgende Info, nachdem mir ChatGPT mitgeteilt hat, welche zwei Hosen die KI für mich ausgewählt hat: „Beide Artikel liegen in Ihrem Warenkorb mit einer Zwischensumme von 74,80 Euro. Möchten Sie zur Kasse gehen und den Kauf abschließen?“ Das ist sicher super gemeint, klappt aber nicht. Ich werde aufgefordert, die Transaktion zu erlauben und auch aufs Risiko hingewiesen – ab da passiert aber nichts mehr. 

Als ich später nachhake, erzählt mir die KI, dass der Warenkorb nur solange zugänglich ist, solange ich nicht den Browser bzw. die Sitzung verlasse. Hab ich aber nicht, dennoch klappte es nicht. Schade, aber der Agent hilft dennoch: Er verlinkt mir die Hosen (übrigens von Allessandro Salvarini) und bietet mir sogar an, mir dafür QR-Codes zu erstellen, damit ich die später jederzeit wieder mit dem Handy finde. 

Bedeutet unterm Strich: Gekauft habe ich nichts – quasi tote Hose. Aber trotzdem Respekt, denn der Agent übernimmt eigenhändig die Recherche, findet für mich Produkte, die meinen Vorgaben entsprechen, nennt mir die Preise und Links. Das hat erstens nur zehn Minuten gedauert und vor allem waren das zehn Minuten, in denen ich natürlich etwas ganz anderes erledigen konnte. 

Experiment 2: Ich will Asia-Nudeln!

Ich erzähle ChatGPT davon, dass ich viel zu oft diesen hoch verarbeiteten Instant-Nudel-Quatsch esse. YumYum-Nudeln und solche Geschichten eben. Da ich diese Nudeln eh immer mit frischem Gemüse pimpe, hab ich mir überlegt, dass ich den Spaß ja im Grunde auch komplett selbst kochen könnte. 

Also hab ich meine KI gefragt, welche Zutaten in den „YumYum-Nudeln Ente“ stecken und wo ich die in Dortmund bekomme. Alternativ sollte sich ChatGPT den ganzen Kram im Netz zusammensuchen und mir wieder alles in den Warenkorb feuern.l Auch hier wieder rödelt das Werkzeug los. Ihr könnt dabei zusehen, wie er sich die Arbeitsaufgabe sortiert, verschiedene Seiten nach dem Produkt durchsucht, Cookie-Buttons wegklickt und ähnliches.

Endergebnis:

In Schritt 1 findet ChatGPT heraus, was in der Packung überhaupt alles drinsteckt und was ich alles benötige, um den Spaß nachzukochen. Da ich faul bin und nicht zig Screenshots auf meinem Handy machen wollte von der angebotenen Tabelle, musste ChatGPT wieder ran. Ich hab mir die Übersicht also als Bild generieren lassen. Haut fast komplett hin, hier und da ist aber trotzdem noch ein Tippfehler dazwischen. Das hat aber eher was mit GPT an sich zu tun und weniger mit dem Agentenmodus. Ach, wenn wir gerade davon reden: Ich habe diese Versuche mit GPT-4 gestartet, noch nicht mit dem neuen GPT-5.

Tabelle frischer Zutaten und Ersatzstoffe für asiatische Nudeln mit Kategorien und Vorschlägen.
Bis auf ein paar kleine Tippfehler sieht die Tabelle eigentlich ganz richtig aus, oder? / © nextpit

Danach erzählt mir die KI, wo ich die Brocken in Dortmund bekomme. Das wirkt ein wenig lieblos, denn mir wird nur ein Asia-Supermarkt vorgeschlagen, obwohl es deutlich mehr und auch näher gelegene gibt. Dann gibt es den Hinweis, dass viele herkömmliche Discounter wie Rewe auch jede Menge von dem Zeug führen, das ich benötige. Schließlich werde ich auch auf den Wochenmarkt hingewiesen. 

Danach macht sich der Agent dann selbst an die Bestellung. Das Ganze ähnelt der Hosen-Nummer. Die Sachen landen im Warenkorb, außer die Nudeln selbst. Soll ich mir gefälligst vor Ort kaufen, sagt die unverschämte KI-Unterstützung. Kaufen kann ich wieder nicht. Ich soll wieder den Button drücken, es passiert wieder nichts und dann steh ich da mit leerem Magen. Wenn ich besagten Button übrigens drücke, steht dann als Aussage von mir sowas wie: „Please proceed. Do not ask any addtitional follow-up questions. Okay, dann halt nicht. Die Recherche war wieder top, der Rest eher nicht.

Experiment 3: Der Amiga Lade-Screen

Ja, ich hätte voll gerne, dass mir mein Agent so eine Lade-Animation zusammenstellt, wie es sie frühe am Amiga gab, wenn man Spiele geladen hat. Da liefen pixelige Laufbänder durchs Bild, die uns verrieten, welche Hacker-Crew die beste ist, es gab ein paar Grafik-Späße auf dem Screen und es dudelte typische 8-Bit- bis 16-Bit-Musik. Auch hier hat ChatGPT ein paar Nachfragen und legt dann los. 

Endergebnis:

Eine dunkle Weltraumszene mit bunten Formen und dem Text 'Casi und seine großartige ChatGPT-Agentenbewertung.'
Um Euch nicht mit einem winzigen GIF zu nerven, gibt es hier einen Screenshot. / © nextpit

Es ist nicht preisverdächtig, aber ja: ChatGPT programmiert mir schon ungefähr das, was ich will und liefert die Musik in einem separaten File. Beides funktioniert auf Anhieb, allerdings muss ich mir das Audio-File und die Animation in einem Video-Editor meiner Wahl selbst zusammenfummeln – sagt zumindest mein KI-Kumpel. Ihr seht oben einen Screenshot – und müsst Ihr einfach vertrauen, dass mein Text wirklich durchs Bild scrollt und sich auch meine gewünschten UFOs wie gewünscht bewegen. 

Also ja, der allerletzte Step – Animation und Gedudel in einem Video – bleibt mir verwehrt. Aber okay, das könnte ich mir jetzt tatsächlich auf dem Handy im Video-Editor zusammenpuzzeln.

Experiment 4: Das Weltraum-Spiel

Übermütig geworden von dem ersten Coding-Erfolg, will ich ChatGPT im Agentenmodus jetzt ein Weltraum-Game programmieren lassen. Meine Vorgabe: Bitte programmiere ein kleines Game. Irgendwas, bei dem ich Raumschiffe abschießen kann. Das war der komplette Prompt, mehr hab ich nicht getan. Es gab unmittelbar eine Nachfrage: Web-based als Javascript-Game, oder lieber für den Desktop (Python). Ich hab mich für die Browser-Version entschieden.

Außerdem fragte mich der Agent, ob ich mit einer simplen Schuss-Mechanik zufrieden wäre, oder andere Ideen hätte. Wenn man mich so fragt, will ich natürlich Spezialwaffen, ist klar.

Endergebnis:

Drei Minuten dauerte es, bis mir ChatGPT mit meiner spartanischen Anweisung tatsächlich ein Game gebaut hat. Ja, natürlich ein simples, aber es läuft! Anfangs konnte ich es vom Handy aus nicht starten, also hat mir ChatGPT einfach die HTML-Zeilen aufgelistet, die ich selbst als .html-Datei abspeichern konnte. 

Ein Spielbildschirm zeigt einen Punktestand von 4400 mit roten Hindernissen und einem blauen dreieckigen Spieler am Boden.
Ja, gut, es ist grafisch nicht opulent. Aber ChatGPT hat das in 180 Sekunden selbst erstellt – Hut ab! / © nextpit

Ist das Spiel aufregend? Ja, für circa zwei Minuten. Kann ich Raumschiffe abknallen und hab Spezialwaffen? Aber hallo!“ Der Agent hat mir auch eine Übersicht über die Tastenbelegung mitgeliefert, danke dafür. Wie das Spiel funktioniert? So wie bestellt quasi: Ich kann mich unten seitlich bewegen und ballere nach oben, von wo aus mich die verdammten Aliens attackieren. Atmet ein wenig Atari-Vibes aus 1982, aber genau so wollte ich es ja auch. 

Experiment 5: Mein eigener Song

Ich schimpfe gern über KI-Musik, experimentiere aber auch gern damit. Das hab ich jetzt einfach mal die KI übernehmen lassen. Meine Ansage war: Komponiere mir einen Song und schreibe dafür einen Song über einen coolen Typen, der als Tech-Journalist arbeitet. Außerdem wollte ich dazu das passende Cover-Artwork. 

Endergebnis:

Das mit dem Text hat direkt hingehauen: Auszug gefällig? 

Every gadget tells a story, every update makes him smile. He turns the world of bits and bytes into poetry and style.

Zauberhaft – und auch das Cover-Design zum Lied „Ink & Silicon Hearts“ kann sich sehen lassen.

Eine Silhouette einer Person, die an einem Laptop arbeitet, umgeben von digitalen Symbolen und Wellen, die Technologie darstellt.
Das Cover zu dem Song wird meinen künstlichen Ansprüchen durchaus gerecht. / © KI-generiert

Fehlt nur noch das Lied selbst, was? Und das sollte echt eine ziemliche Reise werden. Zunächst funktionierte der Download wiederholt nicht. Danach entschied ChatGPT, den Song dann noch einmal hochzuladen. Als es immer noch nicht ging, begann das Troubleshooting der KI. Fragte zum Beispiel bei mir nach dem Gerät, mit dem ich gerade arbeite und ob ich die ChatGPT-App verwende oder die KI im Browser nutze. 

ChatGPT hatte danach eine Idee: WAV-Files sind möglicherweise zu groß fürs Handy, also erstelle ich ein MP3. Das klappte dann tatsächlich, aber auch erst im zweiten Versuch, weil mittlerweile der Song nicht mehr aufzutreiben war. Die ambitionierte und rastlose KI zimmerte also einfach einen neuen Song zusammen. Den lud ich herunter und spielte ihn ab und ich hörte: Einen durchgehenden Ton, zehn Sekunden lang.

Neuer Plan, jetzt will mir ChatGPT aber wirklich einen richtigen Hit basteln. Fragt mich nochmal nach meinen Wünschen. Ich präzisiere meine Idee: Soll elektronisch und nach 80s klingen, so ein bisschen wie die frühen Depeche Mode und diesmal bitte mit Gesang. Schnell soll der Song sein und „uplifting“. 

Heraus kam ein wenige Sekunden langes Gedudel, welches eher an meine Amiga-Demo von vorhin erinnerte als an echte Musik. ChatGPT nimmt noch einen Anlauf, bestätigt mir wieder meine Wünsche, merkt aber dieses Mal an, dass das was länger d auert. Ich sollte mich so ein, bis zwei Stunden gedulden.

… seitdem warte ich. Okay, ich hab zwischenzeitlich gefragt, weil die Zeit längst um war. Antwort: „Mensch, Zufall – bin gerade fertig“. Der Download-Link funktionierte aber nicht: „File expired“. Und seitdem warte ich wieder … ich halte Euch auf dem Laufenden! Experiment Song-Komposition also bis auf weiteres gescheitert.

Experiment 6: Meine Journalisten-Präsentation

Nach dieser Schlappe wollte ich es noch ein letztes Mal probieren. Schreib mir eine Präsentation, damit meine Chefs sehen, was ich schon – auch außerhalb von nextpit – für super Artikel geschrieben habe. Ich wollte von ChatGPT zudem, dass meine Stärken und mein schreiberischer Stil erwähnt werden. Das alles wollte ich in einer Präsentation mit maximal zehn Slides haben.

Endresultat

Also erst mal: Hut ab, ChatGPT. Immerhin resümiert die KI in der erstellten Präsentation, dass ich es schaffe, Technologie mit gesellschaftlichem Kontext zu verknüpfen. Außerdem wird im Fazit hervorgehoben, dass ich komplexe Themen erkläre und sie mit persönlicher Note kritisch einordne. Klingt doch gut. Erwähnt werden auch meine langjährige Erfahrung, mein Storytelling und selbst mein Humor wird angesprochen. 

Der genaue Blick ist dennoch auch hier ein ernüchternder. Im Prozess sehe ich noch ein echt cooles Cover-Bild als Aufmacher. In der fertigen Präsentation bleibt neben meinem Namen lediglich ein nicht aussagekräftiger Schnipsel eines Artikelbilds, das ich mal genutzt habe. Die Zusammenstellung verschiedener Artikel ist auch wenig zielführend. Ich wollte zwar einen Überblick über mein Schaffen, aber im Grunde hat sich der Agent nur eine Handvoll sehr aktueller Beiträge angeschaut. 

Ausgewählt wurden vier nextpit-Beiträge und ein Blog-Artikel aus meinem privaten Blog. Diese Texte wurden mit ein paar Stichpunkten zusammengefasst. Aber so eine Inhaltsangabe war ja nicht Ziel der Präsentation. Zwei weitere Bilder können nicht angezeigt werden. Davon ab sieht die Inhaltsangabe mit Artikelbild eigentlich schon nett aufbereitet aus:

Eine Person steht vor einer leuchtenden Kugel in einem High-Tech-Raum mit Datenanzeigen. Text diskutiert Superintelligenz.
Schlicht, übersichtlich – und nicht ganz, was ich wollte: Meine vom Agenten erstellte Präsentation. / © nextpit

Ich erhalte also nicht ganz, was ich wollte. Allerdings ist eine Präsentation erstellt worden, die ich auch per PowerPoint und anderen Tools aufrufen kann, das 10-Slides-Limit wurde berücksichtigt und es gibt auch einen Resümee-Teil, der mein Schaffen einordnet. Daher behaupte ich mal, dass dieser Test gelungen ist und noch besser funktioniert hätte, wenn ich mir beim Prompten mehr Mühe gegeben hätte. 

Mein Fazit

OpenAI tut gut daran, darauf zu verweisen, dass der Agent a) noch in den Kinderschuhen steckt und b) nochmal andere Risiken bedacht werden müssen als beim üblichen Gebrauch von ChatGPT. Immerhin agiert der Agent weitgehend autonom im Browser und kann zumindest in der Theorie Käufe abschließen. Praktisch konnte ich das bei meinen Beispielen nicht, weil der letzte Schritt – das Bezahlen – nicht ausgeführt werden konnte. 

Wenn es um Recherche geht, hat mir der Agent eigentlich gute Dienste geleistet, egal ob ich einen Städtetrip planen will, eine Hose oder Lebensmittel für ein Rezept kaufen möchte. Hier ist die Zeitersparnis bereits heute überzeugend. Der Agent programmiert, wenn nötig, trägt alles wie gewünscht zusammen und mir ist noch eine Sache positiv aufgefallen: Das Troubleshooting! Funktioniert etwas nicht, sucht der Agent eigenständig nach Lösungen. Dabei findet er immer wieder tatsächlich Ansätze, etwas ans Laufen zu bringen, was zuvor nicht geklappt hat.

Wer also den Agentenmodus heute ausprobiert, kann mit etwas Glück schon ein simples Spiel oder einen wirklich miesen Song erhalten. Auch als Recherchewerkzeug ist der Agent brauchbar. Aber für jeden anderen Zweck solltet Ihr immer berücksichtigen, dass der Modus längst noch nicht da ist, wo er eigentlich hin soll. Er ist also ganz sicher (noch) kein Werkzeug, für das sich das kostspielige Abo lohnt. Was er allerdings durchaus ist: Eine Wette auf die Zukunft und ein Fingerzeig, was uns OpenAI in absehbarer Zeit ermöglichen kann.



Source link

Weiterlesen

Apps & Mobile Entwicklung

GeForce 580.97: Neuer Nvidia-Treiber behebt keine Gaming-Bugs


GeForce 580.97: Neuer Nvidia-Treiber behebt keine Gaming-Bugs

Schon wieder gibt es einen neuen GeForce-Treiber für Grafikkarten von Nvidia. Der GeForce 580.97 bringt Optimierungen und DLSS 4 MFG für Senua’s Saga: Hellblade II Enhanced sowie Grand Theft Auto V Enhanced mit sich. Zudem gibt es Fehlerbereinigungen, aber nur abseits von Spielen.

Die Release-Notes (PDF) zum GeForce-Treiber 580.97 fallen mit wenigen Änderungen sehr übersichtlich aus, angesichts dessen, dass erst vor 11 Tagen das Update auf Version 580.88 erschien, ist dies nicht allzu sehr verwunderlich.

DLSS 4 MFG für zwei Enhanced-Updates

Statt kommende Blockbuster-Titel bedient Nvidia mit dem Update zwei bereits länger (oder auch viel länger) erhältliche Spiele. Zum einen gibt es Optimierungen für das heute veröffentlichte Enhanced Update für das Psycho-Horror-Adventure Senua’s Saga: Hellblade II. Mit dem Patch, dem neuen Treiber und einer geeigneten Grafikkarte (RTX 50) lässt sich nun DLSS 4 mit Multi Frame Generation im Spiel nutzen. Auch Nvidia Reflex wird nun unterstützt.

Der zweite Titel ist einerseits noch viel älter, hat allerdings in diesem Jahr ein umfangreiches Update erhalten. Gemeint ist das Action-Spiel GTA V Enhanced. Auch hier hält DLSS 4 mit Multi Frame Generation auf den aktuellen GeForce-Grafikkarten Einzug. Mehr Details verrät Nvidia im eigenen Blog.

Behobene und offene Fehler

Mit dem GeForce 580.97 wird kein Gaming-Bug beseitigt, sodass die von Nvidia anerkannten Gaming-Fehler in der Liste der offenen Bugs verbleiben. Dazu zählen mögliche Abstürze im Fotomodus von Cyberpunk 2077 mit aktiviertem Path Tracing und Fehler bei der Textdarstellung in Counter-Strike 2, wenn die gewählte Auflösung unterhalb der nativen Auflösung liegt. Neu hinzu gekommen ist ein Fehler beim Einsatz von Adobe Premiere Pro.

Behoben wurden laut Nvidia wiederum zwei „allgemeine“ Fehler: Bildflimmern im Desktop-Idle soll auf dem 57″-Monitor Samsung Odyssey Neo G9 nicht mehr auftreten. Zudem soll ein Problem mit zu dunklen Notebook-Displays bei gleichzeitigem Anschluss eines externen HDR-Monitors behoben worden sein.

Liste behobener Fehler

  • Samsung 57″ Odyssey Neo G9 Flicker/Underflow when idle at desktop [5361116]
  • Some notebook displays may appear dim when an external HDR monitor is connected
    and display mode is set to „NVIDIA GPU only“ [5429667]

Liste bekannter, noch nicht behobener Fehler

  • Cyberpunk 2077 will crash when using Photo Mode to take a screenshot with path
    tracing enabled [5076545]
  • Counter-Strike 2: Text may appear slightly distorted when in-game resolution is lower
    than the native resolution of the display [5278913]
  • Adobe Premiere Pro: Some system configurations can freeze during export using
    hardware encoding [5431822]

Downloads

  • Nvidia GeForce-Treiber

    4,2 Sterne

    Die GeForce-Treiber unterstützen sämtliche aktuellen Nvidia-Grafikkarten.

    • Version 580.97 Deutsch
    • Version 572.83 Deutsch
    • +3 weitere



Source link

Weiterlesen

Apps & Mobile Entwicklung

Fernseher: Samsung stellt ersten TV mit Micro-RGB-Backlight vor


Fernseher: Samsung stellt ersten TV mit Micro-RGB-Backlight vor

Die von Samsung zur CES vorgestellte Micro-RGB-Backlight-Technologie wurde von Samsung nun offiziell in einem ersten Fernseher vorgestellt. Den Einstand gibt ein 115 Zoll großer TV mit der neuen Hintergrundbeleuchtung. Die Technologie setzt laut Samsung neue Maßstäbe bei Präzision, Farbtreue und Kontrast im Premium-LCD-Segment.

Micro-RGB-Backlight statt Micro-LED-Panel

Anders als bei „vollwertigen“ Micro-LED-Fernsehern wird bei Samsungs neuem TV-Modell nur die Hintergrundbeleuchtung über die kleinen mehrfarbigen Leuchtdioden gesteuert, was aber immerhin für ein feiner abgestuften Full Array Local Dimming (FALD) sorgt, das wiederum Effekte wie Blooming reduzieren und die Farbdarstellung verbessern kann. Über dem Micro-RGB-Backlight sitzt ein klassisches LCD-Panel.

Bildverbesserung mittels künstlicher Intelligenz

Das aktuelle Buzzword „KI“ darf bei einer Neuerscheinung im Premiumsegment nicht fehlen. So wird der neue Fernseher von Samsung von einer Micro-RGB-KI-Engine betrieben, die dem Hersteller zufolge Bild und Ton in Echtzeit analysiert und Farben optimal anpasst, um eine lebendigere und realistischere Darstellungen zu erzeugen. Der „Micro RGB Color Booster Pro“ identifiziert Szenen mit farblichen Unzulänglichkeiten und optimiert die Farbdarstellung über alle Inhalte hinweg. Die Technologie garantiert laut Samsung eine 100-prozentige Abdeckung des BT.2020-Farbraums und hat dafür entsprechende Zertifizierungen erhalten, darunter das VDE-Zertifikat für „Micro RGB Precision Color“.

RGB Micro LED
RGB Micro LED (Bild: Samsung)

Zusätzlich verfügt der Bildschirm über die Glare-Free-Technologie, die Reflexionen selbst bei hellem Licht reduzieren soll. Smarte Funktionen werden durch Samsung Vision AI unterstützt, inklusive der bereits erwähnten KI-Bild- und -Tonoptimierung sowie „Bixby“ mit generativer KI für eine persönlichere Nutzererfahrung. Datensicherheit soll auf dem Fernseher durch Samsung Knox gewährleistet werden, eine Sicherheitsplattform, die von den Galaxy-Smartphones des Unternehmens bekannt ist und private Nutzerdaten schützen soll.

Update-Versprechen wie bei Smartphones

Wie bei aktuellen Galaxy-Smartphones bietet Samsung für den Fernseher ein siebenjähriges kostenloses Tizen-OS-Upgrade-Programm für eine langfristige Software-Unterstützung an.

Markteinführung zuerst in Südkorea

Nach der Markteinführung des Micro-RGB-Backlight-Fernsehers zuerst in Südkorea sollen die USA folgen. Danach sei Samsung zufolge eine weltweite Einführung geplant – dann auch in unterschiedlichen Bildschirmgrößen abseits der 115 Zoll. Einen Preis hat Samsung noch nicht genannt. Auf der CES wurde ein vermutlich modifizierter Samsung QN990C mit RGB-Micro-LED gezeigt. Der 8K-TV mit 98 Zoll kostet rund 40.000 Euro, das vorgestellte 115-Zoll-Modell wird daher wohl in ähnlichen respektive höheren Preisregionen angesiedelt sein.



Source link

Weiterlesen

Beliebt