Connect with us

Künstliche Intelligenz

Jetzt können wirklich alle programmieren


Wer sich vor einem halben Jahr eine Meinung über KI-Coding gebildet hat, sollte noch einmal aktuelle Tools ausprobieren: Claude Code, OpenAI Codex und Co haben immens an Kompetenz gewonnen und kommen inzwischen auch mit komplexen Projekten klar. In einer 2,5-stündigen Vibecoding-Session erklärt der Entwickler Benjamin Thorstensen, was man bei der Arbeit mit Claude Code und OpenAI Codex beachten muss.

Weiterlesen nach der Anzeige

(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)

Eine kurze Ansage, bevor das Video losgeht. Das Thema KI – und vor allem code-schreibende KI – löst bei vielen von euch und auch bei mir starke Gefühle aus, oft negative. Es ist immer noch nicht klar, was KI mit dem IT-Arbeitsmarkt macht, gerade für jüngere Menschen, und was KI mit Open Source macht, was KI-Slop mit dem Internet macht. Sicher ist auf jeden Fall, dass viele Open-Source-Projekte in KI-generierten Pull Requests ertrinken – und dass GitHub, die größte Code-Plattform der Welt, das jetzt auch eingestanden hat und nachbessern will. Mit KI. Im folgenden Video lassen wir jetzt aber diese riesigen, also wirklich riesigen Meta-Probleme außen vor und konzentrieren uns auf das Thema selbst, nämlich Vibe-Coding oder, vornehmer, agentische Softwareentwicklung. Ich verspreche euch aber, dass in Zukunft hier auf diesem Channel auch KI-kritische Videos zu den großen Themen kommen werden. Und jetzt: let’s go.

Guckt mal hier: Das habe ich heute vibecodet – einen Rezept-Extraktor, auf den ich jegliches Kochrezept, was mir so über den Browser läuft, draufwerfen kann: von YouTube, Instagram, TikTok, sonst wo im Web. Und dann wird das Rezept da rausgezogen und in meine Notion-Datenbank reingeschrieben, genau mit den von mir vorgegebenen Attributen. Ja, und guckt euch mal bitte das Design von der Web-App hier an. Also für mich sieht das ziemlich professionell aus. Und ganz wichtig: Ich kann überhaupt nicht programmieren. Also ich kann mit diesen Tools Dinge tun, für die ich vorher monatelang hätte lernen müssen.

Also das ist wirklich so, als hätte ich so ein kleines Coding-Alien auf der Schulter sitzen, oder ich würde in so einem Riesen-Coding-Mech durch die Gegend fliegen oder so. Das ist wirklich ein gutes Gefühl. Ich habe mich wirklich mächtiger gefühlt damit. Wirklich mächtiger ist, glaube ich, das richtige Wort.

In diesem Video zeige ich euch den ganzen Prozess, also wie ich das gemacht habe mit dieser Rezepte-App. Und obwohl das wirklich jede und jeder von euch hinbekommen würde, fand ich wichtig, mir jemanden dazu zu holen, der das Ganze professionell beurteilen und erklären kann. Ich will euch ja keinen Quatsch erzählen, ne? Und ich hatte ja gesagt: Ich bin kein Entwickler.

Ja, und der Entwickler, das ist auf jeden Fall Benjamin Thorstensen, der seit 14 Jahren als Softwareentwickler und seit einiger Zeit auch sehr intensiv mit KI-Tools arbeitet. Ihr erfahrt im Video also auch noch ein paar Experten-Tricks.

Weiterlesen nach der Anzeige

Coden lassen haben wir einmal Claude Code mit Opus 4.6. Da braucht man ein kostenpflichtiges Abo oder zahlt halt jeden Token einzeln per API. Und parallel auch Codex von OpenAI, das man noch bis Anfang März mit einem kostenlosen ChatGPT-Account nutzen kann. Die fertige Kochrezept-Software läuft in einer der beiden Versionen übrigens ausschließlich mit lokaler KI.

Ja, und diese Vibe-Coding-Session, die hat dann doch ziemlich lange gedauert. Ich weiß aber, dass viele von euch wirklich sowas gerne im Detail sehen wollen. Deshalb habe ich das auch nur leicht geschnitten. Und alle anderen, die das eben nicht in dieser Ausführlichkeit sehen wollen, die können einfach zum Ende skippen. Wir haben da so einen Kapitelmarker gemacht, der heißt „Zusammenfassung“. Und da seht ihr dann nur die wichtigsten Erkenntnisse und das Fazit. Bleibt dran.

*Ab hier jetzt eine mehrstündige, ungeskriptete Coding-Session, deshalb kein Transkript*

So, jetzt die Zusammenfassung: Ja, Vibe Coding funktioniert und es ist so einfach, dass es wirklich alle benutzen können. Man gibt einfach ein, was man will, und dann wird das Programm erzeugt. Und das ist wirklich so einfach. Es klingt jetzt immer so, so ist es einfach, aber es ist wirklich so einfach. Man sagt einfach: Machen wir ein Programm, was Schafe zählt und mad, und dann macht es das. Und wenn man was nicht verstanden hat, dann tippt man das auch ein und fragt das und dann beantwortet es das. Und wenn man irgendwas anders haben will, wenn man irgendwas verändert haben will, dann kann man es auch einfach eintippen und das funktioniert.

Man braucht auch keine Entwicklungsumgebung dafür wie früher, sondern man braucht nur das Coding Tool wie zum Beispiel CodeCode. Man kann natürlich in einer Entwicklungsumgebung wie VS Code oder Cursor vibe-coden, aber das muss man nicht.

Wenn ihr jetzt sagt: Ja, aber ChatGPT, die ja doch schon vor Jahren in der ganz normalen Webansicht Code erzeugt. Ja, aber das funktioniert a) laut meiner Erfahrung nicht wirklich immer so zuverlässig und b) können die Coding Tools viel mehr selbst machen, zum Beispiel auch direkt Tools auf dem Rechner aufrufen. Und die können auch zum Beispiel, wenn ihr Kontextspeicher voll ist, einfach eine Zusammenfassung von sich selbst abspeichern, also was noch zu tun ist in der Programmierarbeit. Und dann können die auch nach gelöschtem Kontext einfach weitermachen. Also sind auch größere Projekte möglich.

Und hier mal kurz, was man zum Vibe Coding braucht oder was wir empfehlen. Also der Klassiker ist ja Claude Code von Anthropic, das man am besten mit dem Modell Opus 4.6 verwendet. Kostet Geld. Zum Beispiel braucht man das Pro-Abo. Das kostet monatlich kündbar 21,42. Ich hatte mir für dieses Video für einen Monat ein Max-Abo gekauft. Das kostet sage und schreibe 107,10 Euro im Monat. Kann man aber ja monatlich kündigen.

Ansonsten hat auch Codex von OpenAI viele Fans. Das kann man bis Anfang März 2026 sogar mit einem Nicht-Abo verwenden, also mit dem kostenlosen Account. Und dann gibt es auch noch Google Gemini. Das ist in Sachen Coding so ein bisschen der Underdog. Das kommt aber so langsam. Also will man Gemini zum Web-Coding benutzen, braucht man auch so ein Pro-Abo für 22 Euro. Also, und alle drei kann man natürlich auch ohne Abo per Token über API-Zugang bezahlen. Das geht dann aber sehr, sehr schnell richtig ins Geld.

Ja, und ganz wichtig: Man kann auch ein lokales Modell kostenlos auf eigene Hardware verwenden, zum Beispiel Qwen 3 Coder aus China. Dafür braucht man aber natürlich passende Hardware und zum Beispiel das Coding Tool Open Code. Aber auch in CodeCode kann man lokale LLMs einbinden. Die beste Qualität liefern aber zurzeit die Sprachmodelle Anthropic Opus 4.6 und OpenAI Codex.

Laut Benjamin hier aus dem Video unterscheiden die sich dadurch, dass Codex quasi der Entwickler ist, der, bevor er zu programmieren beginnt, erst mal eine Stunde damit verbringt, das Problem zu verstehen und dann mit einer sauberen Lösung kommt, hat aber einen Charakter wie trockenes Brot und ist nicht besonders kreativ, sondern macht vor allem das, was man ihm vorgibt. Opus ist so mehr der Senior Dev, der sofort loslegt, der sich ein neues Framework überlegt und manchmal ein bisschen an der Lösung vorbeischießt, aber oft auch mit einer Lösung kommt, an die man selber gar nicht gedacht hat. Bei Opus sagt Benjamin, hat er mehr dieses Lotterie-Gefühl, wo er dann vorher nicht weiß, ob er jetzt da den Jackpot knackt oder eben nicht.

Außerdem hat Opus im Gegensatz zu Codex nicht in der Design-Schule geschlafen, vor allem mit dem Add-on, dazu aber später noch mal mehr. Benjamin sagt, dass beide, also sowohl Claude Code als auch Codex, beide ihre Daseinsberechtigung haben. Er benutzt auch beide je nach Aufgabe. Bei Google Gemini, was er jetzt gerade erst in der Version Gemini 3.1 Pro ausgerollt wird, da sagt Benjamin, dass das überall so ein bisschen geschlafen hat in der Coding-Schule, nur nicht beim Design. Also was daraus kommt, sagt er, das ist echt ziemlich gut.

So, jetzt aber noch mal kurz zu den Coding Tools selbst oder den Harnesses, wie man in der KI-Szene sagt, also den Gurtgeschirren, also wie bei Pferden. Also das sind alle Tools und Fähigkeiten, die dem Modell extern zur Verfügung gestellt werden. Also was weiß ich, im Internet suchen oder Files öffnen. Die Harnesses sind sich alle recht ähnlich, funktionieren aber natürlich am besten mit den hauseigenen Modellen. Also Claude Code mit Opus, Codex mit Codex und so weiter.

Es gibt die alle in mindestens einer grafischen Version und in einer Kommandozeilen-Version. Die meisten laufen auf allen drei großen Betriebssystemen, einzelne mal nicht unter Windows oder mal nicht unter Linux. Hier mal kurz die Namen, damit ihr wisst, was ihr runterladen müsst. Die Kommandozeilentools heißen bei Anthropic Claude Code, bei OpenAI codex-cli, bei Google gemini-cli. Die grafischen Varianten sind bei Anthropic einfach die Claude-App, bei OpenAI heißt sie Codex, bei Google ist das zum Beispiel Antigravity.

Ja, und ich muss sagen, ich mag die Kommandozeilen-Varianten irgendwie lieber. Das ist irgendwie nice mit dieser ASCII-Art, Retro-Ästhetik. Außerdem klingt kurios, aber ich finde die sogar einfacher zu bedienen als die GUI-Tools, weil man da ja wirklich nichts anderes machen kann, als einfach einzutippen, was man will, in Menschensprache. Also man kann auch sagen, wenn das Ding fertig ist: Starte das Programm oder lösch das oder was weiß ich. Es macht einfach, was man will und das ist praktisch.

Beachten sollte man auf jeden Fall, dass man Claude Code am Anfang immer in den Planungsmodus schaltet. Das geht mit Shift+Tab. Da plant er dann erst mal das Vorgehen, bevor es dann richtig losgeht. Bei Codex muss man das nicht unbedingt machen, der entscheidet automatisch zwischen Planen und drauflos coden. Ganz gut.

Ja, okay. Und wie waren jetzt die Ergebnisse? Ja, funktioniert haben beide, also Claude Code und Codex. Die haben beide was Funktionierendes rausgegeben. Die haben beide auch die Audiospur zum Beispiel aus Videos in Text transkribiert. Die haben auch absolut problemlos die Daten in Notion reingepumpt. Also die haben problemlos mit der API zusammengearbeitet.

Die Qualität der Rezepte, die da dann am Ende in Notion standen, die, das habe ich mir auch schon gedacht: Qualität steht und fällt halt mit dem LLM, was da intern benutzt wird für die Rezepteanalyse, weil das muss halt erkennen, was ist hier jetzt Rezept, was ist Quatsch, was muss ich umrechnen und so weiter.

Ich fand interessant, dass das super kleine Open-Weights-LLM, das auf meinem MacBook lief, schon so einigermaßen brauchbare Ergebnisse ausgegeben hat. Das OpenAI-LLM in der Cloud war etwas besser von den Ergebnissen her, aber auch nicht viel. Sowohl Claude als auch Codex, die haben beide eine Web-App gebaut, die ich auf meinem Rechner lokal ausgeführt habe. Vom Aussehen der Web-App war Claude aber deutlich besser und das hat echt vor allem mit diesem offiziellen Plug-in, das heißt Frontend Design, zu tun. Sobald das läuft, sieht das alles wirklich richtig gut aus, was das so ausgibt, also frontendmäßig.

Ich habe hier auch noch einen wilden Einschub, denn am Ende hat die beste Rezeptqualität geliefert, was wirklich nur wenige Minuten gedauert hat, nämlich das war OpenClaw, einfach über Telegram mit diesem Prompt hier. Falls ihr von OpenClaw noch nie gehört habt, dazu gibt es ein Video, ein richtiger Hype gerade. Das zeigt mir eigentlich, dass man in Zukunft vielleicht gar keine UI braucht, sondern dass man einfach mit seinem privaten Bot schreibt oder spricht und der macht dann einfach die Sachen, die man haben will.

Aber ich meine, dass OpenClaw hier die beste Rezeptqualität produziert hat, das liegt auch natürlich vor allem daran, dass OpenClaw auch für die Rezepteaufbereitung Opus 4.6 verwendet hat, also einem der besten Sprachmodelle, die es zurzeit gibt. Die anderen beiden vibe-gecodeten Projekte, die haben das Rezept ja intern mit viel kleineren Sprachmodellen verarbeitet. Das macht halt einen riesen Unterschied aus.

Ja, krass. Ich muss immer wieder an einen Kommentar neulich im Heise-Forum denken, wo jemand über KI-generierten Code schrieb: Ja, man kann Dinge auf Hello-World-Niveau oder zusammengeklaute Funktionen aus den Sources der Welt generieren lassen, selbst das jedoch fehlerhaft und nur mit viel Kontrolle, Nacharbeit benutzbar. Und ich muss sagen, das stimmt nicht. Man kann den erzeugten Code sicher kritisieren, aber ihr seht es ja im Video: Er funktioniert. Und für mich als Nicht-Coder ist das ein unglaubliches Hilfsmittel.

Früher, wenn ich eine Idee für eine App oder so hatte, musste ich halt überlegen: Ist die Idee so toll, dass ich jetzt irgendwie überlege, wo ich ein Team her bekomme, will ich das irgendwie finanzieren oder so? Und hier mache ich einfach an einem Abend Prototypen fertig. Und ja, das verändert natürlich die Technikwelt. Das muss man, glaube ich, nicht mehr diskutieren.

Problematisch wird es natürlich jetzt, wenn ich jetzt denke, dass ich meinen App-Prototypen einfach veröffentliche, ohne dass ich überhaupt verstehe, was da intern passiert. Das ist natürlich gefährlich. Deshalb haben wir auch neulich in unserem Podcast c’t 4004 darüber fabuliert, dass man eigentlich einen Vibe-Coding-Führerschein einführen müsste, damit man zumindest ansatzweise versteht, was für einen Schaden so die eigene vibe-gecodete Software im schlimmsten Fall anrichten kann.

Aber wie gesagt, hier reden wir jetzt über Software, die man veröffentlichen oder sogar verkaufen will. Für so private Tools und lokale Experimente, wie in diesem Video, wie dieses Rezept-Tool, das können auf jeden Fall auch nicht technische Leute vibe-coding-mäßig ausprobieren. Ich finde, das demokratisiert wirklich die Softwareentwicklung. Vor allem, wenn das irgendwann alles genauso gut mit lokalen LLMs geht, dann verlassen die Daten nicht mal mehr den eigenen Rechner. Vielleicht geht das ja irgendwann auch auf ’n Smartphone lokal. Wer weiß. Ja, wird auf jeden Fall alles interessant.

Wie seht ihr das? Gerne alles in die Kommentare schreiben. Ich lese die zumindest in den ersten Tagen nach Veröffentlichung alle.

c’t 3003 ist der YouTube-Channel von c’t. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.


(jkj)



Source link

Künstliche Intelligenz

Durch Werbung: AfD-Abgeordnete machten mit Bundestagsreden bei YouTube Kasse


Bundestagsvizepräsidentin Andrea Lindholz (CSU) kritisiert die offenbar wieder eingestellte Praxis von AfD-Bundestagsabgeordneten, mit der Veröffentlichung von Bundestagsreden bei YouTube Werbeeinnahmen zu generieren. „Als Vorsitzende der Rechtsstellungskommission und Abgeordnete halte ich es für problematisch und unzulässig, wenn Abgeordnete mit der Veröffentlichung von Plenarreden auf Social-Media-Kanälen Einnahmen aus Werbung erzielen“, sagte sie der Welt und dem Redaktionsnetzwerk Deutschland (RND). Mit der Abgeordnetenentschädigung seien alle mandatsbezogenen Tätigkeiten abdeckt. Dies habe der Gesetzgeber auch so geregelt.

Weiterlesen nach der Anzeige

Lindholz fügte hinzu: „Aus meiner Sicht ist es vollkommen klar, dass für Plenarreden keine zusätzlichen Einkünfte erzielt werden dürfen. Dieser Auffassung, die die Fraktionen teilen, hat sich auch die AfD angeschlossen und wird in Zukunft keine Monetarisierung von Social-Media-Beiträgen mit parlamentarischem Bezug vornehmen.“

Der Parlamentarische Geschäftsführer der AfD-Bundestagsfraktion, Stephan Brandner, hatte nach einer Sitzung der Rechtstellungskommission des Bundestags-Ältestenrates eine Stellungnahme abgegeben, die dem RND (Paywall) vorliegt. Darin heißt es, die AfD-Bundestagsfraktion schließe sich „aus Gründen der Praktikabilität der Auffassung an, dass eine Monetarisierung von Beiträgen mit parlamentarischem Bezug durch Mitglieder des Bundestages auf Social-Media-Kanälen nicht erfolgt. Die bisherigen Fälle unserer Fraktion sind nach unserer Einschätzung inzwischen sämtlich erledigt; eine Monetarisierung findet in keinem Falle (mehr) statt.“

Aus AfD-Kreisen hieß es laut RND, es habe sich nur um „zwei oder drei“ Abgeordnete gehandelt, darunter Brandner selbst. Die Beträge seien von den Abgeordneten zurückerstattet worden. Der Welt sagte ein Sprecher der AfD-Fraktion: „Der Fraktion waren entsprechende Praktiken nicht bekannt, da die Verantwortung für die Veröffentlichung von Videos auf den Kanälen der Abgeordneten nicht in der Zuständigkeit der Fraktion liegt. Die AfD-Fraktion rät ihren Mitgliedern, politische Videos nicht zu monetarisieren.“

Brandner selbst kündigte in der Zeitung Junge Freiheit an, sämtliche Einnahmen, die er mit seinem YouTube-Account verdiente, an die Bundestagsverwaltung zurückzuzahlen. Die Monetarisierung seines Accounts habe 2024 begonnen. Insgesamt geht es Medium zufolge um rund 15.000 Euro. „Den konkreten Betrag hatte ich als Rücklage für Rechtsstreitigkeiten zur Verteidigung der Meinungsfreiheit vorgesehen. Meine Kosten in dem Zusammenhang gehen in den hohen fünfstelligen Bereich“, betonte Brandner.

Weiterlesen nach der Anzeige

Lesen Sie auch

Brandner sagte, nachdem er die Einkünfte der Bundestagsverwaltung gemeldet habe, möglicherweise verspätet, habe die Bundestagsverwaltung nach der genauen Bezeichnung der Tätigkeit gefragt und anschließend mögliche Verstöße gegen das Abgeordnetengesetz zur Sprache gebracht. Das habe er zum Anlass genommen, den Sachverhalt in der Rechtsstellungskommission des Parlaments nach seiner Erinnerung zweimal zu thematisieren. Rückblickend sagte Brandner, „die Zweifel, die ich nun nachträglich habe, hätten bereits vorher bei mir vorhanden sein sollen“.

Lesen Sie auch


(afl)



Source link

Weiterlesen

Künstliche Intelligenz

Autark im Ernstfall: Kurbelgeneratoren als Alternative zum Kurbelradio


Ergibt es wirklich Sinn, für den Fall eines Stromausfalls ein Kurbelradio zu kaufen, oder ist der Muskelkater im Krisenfall vergebens? Zwar empfiehlt der Bund, ein vom Stromnetz unabhängiges Radio für den Krisenfall bereitzuhalten, doch in unserem Vergleichstest von sieben aktuellen Notfallradios erwiesen sich die kleinen, ausklappbaren Kurbeln größtenteils als enttäuschend schwach. Das Drehen war bereits nach wenigen Minuten sehr anstrengend und lieferte oft nur Strom für weit weniger als eine Stunde UKW-Betrieb.

Bei Online-Händlern gibt es vielversprechende Alternativen: Die dort erhältlichen Kurbelgeneratoren (teils mit eingebauter Powerbank) sind oft etwas größer und versprechen stabile Kurbeln, die statt eines Krampfs im Arm ordentlich Leistung liefern. Wer ein entladenes Radio über USB anschließt, kann es deutlich länger wieder zum Leben erwecken – so zumindest die Idee. In diesem Artikel überprüfen wir, ob die Kombination aus einem Kurbelgenerator und einem handelsüblichen, kleinen Radio im Ernstfall wirklich stundenlangen Empfang ermöglicht.

  • Taugen Kurbelradios im Stromausfall wirklich – oder gibt es bessere Lösungen als die mühsamen Mini-Kurbeln?
  • Wir prüfen, ob größere Handkurbelgeneratoren ein entladenes Radio länger und zuverlässiger mit Strom versorgen können.
  • Der Test vergleicht drei Geräte in unterschiedlichen Größen und Preisklassen und bewertet auch Zusatzfunktionen wie die einer Nottaschenlampe.

Es treten an: die Powerbank „Captok Portable Generator 22.5 Ah“, das winzige „Babominimer USB Handkurbel Ladegerät“ ohne eigenen Akku sowie das „Hand Cranked Power Supply XY-201L-1“ mit einem 15-Ah-Akku. Im Test untersuchen wir außerdem die übrigen Fähigkeiten der „Kurbelkisten“, darunter die gemessene Akku-Kapazität und ihre Tauglichkeit als Nottaschenlampe.


Das war die Leseprobe unseres heise-Plus-Artikels „Autark im Ernstfall: Kurbelgeneratoren als Alternative zum Kurbelradio“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

Samsung setzt auf LCDs, Bilderrahmen und Fußballfans


Weiterlesen nach der Anzeige

Samsung, der koreanische Marktführer bei Fernsehern, bringt nach eigenen Angaben OLED-TVs und LCD-TVs künftig auf dieselbe Qualitätsstufe. Aber natürlich nicht irgendwelche LCDs, sondern solche mit Micro-RGB-LEDs im Backlight.

Die winzigen Leuchtdioden in den LCD-TVs von Samsung bestehen aus einem Cluster aus roten grünen und blauen Dioden in einem gemeinsamen Gehäuse, jedes Farbsegment misst laut Samsung etwa 100 Mikrometer in der Länge – deshalb Samsungs Bezeichnung als MicroRGB-LEDs. Die ursprüngliche Idee von Micro-LEDs war, dass die Kantenlänge des gesamten LED-Gehäuses bis zu 100 Mikrometer misst. Aber um solche Haarspalterei soll es hier nicht gehen (ein menschliches Haar ist zwischen 40 bis 100 Mikrometer dünn).



Winzige RGB-Leuchtdioden im Backlight von Samsungs MicroRGB-LED-TVs leuchten durch die LCD-Schicht, der Energiebedarf liegt laut Samsung deutlich unter dem von TVs mit weißen Micro-LEDs.

(Bild: Ulrike Kuhlmann / heise medien)

Entscheidender ist, dass Samsung für die mit farbigen Micro-LEDs ausgestatteten LCD-TVs eine ebenso gute Bildqualität verspricht wie für Geräte mit selbstleuchtenden OLED-Panels. In einer Präsentation konnten wir uns von der enormen Farbsättigung der neuen Modelle überzeugen. Die kräftigen Farben wirken sich auch positiv auf die Kontrastwahrnehmung aus, wobei der Schwarzwert der MicroRGB-LED-TVs ohnehin sehr gut ist. Allerdings bleibt es bei einer, wenn auch geringen Blickwinkelabhängigkeit der Darstellung.

In diesem Jahr bietet Samsung zwei LCD-TV-Serien mit MicroRGB-LEDs im Backlight an: R95H und R85H, jeweils in 65 Zoll, 75 Zoll und 85 Zoll; in der 85er-Reihe finden sich zusätzlich ein 100 Zöller und ein 55 Zöller. Die R95H-Modelle haben mehr Dimming-Zonen, nutzen eine bessere CPU, besitzen eine mattierte, spiegelfreie Oberfläche und ein leicht abweichendes Design mit mittig platziertem Stand.



Die LCD-TVs aus Samsungs R95H-Serie erzeugen mit winzigen RGB-LEDs im Backlight beeindruckende Farben.

(Bild: Ulrike Kuhlmann / heise medien)

Aus Samsung-Sicht ist die verstärkte Zuwendung zu den LCDs nachvollziehbar, denn die eigene QD-OLED-Fertigung ist teuer und in der Diagonale begrenzt. Alternativ kommt derzeit nur Konkurrent LG Display als Lieferant von WOLEDs in Frage. LCD-Panels stellt Samsung zwar nicht selbst her, hat aber durch die eigene Backlight-Entwicklung mehr Möglichkeiten, sich vom Mitbewerb abzusetzen.

Weiterlesen nach der Anzeige

Aktuell hat das Unternehmen noch vier OLED-TV-Serien im Programm, eine davon (S95H) ist die Fortführung der Vorjahresgeräte (S95F). Das Topmodell, der schicke S99H, ist in Diagonalen von 55 bis 85 Zoll erhältlich. Sein mattiertes Display hängt wie ein Bild in der etwas breiteren TV-Einfassung. Er erreicht laut Samsung eine um 35 Prozent höhere Spitzenleuchtdichte, was sich in HDR-Sequenzen bemerkbar macht.



Der S99H beeindruckt nicht nur mit inneren (Bild-)Werten, auch äußerlich macht er richtig was her.

(Bild: Ulrike Kuhlmann / heise medien)

Bis auf den explizit als Bilderrahmenfernseher angebotenen The Frame Pro werden derzeit keine TV-Modell mit Samsungs One Connect-Box ausgeliefert. Die Topmodelle R95H und S99H lassen sich optional um eine drahtlose One-Connect-Box erweitern. Dann stehen zusätzlich zu den vier HDMI-Eingängen im TV vier weitere in der Box zur Verfügung. Die drahtlose Signalbox kostet einige hundert Euro, was sich offenbar selbst bei den teureren TV-Geräten nicht gerechnet hat.



Das fein mattierte Display des OLED-Topmodells S99H hängt wie ein Bild im TV-Rahmen.

(Bild: Ulrike Kuhlmann / heise medien)

Aber: Samsung erlaubt am S99H den Bilderrahmenmodus, er darf also über längere Zeit denselben Bildinhalt anzeigen. Das ist ein absolutes Novum bei Fernsehern mit organischem Display. Bislang aktivieren OLED-TVs nach kurzer Anzeige eines Standbilds automatisch einen im Wesentlichen schwarzen Bildschirmschoner. Die Bilderrahmenfunktion wird zwar anders als beim Frame nicht automatisch aktiviert, wenn der Fernseher in den Ruhezustand wechselt. Der Fernseher gibt aber Zugriff auf Samsungs Art Store, um Kunstwerke oder auch eigene Bilder anzuzeigen. Wir haben nachgefragt, wie Samsung mit möglichem Einbrennen nach exzessivem Gebrauch der Bilderrahmenfunktion umgehen will. Eine Antwort steht noch aus.

Samsung hat seinen neuen OLEDs nach eigenen Angaben eine dickere organische Leuchtschicht spendiert, wobei „dicker“ im Grunde ein zusätzlicher Layer bedeutet, was auch zusätzlich kostet. Im Gegenzug leuchten die TVs heller beziehungsweise benötigen bei gleicher Leuchtdichte ein Drittel weniger Energie als die Vorjahresmodelle.

Trotz der Modellvielfalt scheint es so, als wolle Samsung die QD-OLED-Fertigung für den TV-Bereich nicht weiter ausbauen. Die kürzlich angekündigte Änderung der Pixelstruktur von im Dreieck angeordneten Subpixeln (sogenannte Diamond-Struktur) in die für LCDs üblichen RGB-Streifen wird im Monitorbereich erst im kommenden Jahr kommen, erklärte uns ein Samsung-Mitarbeiter. Ob sie bei Fernsehern jemals eingesetzt wird, ließ der Hersteller offen.

Angesichts des verstärkten Hangs zum MicroRGB-LED-Backlight im LCD-TV scheint uns das aber fraglich, denn es würde enorme Investitionskosten erfordern, die sich im preissensitiven TV-Segment kaum wieder einspielen ließen. Und nicht zuletzt dürfte die starke Konkurrenz aus China dagegensprechen, die den Markt derzeit mit niedrigen Preisen quasi von hinten aufrollt.



Samsung hat auch echte RGB-LED-Displays im Programm, also Displays, in denen für jeden Bildpunkt eine LED zuständig ist. Die großen Schirme fallen aber weniger unter die Rubrik „Fernseher“, sondern werden eher als Public Displays angeboten.

(Bild: Ulrike Kuhlmann / heise medien)

Ein witziges Gimmick neben den vielen KI-Funktionen zur leichteren Bedienung des TVs hat Samsung seinen 2026er-Geräten spendiert: den KI-Fußballmodus. Mit ihm kann man während einer Übertragung entweder die Stadiongeräusche herunterdrehen, um den Kommentar besser zu verstehen. Oder man dreht dem Kommentator den Saft ab und kommentiert das Spiel stattdessen selbst.

Das Ganze funktioniert im Fußballmodus in einem Untermenü über zwei Slider. Und weil die Funktion auch für andere Gelegenheiten hilfreich sein kann, hat Samsung sie zusätzlich im Modus AI-Sound integriert, um Hintergrundgeräusche oder Sprache zu reduzieren oder zu verstärken.


(uk)



Source link

Weiterlesen

Beliebt