Künstliche Intelligenz
Apple TV cancelt Dramedy „Palm Royale“ – und Nutzer sind sauer
Es ist für Zuschauer äußerst unschön, wenn sich ein Sender oder Streamingdienst dazu entscheidet, eine Serie zu beenden, bevor alle Handlungsstränge im Rahmen eines Finales oder einer finalen Staffel aufgelöst wurden. Cliffhanger sollte es eigentlich nur geben, wenn klar ist, dass es weitergeht. Bislang gab sich Apple hier meist vorbildlich: Bei Apple TV laufende Shows wurden üblicherweise zu einem soliden Ende geführt, auch wenn der iPhone-Konzern keine weiteren Folgen bestellen wollte. Was es hingegen schon gab, waren lange Wartezeiten auf neue Staffeln, etwa bei „Severance“. Doch nun lässt Apple seine Kunden bei einer viel gelobten Dramedy-Show tatsächlich hängen.
Weiterlesen nach der Anzeige
Viele Nominierungen
„Palm Royale“ wird Fachmedien zufolge „einfach so“ eingestellt, obwohl die zweite Staffel mit vielen Fragen endete. Wie Variety schreibt, wurde dies auch bereits bestätigt – wobei eine Ankündigung seitens Apple noch fehlt.
Apple hatte „Palm Royale“, dessen Hauptdarstellerin Kristen Wiig ist, im Frühjahr 2024 veröffentlicht und dann auch gleich im Sommer für eine zweite Staffel beauftragt, obwohl zunächst nur 10 Folgen geplant waren. Die zweite Staffel mit weiteren 10 Folgen lief von November 2025 bis Januar 2026. Apple veröffentlicht Shows stets im Wochentakt und nicht zum „Bingen“ auf einmal, wie man das von Netflix kennt.
Plot Twist ohne weitere Staffel
„Palm Royale“ galt als Kritikerliebling, hatte bei Rotten Tomatoes allerdings nur ein Rating von 60 Prozent. Die Show bekam insgesamt 35 Nominierungen für Preise wie die Emmys, Critics‘ Choice Award sowie Actor Awards. Die Serie spielte im Palm Beach der Sechzigerjahre und ging auf einen Roman von 2018 zurück.
Das Finale von „Palm Royale“ endete mit einem Plot Twist, der für viel Stoff für die kommende Staffel 3 gesorgt hätte. Diesen müssen sich Fans der Show nun dazudenken. Es ist unklar, warum Apple die Serie abrupt gecancelt hat. Es gibt Berichte, dass sie in der Produktion sehr teuer war. Der Streamingmarkt steht aktuell vor einem Umbruch, nachdem Netflix aus dem möglichen Kauf von Warner Brothers ausgestiegen ist.
Weiterlesen nach der Anzeige
(bsc)
Künstliche Intelligenz
Schnellladesäulen an Autobahnen: Ausschreibung notwendig
Der Bau von Schnellladesäulen an Autobahnen darf nicht ohne Ausschreibung und Vergabeverfahren erfolgen. Das hat das Oberlandesgericht (OLG) Düsseldorf rechtskräftig entschieden (Az.: VII Verg 29/22).
Weiterlesen nach der Anzeige
Nach Angaben des Gerichts hatte die Autobahn GmbH des Bundes im April 2022 die bestehenden Konzessionsverträge mit der Tank & Rast GmbH sowie der Ostdeutsche Autobahntankstellen GmbH erweitert. Die Ergänzungsvereinbarung sah vor, dass die Betreiber zusätzlich Schnellladeinfrastruktur für E-Autos an Raststätten bereitstellen dürfen. Ein Vergabeverfahren hatte es dafür nicht gegeben.
Dagegen waren der Ladeinfrastruktur-Betreiber Fastned sowie zunächst auch Tesla vorgegangen. Der Vergabesenat des OLG hatte den Fall dem Europäischen Gerichtshof vorgelegt. Dieser hatte entschieden, dass eine wesentliche Änderung des Konzessionsvertrags vorliege und damit ein Vergabeverfahren erforderlich sei.
Daraufhin kam das OLG Düsseldorf nun zu dem Schluss, dass das Recht, Tankstellen für Fahrzeuge mit Benzin- oder Dieselantrieb zu betreiben, nicht automatisch den Betrieb von Schnellladesäulen für Elektrofahrzeuge umfasst.
Lesen Sie auch
(nie)
Künstliche Intelligenz
Neue LG-Fernseher: Neben OLEDs nun auch TVs mit Micro-RGB-LEDs
LG ist vor allem für OLED-TVs bekannt. Die organischen Displays aus den Serien B5, C5 und G5 bekommen ein Update auf B6, C6 und G6, der Hersteller hat sie weiter optimiert, die unverbindlichen Preisempfehlungen bleiben auf dem Niveau vom Vorjahr.
Weiterlesen nach der Anzeige
Neu hinzugekommen ist das Wallpaper-TV W6, ein gerade mal neun Millimeter dünnes Display, das mit einer speziellen Halterung an die Wand gehängt wird. Das ist eine Art Revival zum Wallpaper aus 2017, diesmal hat LG das Panel aber mit einem schmalen Metallrahmen stabilisiert und es wird drahtlos angesteuert.
Farbige LEDs im LCD-Backlight
Unter den neuen Highend-Modellen findet sich in diesem Jahr auch ein LCD-TV mit winzigen RGB-LEDs im Backlight. Damit holt LG nach, was Samsung und Hisense vorgemacht haben; beide bieten derartige Boliden bereits an.
Bei der Nomenklatur der mit winzigen LEDs ausgestatteten LCD-TVs macht es LG den Verbrauchern nicht leicht. So sind einzig die MRGB96-Modelle mit farbigen Mini-LEDs im lokal gedimmtem Backlight ausgestattet. Es deckt den Farbraum DCI-P3 laut LG vollständig ab, unterstützt VRR bis 165 Hertz und schafft bei Reduzierung der Bildauflösung auf Full HD per Motion Booster Frameraten bis zu 330 Hertz. Für die Bildoptimierung sorgt der gleiche Chipsatz wie in LGs OLED-Topmodellen.

Mit den TVs aus der Micro RGB96-Serie will nun auch LG LCD-TVs mit farbigen RGB-Mini-LEDs im lokal dimmbaren Backlight anbieten.
(Bild: Ulrike Kuhlmann / heise medien)
Der Hersteller preist die „Micro RGB evo TV“ als Flaggschiff an, das Modell MRGB96 gibt es in 75, 85 und 100 Zoll, also nur mit großen Diagonalen von 1,90 Meter, 2,16 Meter und 2,54 Meter. Auch die Preise sind entsprechend groß, als unverbindliche Preisempfehlung (UVP) nennt LG 6300 Euro und 9000 Euro respektive 10.000 Euro; erfahrungsgemäß fällt der tatsächliche Verkaufspreis aber recht sehr schnell unter die UVP.
Bei den MRGB8-Modellen mit Mini-LEDs handelt es sich dagegen um LCD-TVs mit Edge-Backlight aus weißen LEDs, die über keine oder allenfalls eine Handvoll dimmbarer Zonen verfügen. Spätestens der Preis spiegelt das auch wider: Die Geräte aus der MRGB88-Serie kosten maximal 2000 Euro (UVP) für einen 86-Zöller. Dafür bekommt man kein FALD-Backlight mit mehreren Hundert Dimming-Zonen.
Weiterlesen nach der Anzeige
Riesen-TVs für kleines Geld
Unter den neuen QNED-TVs mit farbverstärkenden Quantenpunkten und Edge-LED-Backlight aus herkömmlichen weißen LEDs finden sich einige größere Modelle, etwa den 115QNED93B6 mit 115 Zoll Diagonale (2,90 m) und 2,55 Meter Bildbreite für 6000 Euro, auch dies ein UVP, der voraussichtlich unterboten wird. Wie sehr die TV-Preise im Keller sind, zeigt sich am nächstkleineren QNED93 evo mit 85 Zoll respektive 2,16 Meter Diagonale: Der gut ausgestattete 85QNED93B6A soll gerade mal 1900 Euro kosten. Wer hier bei der Ausstattung ein wenig abspeckt, bekommt einen 85-zölligen QNED81 evo für gerade mal 1650 Euro, UVP versteht sich. Man kann erahnen, wohin sich die Preise für große Fernseher zur Fußball-WM bewegen werden.
Den zur CES angekündigten Bilderrahmenfernseher Gallery TV LX7 wird es ab Juli in 55 und 65 Zoll mit 1,40 Meter und 1,65 Meter Diagonale geben. Als magnetisch haftende Rahmen wird LG weiße Metallleisten sowie Holzleisten anbieten. Der 65-zöllige Gallery TV 65LX7B6LA soll 2000 Euro kosten, der 55-Zöller 55LX7B6LA 1750 Euro, jeweils UVP.
Alle genannten TVs haben 4K-Auflösung mit 3840 × 2160 Pixeln, mindestens einen TV-Tuner, mindestens drei HDMI-Eingänge und die besseren ein 120-Hertz-Panel, wovon insbesondere die Bewegtbildwiedergabe profitiert.
(uk)
Künstliche Intelligenz
KI als Spiegel: Fehlende Bedeutung in Code und Architektur
Programmieren ist längst weniger das Schreiben von Code als vielmehr das Verstehen von Systemen. Jede Codebasis wird weit öfter gelesen als erweitert. Und genau dort zeigt sich ein häufiges strukturelles Defizit: Das „Warum“ der Entscheidungen ist meist unsichtbar.
Weiterlesen nach der Anzeige

Nicolai Wolko ist Softwarearchitekt, Consultant und Mitgründer der WBK Consulting AG. Er unterstützt Unternehmen bei komplexen Web- und Cloudprojekten und wirkt als Sparringspartner sowie Gutachter für CTOs. Fachbeiträge zur modernen Softwarearchitektur veröffentlicht er regelmäßig in Fachmedien und auf seinem Blog.
Wer ein bestehendes System analysiert – ob Mensch oder KI –, trifft zwar auf Klassen und Module, erkennt jedoch nicht unmittelbar, wie diese zusammenhängen und wofür sie stehen. KI-Modelle spiegeln dieses Problem besonders deutlich: Sie erkennen Muster, aber keine Herleitung. Eine aktuelle Übersichtsstudie aus dem Jahr 2025 kommt zu dem Ergebnis, dass ein erheblicher Teil der Fehler in generiertem Code nicht syntaktischer Art ist, sondern logisch-semantischen Fehlannahmen unterliegt. Modelle folgen vorhandenen Strukturen. Wird die zugrunde liegende Bedeutung und Herleitung nicht sichtbar, dann halluzinieren sie – so wie auch Menschen raten oder recherchieren müssten.
Diese Beobachtung zeigt, dass wir Abstraktion perfektioniert, aber Verständlichkeit oft unterschätzt haben.
Der lange Kampf gegen mentale Last
In der Rückschau wirkt die Geschichte der Softwareentwicklung wie ein kontinuierlicher Versuch, mentale Last zu reduzieren. Assembler verließ die Ebene direkter Maschinenbefehle, Hochsprachen entfernten Hardwaredetails, Frameworks umhüllten Komplexität mit wenigen Zeilen Code. Mit jedem Schritt rückte der Fokus weg vom „Wie“ und hin zum „Was“:

Die zunehmende Abstraktion in der Softwareentwicklung verschiebt den Fokus vom „Wie“ zum „Was“: Sie reduziert die syntaktische Last, erschwert aber den direkten Zugang zur fachlichen Bedeutung.
Doch die Entlastung ist ambivalent. Abstraktionen sparen Tipparbeit, erzeugen aber zusätzliche Interpretationsarbeit. Eine Funktion wie calculateTotal() versteckt Implementation, aber auch Bedeutung: Welches Total? Welche Regeln? Welche Domäne? Welche Ausnahmen? Eine Zeile Code wird zum mentalen Sprungbrett, das die Lesenden zwingt, das Unsichtbare zu rekonstruieren.
Weiterlesen nach der Anzeige
Mit zunehmender Reife der Softwareentwicklung rückte eine neue Art der Schwierigkeit in den Mittelpunkt. Das Schreiben von Code wurde deutlich einfacher, doch das gemeinsame Verständnis der dahinter liegenden Bedeutung anspruchsvoller. Der entscheidende Engpass verlagerte sich von der technischen Umsetzung zur Semantik. Eric Evans beschrieb 2003 in seinem Buch „Domain-Driven Design“ erstmals konsequent, dass die eigentliche Herausforderung in der Softwareentwicklung in der vom Code repräsentierten Bedeutung liegt (vgl. Eric Evans: Domain-Driven Design: Tackling Complexity in the Heart of Software, Addison-Wesley, 2003).
Domain-driven Design (DDD) war ein Durchbruch, denn das Konzept verschob die Diskussion von implementierungsgetriebenen Strukturen hin zur fachlichen Semantik. Konzepte wie Ubiquitous Language, Bounded Contexts und Aggregates stärken das gemeinsame Verständnis über Begriffe und Abläufe. Damit macht DDD ein Problem sichtbar, das bis heute besteht: Bedeutung lässt sich modellieren, bleibt aber in vielen Systemen im fertigen Code nur indirekt erkennbar.
Neben DDD verfolgen auch andere Architekturprinzipien wie Clean Code dieselbe Kernidee: Code verständlich machen. Sie entstanden aus der Einsicht, dass die technische Struktur nur ein Teil des Problems, die eigentliche Hürde aber das Verstehen ist.
Diese Konzepte setzen jedoch voraus, dass das erforderliche fachliche Verständnis bereits vorhanden ist. Sie schaffen eine Struktur, die dieses Wissen abbildet, machen die zugrunde liegenden Entscheidungen im Code selbst aber nur begrenzt sichtbar.
Aus der Forschung: Wie mentale Last entsteht
Mentale Last entsteht überall dort, wo ein System Bedeutung nicht ausdrückt, sondern das Verständnis den Leserinnen und Lesern überlässt. Dieser Effekt ist gut untersucht.
Bei Untersuchungen mit funktioneller Magnetresonanztomographie (fMRT) zeigte sich, dass Codeverständnis mit messbarer kognitiver Belastung einhergeht und dass diese Belastung je nach Verständlichkeit des Codes variiert. Fehlen Orientierung und Kontext, steigt der mentale Aufwand: Das Gehirn muss mehr kognitive Arbeit investieren, um Zusammenhänge herzustellen, die im Code nicht unmittelbar ersichtlich sind.
Scheinbare Banalitäten können schon messbare Auswirkungen haben, wie eine andere Studie zeigt, in der ausgeschriebene Wort-Identifier rund 19 Prozent schneller verstanden wurden als Kürzel oder Einzelbuchstaben.
In der Programmierpraxis zeigt sich mentale Last besonders deutlich in drei Situationen:
1. Unmarkierte Bedeutungswechsel
Beispiel: Ein Vorgang wandelt sich im Code von „Order“ zu „Booking“, ohne dass der Wechsel sichtbar wird. Für das Gehirn bedeutet das einen Kontextsprung. Es fehlt die semantische Markierung, die den Übergang verständlich macht.
2. Implizite Regeln
Beispiel: Ein Parameter darf nur in bestimmten Zuständen gesetzt werden. Das System läuft, aber es drückt nicht aus, welche Annahme gilt. Leserinnen und Leser kompensieren das durch mentale Simulation.
3. Struktur ohne semantische Orientierung
Beispiel: Technische Schichten trennen Abläufe, aber nicht Begriffe. Das Gehirn folgt dem Code, aber nicht dem fachlichen Gedankengang. Orientierung entsteht erst nach mehreren inneren Rekonstruktionsschritten.

Drei Quellen mentaler Last im Code mit einem gemeinsamen Muster: Der Code zeigt Struktur, aber kaum Bedeutung – das Gehirn muss die Lücken füllen.
Die Beispiele haben ein gemeinsames Muster: Der Code trägt syntaktische Struktur, nicht semantische Bedeutung.
KI als Spiegel
Wie fügt sich nun künstliche Intelligenz (KI) in diese Betrachtungen? Die Geschichte der Softwareentwicklung hat große Fortschritte vom „Wie“ zum „Was“ gemacht. KI soll diesen Weg nun abschließen, indem sie ein Code-Interface in natürlicher Sprache gestaltet. Einstweilen gibt es hier aber noch spürbare Hürden.
Eine der faszinierendsten Eigenschaften von Large Language Models (LLMs) ist, dass sie den Kontext ihres Prompts spiegeln. Eine Studie aus dem Jahr 2023 hat untersucht, welche Arten von Codefehlern LLMs machen. Dabei zeigten sich wiederkehrende Fehlerklassen: falsche Annahmen und inkorrekte logische Richtung. Sprich: keine Syntaxpatzer, sondern Hinweise auf eine fehlende Entscheidungsspur im Kontext. Modelle reproduzieren Struktur, verfehlen aber häufig Bedeutung – ganz so wie es Menschen oft tun, wenn sie ohne Vorwissen in ein System stolpern.
Noch deutlicher wird dieser Effekt, wenn die Lesbarkeit bewusst verschlechtert wird. Bei obfuskiertem Code bricht die Leistung spürbar ein. Erfahrene Entwicklerinnen und Entwickler können sich in solchen Fällen teilweise mit Erfahrung und analytischem Vorgehen behelfen, arbeiten dabei jedoch langsamer, unsicherer und mit höherem Fehlerrisiko. Hier wird sehr deutlich: Nimmt die Lesbarkeit ab, sinkt die Leistungsfähigkeit – bei Menschen wie auch bei KI-Modellen. Beide sind auf explizite Hinweise angewiesen, um Bedeutung zuverlässig zu erschließen.
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 3 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Social Mediavor 5 TagenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Künstliche Intelligenzvor 2 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
