Künstliche Intelligenz
KI als Spiegel: Fehlende Bedeutung in Code und Architektur
Programmieren ist längst weniger das Schreiben von Code als vielmehr das Verstehen von Systemen. Jede Codebasis wird weit öfter gelesen als erweitert. Und genau dort zeigt sich ein häufiges strukturelles Defizit: Das „Warum“ der Entscheidungen ist meist unsichtbar.
Weiterlesen nach der Anzeige

Nicolai Wolko ist Softwarearchitekt, Consultant und Mitgründer der WBK Consulting AG. Er unterstützt Unternehmen bei komplexen Web- und Cloudprojekten und wirkt als Sparringspartner sowie Gutachter für CTOs. Fachbeiträge zur modernen Softwarearchitektur veröffentlicht er regelmäßig in Fachmedien und auf seinem Blog.
Wer ein bestehendes System analysiert – ob Mensch oder KI –, trifft zwar auf Klassen und Module, erkennt jedoch nicht unmittelbar, wie diese zusammenhängen und wofür sie stehen. KI-Modelle spiegeln dieses Problem besonders deutlich: Sie erkennen Muster, aber keine Herleitung. Eine aktuelle Übersichtsstudie aus dem Jahr 2025 kommt zu dem Ergebnis, dass ein erheblicher Teil der Fehler in generiertem Code nicht syntaktischer Art ist, sondern logisch-semantischen Fehlannahmen unterliegt. Modelle folgen vorhandenen Strukturen. Wird die zugrunde liegende Bedeutung und Herleitung nicht sichtbar, dann halluzinieren sie – so wie auch Menschen raten oder recherchieren müssten.
Diese Beobachtung zeigt, dass wir Abstraktion perfektioniert, aber Verständlichkeit oft unterschätzt haben.
Der lange Kampf gegen mentale Last
In der Rückschau wirkt die Geschichte der Softwareentwicklung wie ein kontinuierlicher Versuch, mentale Last zu reduzieren. Assembler verließ die Ebene direkter Maschinenbefehle, Hochsprachen entfernten Hardwaredetails, Frameworks umhüllten Komplexität mit wenigen Zeilen Code. Mit jedem Schritt rückte der Fokus weg vom „Wie“ und hin zum „Was“:

Die zunehmende Abstraktion in der Softwareentwicklung verschiebt den Fokus vom „Wie“ zum „Was“: Sie reduziert die syntaktische Last, erschwert aber den direkten Zugang zur fachlichen Bedeutung.
Doch die Entlastung ist ambivalent. Abstraktionen sparen Tipparbeit, erzeugen aber zusätzliche Interpretationsarbeit. Eine Funktion wie calculateTotal() versteckt Implementation, aber auch Bedeutung: Welches Total? Welche Regeln? Welche Domäne? Welche Ausnahmen? Eine Zeile Code wird zum mentalen Sprungbrett, das die Lesenden zwingt, das Unsichtbare zu rekonstruieren.
Weiterlesen nach der Anzeige
Mit zunehmender Reife der Softwareentwicklung rückte eine neue Art der Schwierigkeit in den Mittelpunkt. Das Schreiben von Code wurde deutlich einfacher, doch das gemeinsame Verständnis der dahinter liegenden Bedeutung anspruchsvoller. Der entscheidende Engpass verlagerte sich von der technischen Umsetzung zur Semantik. Eric Evans beschrieb 2003 in seinem Buch „Domain-Driven Design“ erstmals konsequent, dass die eigentliche Herausforderung in der Softwareentwicklung in der vom Code repräsentierten Bedeutung liegt (vgl. Eric Evans: Domain-Driven Design: Tackling Complexity in the Heart of Software, Addison-Wesley, 2003).
Domain-driven Design (DDD) war ein Durchbruch, denn das Konzept verschob die Diskussion von implementierungsgetriebenen Strukturen hin zur fachlichen Semantik. Konzepte wie Ubiquitous Language, Bounded Contexts und Aggregates stärken das gemeinsame Verständnis über Begriffe und Abläufe. Damit macht DDD ein Problem sichtbar, das bis heute besteht: Bedeutung lässt sich modellieren, bleibt aber in vielen Systemen im fertigen Code nur indirekt erkennbar.
Neben DDD verfolgen auch andere Architekturprinzipien wie Clean Code dieselbe Kernidee: Code verständlich machen. Sie entstanden aus der Einsicht, dass die technische Struktur nur ein Teil des Problems, die eigentliche Hürde aber das Verstehen ist.
Diese Konzepte setzen jedoch voraus, dass das erforderliche fachliche Verständnis bereits vorhanden ist. Sie schaffen eine Struktur, die dieses Wissen abbildet, machen die zugrunde liegenden Entscheidungen im Code selbst aber nur begrenzt sichtbar.
Aus der Forschung: Wie mentale Last entsteht
Mentale Last entsteht überall dort, wo ein System Bedeutung nicht ausdrückt, sondern das Verständnis den Leserinnen und Lesern überlässt. Dieser Effekt ist gut untersucht.
Bei Untersuchungen mit funktioneller Magnetresonanztomographie (fMRT) zeigte sich, dass Codeverständnis mit messbarer kognitiver Belastung einhergeht und dass diese Belastung je nach Verständlichkeit des Codes variiert. Fehlen Orientierung und Kontext, steigt der mentale Aufwand: Das Gehirn muss mehr kognitive Arbeit investieren, um Zusammenhänge herzustellen, die im Code nicht unmittelbar ersichtlich sind.
Scheinbare Banalitäten können schon messbare Auswirkungen haben, wie eine andere Studie zeigt, in der ausgeschriebene Wort-Identifier rund 19 Prozent schneller verstanden wurden als Kürzel oder Einzelbuchstaben.
In der Programmierpraxis zeigt sich mentale Last besonders deutlich in drei Situationen:
1. Unmarkierte Bedeutungswechsel
Beispiel: Ein Vorgang wandelt sich im Code von „Order“ zu „Booking“, ohne dass der Wechsel sichtbar wird. Für das Gehirn bedeutet das einen Kontextsprung. Es fehlt die semantische Markierung, die den Übergang verständlich macht.
2. Implizite Regeln
Beispiel: Ein Parameter darf nur in bestimmten Zuständen gesetzt werden. Das System läuft, aber es drückt nicht aus, welche Annahme gilt. Leserinnen und Leser kompensieren das durch mentale Simulation.
3. Struktur ohne semantische Orientierung
Beispiel: Technische Schichten trennen Abläufe, aber nicht Begriffe. Das Gehirn folgt dem Code, aber nicht dem fachlichen Gedankengang. Orientierung entsteht erst nach mehreren inneren Rekonstruktionsschritten.

Drei Quellen mentaler Last im Code mit einem gemeinsamen Muster: Der Code zeigt Struktur, aber kaum Bedeutung – das Gehirn muss die Lücken füllen.
Die Beispiele haben ein gemeinsames Muster: Der Code trägt syntaktische Struktur, nicht semantische Bedeutung.
KI als Spiegel
Wie fügt sich nun künstliche Intelligenz (KI) in diese Betrachtungen? Die Geschichte der Softwareentwicklung hat große Fortschritte vom „Wie“ zum „Was“ gemacht. KI soll diesen Weg nun abschließen, indem sie ein Code-Interface in natürlicher Sprache gestaltet. Einstweilen gibt es hier aber noch spürbare Hürden.
Eine der faszinierendsten Eigenschaften von Large Language Models (LLMs) ist, dass sie den Kontext ihres Prompts spiegeln. Eine Studie aus dem Jahr 2023 hat untersucht, welche Arten von Codefehlern LLMs machen. Dabei zeigten sich wiederkehrende Fehlerklassen: falsche Annahmen und inkorrekte logische Richtung. Sprich: keine Syntaxpatzer, sondern Hinweise auf eine fehlende Entscheidungsspur im Kontext. Modelle reproduzieren Struktur, verfehlen aber häufig Bedeutung – ganz so wie es Menschen oft tun, wenn sie ohne Vorwissen in ein System stolpern.
Noch deutlicher wird dieser Effekt, wenn die Lesbarkeit bewusst verschlechtert wird. Bei obfuskiertem Code bricht die Leistung spürbar ein. Erfahrene Entwicklerinnen und Entwickler können sich in solchen Fällen teilweise mit Erfahrung und analytischem Vorgehen behelfen, arbeiten dabei jedoch langsamer, unsicherer und mit höherem Fehlerrisiko. Hier wird sehr deutlich: Nimmt die Lesbarkeit ab, sinkt die Leistungsfähigkeit – bei Menschen wie auch bei KI-Modellen. Beide sind auf explizite Hinweise angewiesen, um Bedeutung zuverlässig zu erschließen.
Künstliche Intelligenz
Deutsche Bahn liegt weiter hinter Pünktlichkeitszielen
Die Deutsche Bahn fährt ihrem selbstgesetzten Pünktlichkeitsziel weiter hinterher. Wie der Konzern auf seiner Webseite mitteilte, wurden im Februar 59,4 Prozent aller Fernverkehrshalte pünktlich erreicht. Das waren 7,3 Prozentpunkte mehr als im Januar. Für das gesamte Jahr 2026 hat Bahnchefin Evelyn Palla eine Pünktlichkeitsquote von mindestens 60 Prozent ausgegeben. Laut Bahn-Angaben sind die Februar-Zahlen vorläufige Werte.
Weiterlesen nach der Anzeige
Als verspätet gilt ein Zug nach Bahn-Definition ab einer Verzögerung von sechs Minuten. Als Gründe für die vielen Verspätungen nennt die Bahn zumeist die vielen Baustellen im maroden Schienennetz sowie die überlasteten Fernverkehrsknoten, vor denen sich Züge immer wieder stauen.
Lesen Sie auch
(nen)
Künstliche Intelligenz
Schnellladesäulen an Autobahnen: Ausschreibung notwendig
Der Bau von Schnellladesäulen an Autobahnen darf nicht ohne Ausschreibung und Vergabeverfahren erfolgen. Das hat das Oberlandesgericht (OLG) Düsseldorf rechtskräftig entschieden (Az.: VII Verg 29/22).
Weiterlesen nach der Anzeige
Nach Angaben des Gerichts hatte die Autobahn GmbH des Bundes im April 2022 die bestehenden Konzessionsverträge mit der Tank & Rast GmbH sowie der Ostdeutsche Autobahntankstellen GmbH erweitert. Die Ergänzungsvereinbarung sah vor, dass die Betreiber zusätzlich Schnellladeinfrastruktur für E-Autos an Raststätten bereitstellen dürfen. Ein Vergabeverfahren hatte es dafür nicht gegeben.
Dagegen waren der Ladeinfrastruktur-Betreiber Fastned sowie zunächst auch Tesla vorgegangen. Der Vergabesenat des OLG hatte den Fall dem Europäischen Gerichtshof vorgelegt. Dieser hatte entschieden, dass eine wesentliche Änderung des Konzessionsvertrags vorliege und damit ein Vergabeverfahren erforderlich sei.
Daraufhin kam das OLG Düsseldorf nun zu dem Schluss, dass das Recht, Tankstellen für Fahrzeuge mit Benzin- oder Dieselantrieb zu betreiben, nicht automatisch den Betrieb von Schnellladesäulen für Elektrofahrzeuge umfasst.
Lesen Sie auch
(nie)
Künstliche Intelligenz
Neue LG-Fernseher: Neben OLEDs nun auch TVs mit Micro-RGB-LEDs
LG ist vor allem für OLED-TVs bekannt. Die organischen Displays aus den Serien B5, C5 und G5 bekommen ein Update auf B6, C6 und G6, der Hersteller hat sie weiter optimiert, die unverbindlichen Preisempfehlungen bleiben auf dem Niveau vom Vorjahr.
Weiterlesen nach der Anzeige
Neu hinzugekommen ist das Wallpaper-TV W6, ein gerade mal neun Millimeter dünnes Display, das mit einer speziellen Halterung an die Wand gehängt wird. Das ist eine Art Revival zum Wallpaper aus 2017, diesmal hat LG das Panel aber mit einem schmalen Metallrahmen stabilisiert und es wird drahtlos angesteuert.
Farbige LEDs im LCD-Backlight
Unter den neuen Highend-Modellen findet sich in diesem Jahr auch ein LCD-TV mit winzigen RGB-LEDs im Backlight. Damit holt LG nach, was Samsung und Hisense vorgemacht haben; beide bieten derartige Boliden bereits an.
Bei der Nomenklatur der mit winzigen LEDs ausgestatteten LCD-TVs macht es LG den Verbrauchern nicht leicht. So sind einzig die MRGB96-Modelle mit farbigen Mini-LEDs im lokal gedimmtem Backlight ausgestattet. Es deckt den Farbraum DCI-P3 laut LG vollständig ab, unterstützt VRR bis 165 Hertz und schafft bei Reduzierung der Bildauflösung auf Full HD per Motion Booster Frameraten bis zu 330 Hertz. Für die Bildoptimierung sorgt der gleiche Chipsatz wie in LGs OLED-Topmodellen.

Mit den TVs aus der Micro RGB96-Serie will nun auch LG LCD-TVs mit farbigen RGB-Mini-LEDs im lokal dimmbaren Backlight anbieten.
(Bild: Ulrike Kuhlmann / heise medien)
Der Hersteller preist die „Micro RGB evo TV“ als Flaggschiff an, das Modell MRGB96 gibt es in 75, 85 und 100 Zoll, also nur mit großen Diagonalen von 1,90 Meter, 2,16 Meter und 2,54 Meter. Auch die Preise sind entsprechend groß, als unverbindliche Preisempfehlung (UVP) nennt LG 6300 Euro und 9000 Euro respektive 10.000 Euro; erfahrungsgemäß fällt der tatsächliche Verkaufspreis aber recht sehr schnell unter die UVP.
Bei den MRGB8-Modellen mit Mini-LEDs handelt es sich dagegen um LCD-TVs mit Edge-Backlight aus weißen LEDs, die über keine oder allenfalls eine Handvoll dimmbarer Zonen verfügen. Spätestens der Preis spiegelt das auch wider: Die Geräte aus der MRGB88-Serie kosten maximal 2000 Euro (UVP) für einen 86-Zöller. Dafür bekommt man kein FALD-Backlight mit mehreren Hundert Dimming-Zonen.
Weiterlesen nach der Anzeige
Riesen-TVs für kleines Geld
Unter den neuen QNED-TVs mit farbverstärkenden Quantenpunkten und Edge-LED-Backlight aus herkömmlichen weißen LEDs finden sich einige größere Modelle, etwa den 115QNED93B6 mit 115 Zoll Diagonale (2,90 m) und 2,55 Meter Bildbreite für 6000 Euro, auch dies ein UVP, der voraussichtlich unterboten wird. Wie sehr die TV-Preise im Keller sind, zeigt sich am nächstkleineren QNED93 evo mit 85 Zoll respektive 2,16 Meter Diagonale: Der gut ausgestattete 85QNED93B6A soll gerade mal 1900 Euro kosten. Wer hier bei der Ausstattung ein wenig abspeckt, bekommt einen 85-zölligen QNED81 evo für gerade mal 1650 Euro, UVP versteht sich. Man kann erahnen, wohin sich die Preise für große Fernseher zur Fußball-WM bewegen werden.
Den zur CES angekündigten Bilderrahmenfernseher Gallery TV LX7 wird es ab Juli in 55 und 65 Zoll mit 1,40 Meter und 1,65 Meter Diagonale geben. Als magnetisch haftende Rahmen wird LG weiße Metallleisten sowie Holzleisten anbieten. Der 65-zöllige Gallery TV 65LX7B6LA soll 2000 Euro kosten, der 55-Zöller 55LX7B6LA 1750 Euro, jeweils UVP.
Alle genannten TVs haben 4K-Auflösung mit 3840 × 2160 Pixeln, mindestens einen TV-Tuner, mindestens drei HDMI-Eingänge und die besseren ein 120-Hertz-Panel, wovon insbesondere die Bewegtbildwiedergabe profitiert.
(uk)
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 3 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Social Mediavor 5 TagenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Künstliche Intelligenzvor 2 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
