Künstliche Intelligenz
Still und monumental: Die Bilder der Woche 10
Stellt man sich zu den einzelnen Bildern der Woche die jeweiligen Geräusche des Moments vor, wird es still bleiben. Geräuschlos sitzt ein Schmetterling auf einer Blüte, ein Model schaut wortlos in die Kamera und gleich in mehreren Motiven geht die Sonne auf oder unter und lässt die Hektik des Tages verklingen.
Weiterlesen nach der Anzeige
Genießen Sie eine Woche leiser Motive und lassen Sie sich von ihnen entspannt ins Wochenende begleiten.
Deneb von Thomas Ruppel

Deneb
(Bild: Thomas Ruppel)
Eine junge Frau blickt ruhig und selbstbewusst in die Kamera. Weiches Licht modelliert ihren Körper und legt sanfte Schatten auf ihre Haut und ihre Haare. Der zurückhaltende Hintergrund lenkt nicht ab. Klare Linien und reduzierte Farben verleihen dem Porträt Ruhe und Tiefe. Das Bild lebt von seiner Präsenz und natürlichen Schönheit.
Pauli Kirche von ispin

Pauli Kirche
(Bild: ispin)
Die Pauli Kirche in Braunschweig ragt kraftvoll in den Himmel, umgeben von frischem Grün. Das historische Gemäuer wirkt solide und ruhig, während die zarten Blätter Leichtigkeit ins Bild bringen. Der Turm strebt nach oben und das helle Tageslicht zeichnet Strukturen und lässt die Fassade plastisch erscheinen. So entsteht eine Architekturansicht mit starker Vertikale. Anstatt das frühlingshafte Grün original im Bild zu behalten, entschied sich der Fotograf dafür, das Motiv zu entsättigen und darauf leicht zu tönen.
Weiterlesen nach der Anzeige
Morgenstimmung im Februar von AHI 1975

Morgenstimmung
(Bild: AHI 1975)
Das Morgenlicht legt sich über die winterliche Landschaft. Der Himmel schimmert in den Farben Rot, Gelb und Orange. Die Bäume im Vordergrund sind als dunkle Silhouetten im Dunst zu erkennen. Die Komposition bleibt klar und ruhig. Der Horizont und die Wolken teilen das Bild ausgewogen auf. Das Licht verstärkt den Kontrast und erzeugt eine fast meditative Stimmung.
Das letzte Licht von dave-derbis

Das letzte Licht
(Bild: dave-derbis)
Die letzten Sonnenstrahlen tauchen die Felsen der Dolomiten in warmes Gold. Während die Gipfel noch im Licht baden, versinken Wald und Täler schon im Schatten. Herbst, Alpen, Natur – alles wirkt still und kraftvoll zugleich. Die Staffelung von Wald, Bergen und Himmel verleiht dem Bild Tiefe und Ruhe. Ein kurzer Moment, bevor das Licht verschwindet. Genau dieser Augenblick ist es, der Landschaftsfotografie so besonders macht.
Margarite weiß-gelb von vicia-faba

Margarite weiß-gelb
(Bild: vicia-faba)
Im Mittelpunkt dieses Bildes steht eine Sammlung weiß-gelber Margeriten. Ihre feinen Blütenblätter leuchten hell und ihr sattes Gelb im Zentrum strahlt wie eine kleine Sonne. Alles wirkt frisch und klar. Weiß und Gelb setzen einen starken Kontrast. Die Kamera ist dabei nah dran. Die runde Form der Blüten ordnet das Bild. Ein einfaches Motiv, stark umgesetzt. Das Bild zeigt, wie schön die Natur im Detail wirkt – man muss nur genau hinsehen.
Schweriner Schloss 6 von DiSe.fotografie

Schweriner Schloss
(Bild: DiSe.fotografie)
Die Türme des Schweriner Schlosses ragen in den Himmel. Dunkle Dächer und helle Fassaden treffen auf leichte Wolken. Genau zwischen zwei Gebäudeteilen blitzt die Sonne hervor und formt einen strahlenden Sonnenstern. Die leicht nach oben gerichtete Aufnahme betont die Höhe der Architektur. Klare Vertikalen geben Halt. Das Gegenlicht sorgt für kräftige Kontraste und lässt die Konturen markant wirken. Der Sonnenstern bildet einen leuchtenden Mittelpunkt, der den Blick sofort auf sich zieht.
Fotograf Dirk Selig fotografierte dieses Bild im Rahmen einer Fotoreise und wollte ein Bild abseits der bereits zahlreich gesehenen Motive erschaffen. „Als Kontrast zu diesen Bildern wollte ich auf die vielen kleinen, schönen Details des Schlosses aufmerksam machen. Insbesondere die Türmchen fand ich sehr spannend. Mit einer kleinen Blendenöffnung habe ich noch den Sonnenstern aufs Bild ‚gezaubert’.“
C-Falter II von wituweb

C-Falter II
(Bild: wituweb)
Ein C-Falter landet auf violettfarbenen Blüten und breitet seine orangefarbenen Flügel weit aus. Schwarze Punkte und die gezackten Ränder machen ihn unverwechselbar. Die Kamera geht nah heran, sodass die geringe Schärfentiefe den Blick direkt auf das Muster und die Struktur der Flügel lenkt. Kräftiges Licht bringt die Farben zum Strahlen und hebt jedes Detail hervor. So wird aus einer kleinen Szene im Garten ein großer Auftritt. Farbe, Nähe und Klarheit lassen den Moment lebendig werden.
(vat)
Künstliche Intelligenz
Schnellladesäulen an Autobahnen: Ausschreibung notwendig
Der Bau von Schnellladesäulen an Autobahnen darf nicht ohne Ausschreibung und Vergabeverfahren erfolgen. Das hat das Oberlandesgericht (OLG) Düsseldorf rechtskräftig entschieden (Az.: VII Verg 29/22).
Weiterlesen nach der Anzeige
Nach Angaben des Gerichts hatte die Autobahn GmbH des Bundes im April 2022 die bestehenden Konzessionsverträge mit der Tank & Rast GmbH sowie der Ostdeutsche Autobahntankstellen GmbH erweitert. Die Ergänzungsvereinbarung sah vor, dass die Betreiber zusätzlich Schnellladeinfrastruktur für E-Autos an Raststätten bereitstellen dürfen. Ein Vergabeverfahren hatte es dafür nicht gegeben.
Dagegen waren der Ladeinfrastruktur-Betreiber Fastned sowie zunächst auch Tesla vorgegangen. Der Vergabesenat des OLG hatte den Fall dem Europäischen Gerichtshof vorgelegt. Dieser hatte entschieden, dass eine wesentliche Änderung des Konzessionsvertrags vorliege und damit ein Vergabeverfahren erforderlich sei.
Daraufhin kam das OLG Düsseldorf nun zu dem Schluss, dass das Recht, Tankstellen für Fahrzeuge mit Benzin- oder Dieselantrieb zu betreiben, nicht automatisch den Betrieb von Schnellladesäulen für Elektrofahrzeuge umfasst.
Lesen Sie auch
(nie)
Künstliche Intelligenz
Neue LG-Fernseher: Neben OLEDs nun auch TVs mit Micro-RGB-LEDs
LG ist vor allem für OLED-TVs bekannt. Die organischen Displays aus den Serien B5, C5 und G5 bekommen ein Update auf B6, C6 und G6, der Hersteller hat sie weiter optimiert, die unverbindlichen Preisempfehlungen bleiben auf dem Niveau vom Vorjahr.
Weiterlesen nach der Anzeige
Neu hinzugekommen ist das Wallpaper-TV W6, ein gerade mal neun Millimeter dünnes Display, das mit einer speziellen Halterung an die Wand gehängt wird. Das ist eine Art Revival zum Wallpaper aus 2017, diesmal hat LG das Panel aber mit einem schmalen Metallrahmen stabilisiert und es wird drahtlos angesteuert.
Farbige LEDs im LCD-Backlight
Unter den neuen Highend-Modellen findet sich in diesem Jahr auch ein LCD-TV mit winzigen RGB-LEDs im Backlight. Damit holt LG nach, was Samsung und Hisense vorgemacht haben; beide bieten derartige Boliden bereits an.
Bei der Nomenklatur der mit winzigen LEDs ausgestatteten LCD-TVs macht es LG den Verbrauchern nicht leicht. So sind einzig die MRGB96-Modelle mit farbigen Mini-LEDs im lokal gedimmtem Backlight ausgestattet. Es deckt den Farbraum DCI-P3 laut LG vollständig ab, unterstützt VRR bis 165 Hertz und schafft bei Reduzierung der Bildauflösung auf Full HD per Motion Booster Frameraten bis zu 330 Hertz. Für die Bildoptimierung sorgt der gleiche Chipsatz wie in LGs OLED-Topmodellen.

Mit den TVs aus der Micro RGB96-Serie will nun auch LG LCD-TVs mit farbigen RGB-Mini-LEDs im lokal dimmbaren Backlight anbieten.
(Bild: Ulrike Kuhlmann / heise medien)
Der Hersteller preist die „Micro RGB evo TV“ als Flaggschiff an, das Modell MRGB96 gibt es in 75, 85 und 100 Zoll, also nur mit großen Diagonalen von 1,90 Meter, 2,16 Meter und 2,54 Meter. Auch die Preise sind entsprechend groß, als unverbindliche Preisempfehlung (UVP) nennt LG 6300 Euro und 9000 Euro respektive 10.000 Euro; erfahrungsgemäß fällt der tatsächliche Verkaufspreis aber recht sehr schnell unter die UVP.
Bei den MRGB8-Modellen mit Mini-LEDs handelt es sich dagegen um LCD-TVs mit Edge-Backlight aus weißen LEDs, die über keine oder allenfalls eine Handvoll dimmbarer Zonen verfügen. Spätestens der Preis spiegelt das auch wider: Die Geräte aus der MRGB88-Serie kosten maximal 2000 Euro (UVP) für einen 86-Zöller. Dafür bekommt man kein FALD-Backlight mit mehreren Hundert Dimming-Zonen.
Weiterlesen nach der Anzeige
Riesen-TVs für kleines Geld
Unter den neuen QNED-TVs mit farbverstärkenden Quantenpunkten und Edge-LED-Backlight aus herkömmlichen weißen LEDs finden sich einige größere Modelle, etwa den 115QNED93B6 mit 115 Zoll Diagonale (2,90 m) und 2,55 Meter Bildbreite für 6000 Euro, auch dies ein UVP, der voraussichtlich unterboten wird. Wie sehr die TV-Preise im Keller sind, zeigt sich am nächstkleineren QNED93 evo mit 85 Zoll respektive 2,16 Meter Diagonale: Der gut ausgestattete 85QNED93B6A soll gerade mal 1900 Euro kosten. Wer hier bei der Ausstattung ein wenig abspeckt, bekommt einen 85-zölligen QNED81 evo für gerade mal 1650 Euro, UVP versteht sich. Man kann erahnen, wohin sich die Preise für große Fernseher zur Fußball-WM bewegen werden.
Den zur CES angekündigten Bilderrahmenfernseher Gallery TV LX7 wird es ab Juli in 55 und 65 Zoll mit 1,40 Meter und 1,65 Meter Diagonale geben. Als magnetisch haftende Rahmen wird LG weiße Metallleisten sowie Holzleisten anbieten. Der 65-zöllige Gallery TV 65LX7B6LA soll 2000 Euro kosten, der 55-Zöller 55LX7B6LA 1750 Euro, jeweils UVP.
Alle genannten TVs haben 4K-Auflösung mit 3840 × 2160 Pixeln, mindestens einen TV-Tuner, mindestens drei HDMI-Eingänge und die besseren ein 120-Hertz-Panel, wovon insbesondere die Bewegtbildwiedergabe profitiert.
(uk)
Künstliche Intelligenz
KI als Spiegel: Fehlende Bedeutung in Code und Architektur
Programmieren ist längst weniger das Schreiben von Code als vielmehr das Verstehen von Systemen. Jede Codebasis wird weit öfter gelesen als erweitert. Und genau dort zeigt sich ein häufiges strukturelles Defizit: Das „Warum“ der Entscheidungen ist meist unsichtbar.
Weiterlesen nach der Anzeige

Nicolai Wolko ist Softwarearchitekt, Consultant und Mitgründer der WBK Consulting AG. Er unterstützt Unternehmen bei komplexen Web- und Cloudprojekten und wirkt als Sparringspartner sowie Gutachter für CTOs. Fachbeiträge zur modernen Softwarearchitektur veröffentlicht er regelmäßig in Fachmedien und auf seinem Blog.
Wer ein bestehendes System analysiert – ob Mensch oder KI –, trifft zwar auf Klassen und Module, erkennt jedoch nicht unmittelbar, wie diese zusammenhängen und wofür sie stehen. KI-Modelle spiegeln dieses Problem besonders deutlich: Sie erkennen Muster, aber keine Herleitung. Eine aktuelle Übersichtsstudie aus dem Jahr 2025 kommt zu dem Ergebnis, dass ein erheblicher Teil der Fehler in generiertem Code nicht syntaktischer Art ist, sondern logisch-semantischen Fehlannahmen unterliegt. Modelle folgen vorhandenen Strukturen. Wird die zugrunde liegende Bedeutung und Herleitung nicht sichtbar, dann halluzinieren sie – so wie auch Menschen raten oder recherchieren müssten.
Diese Beobachtung zeigt, dass wir Abstraktion perfektioniert, aber Verständlichkeit oft unterschätzt haben.
Der lange Kampf gegen mentale Last
In der Rückschau wirkt die Geschichte der Softwareentwicklung wie ein kontinuierlicher Versuch, mentale Last zu reduzieren. Assembler verließ die Ebene direkter Maschinenbefehle, Hochsprachen entfernten Hardwaredetails, Frameworks umhüllten Komplexität mit wenigen Zeilen Code. Mit jedem Schritt rückte der Fokus weg vom „Wie“ und hin zum „Was“:

Die zunehmende Abstraktion in der Softwareentwicklung verschiebt den Fokus vom „Wie“ zum „Was“: Sie reduziert die syntaktische Last, erschwert aber den direkten Zugang zur fachlichen Bedeutung.
Doch die Entlastung ist ambivalent. Abstraktionen sparen Tipparbeit, erzeugen aber zusätzliche Interpretationsarbeit. Eine Funktion wie calculateTotal() versteckt Implementation, aber auch Bedeutung: Welches Total? Welche Regeln? Welche Domäne? Welche Ausnahmen? Eine Zeile Code wird zum mentalen Sprungbrett, das die Lesenden zwingt, das Unsichtbare zu rekonstruieren.
Weiterlesen nach der Anzeige
Mit zunehmender Reife der Softwareentwicklung rückte eine neue Art der Schwierigkeit in den Mittelpunkt. Das Schreiben von Code wurde deutlich einfacher, doch das gemeinsame Verständnis der dahinter liegenden Bedeutung anspruchsvoller. Der entscheidende Engpass verlagerte sich von der technischen Umsetzung zur Semantik. Eric Evans beschrieb 2003 in seinem Buch „Domain-Driven Design“ erstmals konsequent, dass die eigentliche Herausforderung in der Softwareentwicklung in der vom Code repräsentierten Bedeutung liegt (vgl. Eric Evans: Domain-Driven Design: Tackling Complexity in the Heart of Software, Addison-Wesley, 2003).
Domain-driven Design (DDD) war ein Durchbruch, denn das Konzept verschob die Diskussion von implementierungsgetriebenen Strukturen hin zur fachlichen Semantik. Konzepte wie Ubiquitous Language, Bounded Contexts und Aggregates stärken das gemeinsame Verständnis über Begriffe und Abläufe. Damit macht DDD ein Problem sichtbar, das bis heute besteht: Bedeutung lässt sich modellieren, bleibt aber in vielen Systemen im fertigen Code nur indirekt erkennbar.
Neben DDD verfolgen auch andere Architekturprinzipien wie Clean Code dieselbe Kernidee: Code verständlich machen. Sie entstanden aus der Einsicht, dass die technische Struktur nur ein Teil des Problems, die eigentliche Hürde aber das Verstehen ist.
Diese Konzepte setzen jedoch voraus, dass das erforderliche fachliche Verständnis bereits vorhanden ist. Sie schaffen eine Struktur, die dieses Wissen abbildet, machen die zugrunde liegenden Entscheidungen im Code selbst aber nur begrenzt sichtbar.
Aus der Forschung: Wie mentale Last entsteht
Mentale Last entsteht überall dort, wo ein System Bedeutung nicht ausdrückt, sondern das Verständnis den Leserinnen und Lesern überlässt. Dieser Effekt ist gut untersucht.
Bei Untersuchungen mit funktioneller Magnetresonanztomographie (fMRT) zeigte sich, dass Codeverständnis mit messbarer kognitiver Belastung einhergeht und dass diese Belastung je nach Verständlichkeit des Codes variiert. Fehlen Orientierung und Kontext, steigt der mentale Aufwand: Das Gehirn muss mehr kognitive Arbeit investieren, um Zusammenhänge herzustellen, die im Code nicht unmittelbar ersichtlich sind.
Scheinbare Banalitäten können schon messbare Auswirkungen haben, wie eine andere Studie zeigt, in der ausgeschriebene Wort-Identifier rund 19 Prozent schneller verstanden wurden als Kürzel oder Einzelbuchstaben.
In der Programmierpraxis zeigt sich mentale Last besonders deutlich in drei Situationen:
1. Unmarkierte Bedeutungswechsel
Beispiel: Ein Vorgang wandelt sich im Code von „Order“ zu „Booking“, ohne dass der Wechsel sichtbar wird. Für das Gehirn bedeutet das einen Kontextsprung. Es fehlt die semantische Markierung, die den Übergang verständlich macht.
2. Implizite Regeln
Beispiel: Ein Parameter darf nur in bestimmten Zuständen gesetzt werden. Das System läuft, aber es drückt nicht aus, welche Annahme gilt. Leserinnen und Leser kompensieren das durch mentale Simulation.
3. Struktur ohne semantische Orientierung
Beispiel: Technische Schichten trennen Abläufe, aber nicht Begriffe. Das Gehirn folgt dem Code, aber nicht dem fachlichen Gedankengang. Orientierung entsteht erst nach mehreren inneren Rekonstruktionsschritten.

Drei Quellen mentaler Last im Code mit einem gemeinsamen Muster: Der Code zeigt Struktur, aber kaum Bedeutung – das Gehirn muss die Lücken füllen.
Die Beispiele haben ein gemeinsames Muster: Der Code trägt syntaktische Struktur, nicht semantische Bedeutung.
KI als Spiegel
Wie fügt sich nun künstliche Intelligenz (KI) in diese Betrachtungen? Die Geschichte der Softwareentwicklung hat große Fortschritte vom „Wie“ zum „Was“ gemacht. KI soll diesen Weg nun abschließen, indem sie ein Code-Interface in natürlicher Sprache gestaltet. Einstweilen gibt es hier aber noch spürbare Hürden.
Eine der faszinierendsten Eigenschaften von Large Language Models (LLMs) ist, dass sie den Kontext ihres Prompts spiegeln. Eine Studie aus dem Jahr 2023 hat untersucht, welche Arten von Codefehlern LLMs machen. Dabei zeigten sich wiederkehrende Fehlerklassen: falsche Annahmen und inkorrekte logische Richtung. Sprich: keine Syntaxpatzer, sondern Hinweise auf eine fehlende Entscheidungsspur im Kontext. Modelle reproduzieren Struktur, verfehlen aber häufig Bedeutung – ganz so wie es Menschen oft tun, wenn sie ohne Vorwissen in ein System stolpern.
Noch deutlicher wird dieser Effekt, wenn die Lesbarkeit bewusst verschlechtert wird. Bei obfuskiertem Code bricht die Leistung spürbar ein. Erfahrene Entwicklerinnen und Entwickler können sich in solchen Fällen teilweise mit Erfahrung und analytischem Vorgehen behelfen, arbeiten dabei jedoch langsamer, unsicherer und mit höherem Fehlerrisiko. Hier wird sehr deutlich: Nimmt die Lesbarkeit ab, sinkt die Leistungsfähigkeit – bei Menschen wie auch bei KI-Modellen. Beide sind auf explizite Hinweise angewiesen, um Bedeutung zuverlässig zu erschließen.
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 3 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Social Mediavor 5 TagenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Künstliche Intelligenzvor 2 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
