Künstliche Intelligenz
DeepSeek-OCR: Bilder vereinfachen Texte für große Sprachmodelle
Viele Unternehmensdokumente liegen zwar als PDFs vor, sind aber häufig gescannt. Obwohl es simpel klingt, können diese Dokumente oftmals nur unter großen Mühen in Text gewandelt werden, insbesondere wenn die Struktur der Dokumente komplexer ist und erhalten bleiben soll. Auch Bilder, Tabellen und Grafiken sind häufige Fehlerquellen. In den letzten Monaten gab es daher eine wahre Flut von OCR-Software, die auf großen Sprachmodelle (LLMs) setzt.
Weiterlesen nach der Anzeige
Auch der chinesische KI-Entwickler DeepSeek steigt nun in diesen Bereich ein und veröffentlicht nach dem Reasoning-Modell R1 ein experimentelles OCR-Modell unter MIT-Lizenz. Auf den ersten Blick mag das verblüffen, denn OCR schien bisher nicht die Kernkompetenz von DeepSeek zu sein. Und tatsächlich ist das neue Modell erstmal eine Technikdemo für einen neuen Ansatz in der Dokumentenverarbeitung von großen Sprachmodellen.

Prof. Dr. Christian Winkler beschäftigt sich speziell mit der automatisierten Analyse natürlichsprachiger Texte (NLP). Als Professor an der TH Nürnberg konzentriert er sich bei seiner Forschung auf die Optimierung der User Experience.
DeepSeek versucht, lange Textkontexte in Bildern zu komprimieren, da sich hierdurch eine höhere Informationsdichte mit weniger Token darstellen lässt. DeepSeek legt die Messlatte für die Erwartungen hoch und berichtet, dass das Modell bei hohen Kompressionsraten (Faktor 10) noch eine Genauigkeit von 97 Prozent erreicht, bei einer noch stärkeren Kompression fällt zwar die Genauigkeit, bleibt dabei aber relativ hoch. Das alles soll schneller funktionieren als bei anderen OCR-Modellen und auf einer Nvidia A100-GPU bis zu 200.000 Seiten pro Tag verarbeiten.
Das Kontext-Problem
Large Language Models haben Speicherprobleme, wenn der Kontext von Prompts sehr groß wird. Das ist der Fall, wenn das Modell lange Texte oder mehrere Dokumente verarbeiten soll. Grund dafür ist der für effiziente Berechnungen wichtige Key-Value-Cache, der quadratisch mit der Kontextgröße wächst. Die Kosten der GPUs steigen stark mit dem Speicher, was dazu führt, dass lange Texte sehr teuer in der Verarbeitung sind. Auch das Training solcher Modelle ist aufwendig. Das liegt allerdings weniger am Speicherplatz, sondern auch an der quadratisch wachsenden Komplexität der Berechnungen. Daher forschen die LLM-Anbieter intensiv daran, wie sich man diesen Kontext effizienter darstellen kann.
Hier bringt DeepSeek die Idee ins Spiel, den Kontext als Bild darzustellen: Bilder haben eine hohe Informationsdichte und Vision Token zur optischen Kompression könnten einen langen Text durch weniger Token. Mit DeepSeek-OCR haben die Entwickler diese Grundidee überprüft – es ist also ein Experiment zu verstehen, das zeigen soll, wie gut die optische Kompression funktioniert.
Weiterlesen nach der Anzeige
Die Modellarchitektur
Der dazugehörige Preprint besteht aus drei Teilen: einer quantitativen Analyse, wie gut die optische Kompression funktioniert, einem neuen Encoder-Modell und dem eigentlichen OCR-Modell. Das Ergebnis der Analyse zeigt, dass kleine Sprachmodelle lernen können, wie sie komprimierte visuelle Darstellungen in Text umwandeln.
Dazu haben die Forscher mit DeepEncoder ein Modell entwickelt, das auch bei hochaufgelösten Bildern mit wenig Aktivierungen auskommt. Der Encoder nutzt eine Mischung aus Window und Global Attention verbunden mit einem Kompressor, der Konvolutionen einsetzt (Convolutional Compressor). Die schnellere Window Attention sieht nur einzelne Teile der Dokumente und bereitet die Daten vor, die langsamere Global Attention berücksichtigt den gesamten Kontext, arbeitet nur noch mit den komprimierten Daten. Die Konvolutionen reduzieren die Auflösung der Vision Token, wodurch sich der Speicherbedarf verringert.
DeepSeek-OCR kombiniert den DeepEncoder mit DeepSeek-3B-MoE. Dieses LLM setzt jeweils sechs von 64 Experten und zwei geteilte Experten ein, was sich zu 570 Millionen aktiven Parametern addiert. Im Gegensatz zu vielen anderen OCR-Modellen wie MinerU, docling, Nanonets, PaddleOCR kann DeepSeek-OCR auch Charts in Daten wandeln, chemische Formeln und geometrische Figuren erkennen. Mathematische Formeln beherrscht es ebenfalls, das funktioniert zum Teil aber auch mit den anderen Modellen.
Die DeepSeek-Entwickler betonen allerdings, dass es sich um eine vorläufige Analyse und um ebensolche Ergebnisse handelt. Es wird spannend, wie sich diese Technologie weiterentwickelt und wo sie überall zum Einsatz kommen kann. Das DeepSeek-OCR-Modell unterscheidet sich jedenfalls beträchtlich von allen anderen. Um zu wissen, wie gut und schnell es funktioniert, muss man das Modell jedoch selbst ausprobieren.
DeepSeek-OCR ausprobiert
Als Testobjekt dient eine Seite aus einer iX, die im JPEG-Format vorliegt. DeepSeek-OCR kann in unterschiedlichen Konfigurationen arbeiten: Gundam, Large und Tiny. Im Gundam-Modus findet ein automatisches Resizing statt. Im Moment funktioniert das noch etwas instabil, bringt man die Parameter durcheinander, produziert man CUDA-Kernel-Fehler und muss von vorne starten.

Möchte man den Text aus Dokumenten extrahieren, muss man das Modell geeignet prompten. DeepSeek empfiehlt dazu den Befehl . Als Ergebnis erhält man in einem Ordner die Markdown-Syntax und die zusätzlichen Bilder, außerdem eine visuelle Erklärung, welche unterschiedlichen Fragmente erkannt wurden. Im Gundam-Modus funktioniert das für die iX-Seite gut:

Im Gundam-Modus erkennt DeepSeek-OCR den gesamten Text und alle relevanten Elemente und kann auch Textfluss des Magazins rekonstruieren.
Den Text hat das Modell praktisch fehlerfrei erkannt und dazu auf einer RTX 4090 etwa 40 Sekunden benötigt. Das ist noch weit entfernt von den angepriesenen 200.000 Seiten pro Tag, allerdings verwendet Gundam auch nur ein Kompressionsfaktor von zwei: 791 Image Token entsprechen 1.580 Text Token. Immerhin erkennt das Modell den Textfluss im Artikel richtig. Das ist bei anderen Modellen ein gängiges Problem.
Mit etwa 50 Sekunden rechnet die Large-Variante nur wenig länger als Gundam, allerdings sind die Ergebnisse viel schlechter, was möglicherweise auch dem größeren Kompressionsfaktor geschuldet ist: 299 Image-Token entsprechen 2068 Text-Token. Im Bild verdeutlichen das die ungenauer erkannten Boxen um den Text – hier gibt es noch Optimierungsbedarf. Außerdem erkennt das Modell die Texte nicht sauber, teilweise erscheinen nur unleserliche Zeichen wie „¡ ¢“, was möglicherweise auf Kodierungsfehler und eigentlich chinesische Schriftzeichen hindeuten könnte.

Der Large-Modus komprimiert die Bilder stärker als Gundam, was zu einer ungenaueren Erkennung führt. Die Textboxen sind unschärfer abgegrenzt und es erscheinen unleserliche Zeichen, die auf eine fehlerhafte Kodierung hinweisen.
Fehler mit unleserlichen Zeichen gibt es beim Tiny-Modell nicht. Das rechnet mit einer Dauer von 40 Sekunden wieder etwas schneller und nutzt einen Kompressionsfaktor von 25,8 – 64 Image-Token entsprechen 1652 Text-Token. Durch die hohe Kompression halluziniert das Modell allerdings stark und erzeugt Text wie „Erweist, bei der Formulierung der Ab- fragen kann ein KI-Assistent helfen. Bis Start gilt es auf Caffès offiziell die Gewicht 50 Prozent der Früh-, der Prüfung und 50 Prozent für den Arzt- und NEUT und in Kürze folgen. (Spezielle)“. Das hat nichts mit dem Inhalt zu tun – auf diese Modellvariante kann man sich also nicht verlassen.

Die Tiny-Variante hat den höchsten Kompressionsfaktor für die Bilder und halluziniert bei der Text-Ausgabe stark. Hier sollte man sich also nicht auf die Ergebnisse verlassen.
Neben der Markdown-Konvertierung lässt DeepSeek-OCR auch ein Free OCR zu, das das Layout nicht berücksichtigt. Damit funktioniert das Modell sehr viel schneller und produziert auch in der Large-Version mit hoher Kompression noch gute Resultate. Diese Variante ist aber nur sinnvoll, wenn man weiß, dass es sich um Fließtexte ohne schwieriges Layout handelt.
Informationen aus Grafiken extrahieren
DeepSeek-OCR hat beim Parsing die im Artikel enthaltenen Bilder erkannt und separat abgelegt. Das Diagramm speichert das Modell dabei in einer schlecht lesbaren Auflösung.

Das mit Gundam extrahierte Diagramm ist verschwommen und lässt sich mit bloßem Auge nur noch schlecht entziffern.
Jetzt wird es spannend, denn DeepSeek-OCR soll aus diesem Diagramm auch Daten extrahieren können, das geht mit dem Prompt . Als Ergebnis erstellt das Modell die folgende Tabelle:
| 2024 | 2023 | 2022 | |
| I have a good understanding of what artificial intelligence is | 67% | 67% | 64% |
| I know which types of products and services use artificial intelligence | 52% | 51% | 50% |
| Products and services using artificial intelligence have profoundly changed my daily life in the past 3-5 years | 50% | 50% | 49% |
| Products and services using artificial intelligence will profoundly change my daily life in the next 3-5 years | 66% | 66% | 60% |
| Products and services using artificial intelligence have more benefits than drawbacks | 55% | 54% | 52% |
| I trust people not to discriminate or show bias toward any group of people | 45% | 45% | 44% |
| I trust artificial intelligence to not discriminate or show bias toward any group of people | 54% | 54% | 50% |
| I trust that companies that use artificial intelligence will protect my personal data | 47% | 50% | 50% |
| Products and services using artificial intelligence make me nervous | 39% | 39% | 39% |
Offenbar haben sich Fehler in die Tabelle eingeschlichen, aber zumindest hat das Modell den verwaschenen Text richtig erkannt. Hier zeigt sich die Stärke des Encoders, aber auch die englische Beschriftung vereinfacht den Prozess für das Modell. Die meisten Prozentwerte stimmen, ebenso die Struktur der Daten. Verwendet man eine höhere Auflösung, verbessern sich die Ergebnisse allerdings nur marginal.
Neben Diagrammen kann DeepSeek-OCR auch mathematische Formeln erkennen und sie in LaTeX-Syntax wandeln. Chemische Strukturformeln hat es auch im Repertoire und wandelt sie in das SMILES-Format.
Fazit
DeepSeek hat sich erneut einen spannenden technischen Ansatz ausgedacht und mit DeepSeek-OCR überzeugend demonstriert. Die Erkennung von Texten funktioniert besonders im Gundam-Modus schon gut, auch das Parsing der Diagramme ist überzeugend. Allerdings sind andere Modelle wie MinerU, Nanonets und PaddleOCR-VL besonders bei der reinen Texterkennung ebenfalls sehr gut und liefern teilweise sogar bessere Ergebnisse, da sie etwa getrennte Wörter zusammenführen. Besonders das ebenso nagelneue PaddleOCR-VL ist hervorzuheben, das Daten aus Diagrammen verlässlich extrahiert und in eigenen Tests sogar besser als DeepSeek-OCR funktionierte. Um OCR ist ein wahres Wettrennen entbrannt.
DeepSeek scheint mit dem Modell jedoch nicht nur auf OCR zu setzen, sondern möchte zeigen, dass die Vision Token eine gute Darstellung sind, um den Kontext in großen Sprachmodellen besonders kompakt zu speichern. Mit einer geringen Kompression funktioniert das schon gut, mit höherer Kompression leiden die Ergebnisse aber spürbar. Dieser Ansatz steht allerdings noch ganz am Anfang.
DeepSeek-OCR ist in allen Konfigurationen verhältnismäßig schnell. Experimente mit MinerU, Nanonets und PaddleOCR-VL waren alle mindestens 50 Prozent langsamer. Nanonets erzeugte immerhin eine Tabelle aus dem Diagramm, aber ohne die Jahreszahlen, dafür war der Fließtext sehr viel besser erkannt. Das nagelneue PaddleOCR-VL konnte das Diagramm sogar besser als DeepSeek-OCR erkennen, ist aber nicht auf chemische Strukturformeln und ähnliche Inhalte trainiert.
DeepSeek-OCR ist – wie von den Entwicklern deutlich vermerkt – eine Technologiedemonstration, die dafür schon äußerst gut funktioniert. Es bleibt abzuwarten, wie sich die Technologie in klassische LLMs integrieren lässt und dort zur effizienteren Verarbeitung von längeren Kontexten genutzt werden kann.
Weitere Informationen finden sich auf GitHub, Hugging Face und im arXiv-Preprint.
(pst)
Künstliche Intelligenz
heise+ Update vom 24. Oktober 2025: Lesetipps zum Wochenende
Apple hat kürzlich neue Geräte vorgestellt, und das ganz ohne das übliche Tamtam: ein Macbook Pro, ein iPad Pro sowie eine aktualisierte Variante der VR-Brille Vision Pro. Diese drei Geräte eint, dass sie vom neuen Kombiprozessor M5 angetrieben werden. Der soll wesentlich mehr Performance liefern als sein Vorgänger, insbesondere bei GPU- und SSD-Workloads.
Wir haben Macbook, iPad und Vision Pro in unsere Labore geholt und auf Herz und Nieren getestet. Beim Macbook Pro mit M5 zeigte sich, dass der Leistungszuwachs in der Tat angenehm hoch ausfiel, speziell bei der SSD. Überraschend war jedoch, dass sich die Akkulaufzeiten bei gleicher Batteriekapazität verschlechterten. Inwiefern das für Sie relevant ist, können Sie nach der Lektüre des ausführlichen Tests beurteilen.
Das iPad Pro mit M5 kommt weiterhin ohne Lüfter aus und glänzte im Test vor allem mit seinem (wahlweise entspiegelten) OLED-Display – beim Arbeiten, Streamen und Surfen eine Wohltat. Zusammen mit dem separat erhältlichen Stift Pencil Pro und dem Magic Keyboard dürfte es für manchen durchaus als Notebook-Ersatz taugen.
Das war die Leseprobe unseres heise-Plus-Artikels „heise+ Update vom 24. Oktober 2025: Lesetipps zum Wochenende“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Sinnliche Fotografie: c’t Fotografie 06 / 2025
Sinnliche Fotografie ist mehr als Technik – sie ist vor allem Gefühl und Begegnung. Nadine Wisser ist Boudoir-Fotografin. Sie teilt in der neuen Ausgabe der c’t Fotografie 06/2025 ihre persönliche Sicht auf diese intime fotografische Kunstform, für die sie auf natürliches Licht und Festbrennweiten setzt. So wirken die Aufnahmen nahbar und authentisch. Dabei geht es ihr weniger um eine perfekte Inszenierung, sie sucht echte Momente und möchte, dass ihre Modelle durch ihre Bilder Selbstwert entwickeln.
Weiterlesen nach der Anzeige
Boudoir hebt sich von klassischer Aktfotografie ab: Es zeigt nicht nur den Körper, sondern den Menschen dahinter – seine Stärke, Verletzlichkeit und Individualität. Wisser betont, dass Vertrauen und Verbindung entscheidend sind, um echte Emotionen vor der Kamera festzuhalten. Musik, abgestimmt auf die Stimmung des Models, sowie sorgfältig ausgewählte Kulissen und Möbel schaffen eine Atmosphäre von Geborgenheit und Intimität.

Die Fotografin gibt dazu praktische Tipps für alle, die sich an das Genre heranwagen wollen: „Beobachte Licht und Schatten, lasse Raum für Spontaneität und vermeide Distanz durch starre Anweisungen“. Ihre Ansätze laden dazu ein, Boudoir als sinnliches Zusammenspiel aus Technik und Empathie zu verstehen. Sie möchte Fotografinnen und Fotografen inspirieren, mehr wertzuschätzen und die Kontrolle über Posen und Abläufe immer mehr abzugeben.
Weitere Themen der Ausgabe
Blitzlicht für kreative Fotografie: Tilo Gockel gibt praktische Blitz-Tipps für Anfänger und Fortgeschrittene, zeigt die Grundlagen der Blitztechnik und spricht über die ideale Ausrüstung. Einfache Setups wie entfesselte Aufsteckblitze ersetzen aufwendiges Studioequipment und erlauben flexible, professionelle Lichtgestaltung. Im Praxisbeispiel begleitet Gockel eine Gruppe von Schmieden, die zwischen Feuer und Blitzlicht eine Pfanne fertigen.

Inhaltsverzeichnis der c’t Fotografie 06 / 2025
Mit der Leica SL3-S auf Safari: Sandra Petrowitz hat die spiegellose Systemkamera Leica SL3-S in den Nationalparks von Sambia getestet. Ausgestattet mit einem Sigma 150-600 mm F5-6,3 DG DN OS Sports Objektiv, stellte sie die Kamera unter extremen Bedingungen auf die Probe. Die SL3-S ist die schnellste Leica und überzeugt mit ihrer robusten Bauweise, einem fortschrittlichen Autofokussystem und beeindruckender Bildqualität. Allerdings gibt es auch Herausforderungen.
Weiterlesen nach der Anzeige
Effizientes Videomanagement: Mit den richtigen Tools und einer klaren Arbeitsweise wird die Videobearbeitung effizienter und weniger frustrierend. Thomas Gade zeigt, dass sich die Flut an Videodateien beherrschen lässt. Leser erfahren, wie sie Rohmaterial verlustfrei kürzen, organisieren und langfristig archivieren. Dabei gibt es Unterschiede zwischen der Foto- und der Videoverwaltung: Videos benötigen mehr Speicherplatz und verlangen eine durchdachte Struktur. Gade erklärt, wie man Speicherplatz spart und Videodaten langfristig nutzbar hält.
Porträts im perfekten Stil bearbeiten: Markus Thoma zeigt, wie Bildbearbeitung die Wirkung von Porträts entscheidend beeinflusst. Er erklärt Techniken für die Anpassung von Hauttönen, Farblooks und Kontrasten und zeigt, wie KI-gestützte Tools in Programmen wie Lightroom Classic oder Luminar Neo die Bearbeitung vereinfachen. Mit anschaulichen Beispielen führt er durch die Bearbeitung von klassischen Kopfporträts, stimmungsvollen „Moody Looks“, luftigen High-Key-Aufnahmen und geheimnisvollen Low-Key-Bildern.
Geschenke für Fotografen: Wenn Sie auf der Suche nach originellen und nützlichen Geschenkideen für Fotografie-Enthusiasten sind, bietet dieser Artikel einen Korb voller Ideen im Preisrahmen bis 150 Euro. Dazu gehören praktische Begleiter – von Reinigungs- und Sensor-Kits über Speicherkarten und Taschen bis zu kleinen Stativen und Beleuchtungslösungen, aber auch fotografische Inspiration durch Wandkalender oder eine Unterstützung bei der Präsentation erstellter Bilder.

Sie erhalten die aktuelle Ausgabe der c’t Fotografie (06/2025) für 12,90 Euro im heise shop. Dort sehen Sie auch eine komplette Inhaltsübersicht und erhalten Informationen über das exklusive Online-Zusatzmaterial, das wir über eine übersichtlich gestaltete Bedienoberfläche anbieten, dazu Vorschaubilder und das Editorial. Das E-Paper und die Ausgabe für Amazon Kindle kosten jeweils 12,49 Euro.
Tipp: Jeden Samstag versenden wir unseren Newsletter. Er enthält zusätzliche Geschichten, Anregungen und Informationen rund um die Fotografie – Anmeldung hier.
(cbr)
Künstliche Intelligenz
Eindrucksvolle Aufnahmen: Die Bilder der Woche 43
In dieser Woche spannt sich der fotografische Bogen von Island bis an die Mosel, von nächtlichen Nordlichtern bis zu digital illuminierten Stadtfassaden. Die gezeigten Aufnahmen verbindet ein scharfer Blick für Licht, Struktur und Atmosphäre. Ob Tierporträt, Landschaft oder Architektur – jede Aufnahme nutzt das vorhandene Licht auf eigene Weise, um Form und Stimmung einzufangen. Die Auswahl ist weniger eine Sammlung einzelner Motive als ein Einblick in unterschiedliche Herangehensweisen an das Sehen und fotografische Gestalten.
Weiterlesen nach der Anzeige
Polarlichter über Solheimasandur

Polarlichter über Solheimasandur
(Bild: Cathos)
An der Südküste Islands liegt dieses abgestürzte Flugzeugwrack aus dem Jahr 1973. Auf dem Wrack steht eine Person, umgeben von Polarlichtern, welche die karge Landschaft in magisches grünes Licht tauchen. Das Innere der Flugzeugkabine ist mit einem warmen Licht ausgeleuchtet, das einen Kontrast zum kalten Licht am Himmel bildet. Galeriefotograf Cathos gewählte Perspektive von unten verstärkt zudem die Weite der Landschaft und des Himmels.
On Top

On Top
(Bild: Philo81)
Zwei Löwinnen liegen auf einem großen Felsen eng beieinander, die Köpfe wachsam erhoben. Das Licht betont sowohl das Fell der Tiere als auch die Struktur des Steins, ohne dabei allzu hart zu sein. Der tiefe Kamerastandpunkt lässt die Tiere erhaben wirken, fast wie in freier Natur, auch wenn das Bild im Zoo entstanden ist. Galeriefotograf Philo81 erzählt über seiner Aufnahme: „Spätestens seit König der Löwen gibt es ja in der allgemeinen Wahrnehmung eine starke Verbindung zwischen Löwen und Hügeln, sodass sich das Motiv förmlich aufzwang. Darüber hinaus hatte ich das Glück des Fotografen, dass die beiden Löwinnen im richtigen Moment direkt zu mir geblickt haben.“
Festival_of_Lights_5
Weiterlesen nach der Anzeige

Festival_of_Lights_5
(Bild: Dirk Selig)
Farben fluten die Fassade des Berliner Doms, während der Himmel schwer über der Stadt hängt. Das Bild ist im Rahmen des „Festival of Lights“ entstanden. Jedes Jahr werden Anfang Oktober Berliner Sehenswürdigkeiten durch Illuminationen, lichtkünstlerische Projektionen und 3D-Mappings aufwendig in Szene gesetzt. Beleuchtet werden Bauwerke, Straßen und Plätze, so etwa das Brandenburger Tor, der Fernsehturm und der Berliner Dom. Das künstliche Licht verwandelt die historische Architektur in eine lebendige Leinwand und ändert die Perspektive auf das Bauwerk, das sich für einen Moment selbst neu erfindet. Daneben erstrahlt der Fernsehturm ebenfalls in atmosphärischem Licht – zwei Berliner Wahrzeichen, eingefangen in einem besonderen Moment.
Der Fotograf Dirk Selig berichtet: „Da die Illuminationen sehr häufig wechseln, ist die Verwendung eines Stativs keine sinnvolle Option. Die Herausforderung bestand darin, die Kamera über die Köpfe der anderen Besucher ruhig und gerade zu halten, um eine scharfe Aufnahme zu erzielen.“

Sunrise on the Beach

Sunrise on the Beach
(Bild: Ralph Derksen Fotografie)
Der Wind greift in Stoff und Haare, während die Sonne knapp über dem Wasser steht. Durch das bewusste Spiel mit dem Gegenlicht lässt der Fotograf die Silhouette der Reiterin in warmem Licht schimmern. Hinter der Porträtierten setzt die tief stehende Sonne markante Konturen und unterstreicht die filmische Stimmung der Szenerie. Besonders das Zusammenspiel von Licht, Wind und Stoff verleiht dem Moment eine gewisse Leichtigkeit. Sanfte Goldtöne prägen das Farbspektrum und verleihen dem Bild eine emotionale, träumerische Atmosphäre.
Schattenjäger

Schattenjäger
(Bild: .ChristiaN.)
Ein Turmfalke landet auf der Spitze eines kahlen Astwerks, eingefangen in völliger Silhouette. Nur die Konturen zeichnen sich gegen den graublauen Himmel ab, der sich gleichmäßig über die Szene legt. Das Licht ist diffus, ohne harte Schatten. Die Komposition lebt von der klaren Trennung zwischen Baum, Vogel und Himmel, von der Ruhe und Spannung zugleich ausgeht. Ein Moment, der still wirkt, aber in seinem Aufbau sehr bewusst gestaltet ist.
Herbstfarben

Herbstfarben
(Bild: Georg May)
Zwischen den goldgelben Weinbergen windet sich die Mosel ruhig durch das Tal. Das Licht der tief stehenden Sonne lässt die Gelb- und Brauntöne leuchten und betont die klaren Formen der Felder. Trotz der Weite wirkt das Bild ruhig und ausgeglichen, ein perfekter Moment zwischen Natur und Struktur.
Confluences…

Confluences…
(Bild: JeanFP)
Die weite Perspektive dieser Aufnahme lässt die Architektur des Musée des Confluences in Lyon monumental erscheinen. „Das Museum war bereits geschlossen, also mir blieb nichts anderes übrig, als den Außenbereich zu erkunden. Als die Person dort stand, konnte ich die Dimension erkennen. Die Linien und Flächen führen den Blick zu Person an der Treppe, die das Verhältnis zwischen Mensch und Bauwerk schön visualisiert“, erklärt Fotograf JeanFP. Minimalismus und Struktur erzeugen hier eine stille Spannung.
Die Bilder der Woche im Überblick:

Cathos
)
(caru)
-
UX/UI & Webdesignvor 2 MonatenDer ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 2 MonatenAdobe Firefly Boards › PAGE online
-
Social Mediavor 2 MonatenRelatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 2 MonatenPosit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 MonatenEventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 1 MonatFake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
UX/UI & Webdesignvor 1 WocheIllustrierte Reise nach New York City › PAGE online
-
Social Mediavor 1 MonatSchluss mit FOMO im Social Media Marketing – Welche Trends und Features sind für Social Media Manager*innen wirklich relevant?
