Künstliche Intelligenz
Halb über, halb unter Wasser: c’t Fotografie 3/26
Echte Split-Level-Aufnahmen sind keine Photoshop-Tricks, sondern handwerkliche Höchstleistung. Der Wiener Fotograf Thomas Haider nutzt die Technik seit Jahrzehnten für seine Unterwasser-Naturfotografie und dokumentiert damit Projekte wie „Wiener Wildnis“ oder die Artenvielfalt in West-Papua. In der c’t Fotografie 03/2026 erklärt er, worauf es dabei ankommt.
Weiterlesen nach der Anzeige
(Bild: heise )
Zentrales Werkzeug ist ein Domeport: eine kuppelförmige Glasscheibe vor dem Objektiv, montiert per Bajonett auf einem wasserdichten Kameragehäuse. Die Wölbung erhält den großen Bildwinkel von Weitwinkel- oder Fisheyeobjektiven. Wichtig: Unter Wasser entsteht ein virtuelles Bild, das gekrümmt ist und näher an der Kamera liegt. Fotografen müssen daher stets auf den Unterwasserbereich fokussieren und mit Blenden zwischen f/16 und f/22 arbeiten, um auch die Ecken scharf zu bekommen. Große Domescheiben (bis 18 Zoll bei Acryl) liefern bessere Ergebnisse als kleine, sind aber schwerer und teurer.
Die Brennweite richtet sich nach dem Sensorformat: An MFT entspricht ein 8-Millimeter-Fisheye dem Bildwinkel eines 16-Millimeter-Objektivs an Vollformat. Kleinere Sensoren erlauben kompakte Domes bei gleicher Eckschärfe.
Wassertropfen auf der Scheibe ruinieren jedes Bild. Haider schwört auf den Spucketrick: Enzyme verhindern Tropfenbildung, kurzes Eintauchen erzeugt einen sauberen Wasserfilm – der perfekte Moment zum Auslösen im Serienbildmodus.

Aufnahmen wie diese sind nur mit einem Domeport möglich.
Bei den Kameraeinstellungen empfiehlt er für Mittagsaufnahmen ISO 400 bis 1600, Verschlusszeiten ab 1/125 Sekunde und Matrixmessung. Der Autofokus überfordert sich an der wandernden Wasserlinie – manuelles Fokussieren ist Pflicht. In den Tagesrandzeiten helfen Unterwasserblitze, den dunkleren Unterwasserbereich auszuleuchten.
Komposition lebt von dynamischen, oft S-förmigen Wasserlinien und spannenden Details über und unter der Oberfläche. In der Nachbearbeitung trennt Haider in Lightroom mit linearen Verläufen Über- und Unterwasserbereich, hellt unten auf, dunkelt oben ab und erhöht lokal den Kontrast.
Weiterlesen nach der Anzeige
Sein eindrucksvollstes Erlebnis: Bei Aufnahmen für die „Wiener Wildnis“ klammerte sich ein Krötenmännchen während der Paarungszeit an seine Hand – ein Beweis, wie nah Naturfotografie an die Tiere heranführen kann, wenn man sie respektvoll behandelt.
Weitere Themen
Objektive und Kameras für Video. Thomas Hoffmann nimmt den boomenden Markt rund ums Filmen mit spiegellosen Kameras unter die Lupe. Klassische Fotoobjektive zeigen beim Videodreh schnell ihre Schwächen: starkes Focus Breathing, unscharfe varifokale Zooms und sichtbar springende Blenden. Cine-Objektive lösen diese Probleme mit mechanisch gekoppelten Fokusringen, stufenloser Blende und parfokaler Konstruktion – allerdings zu Preisen zwischen 500 Euro und 25.000 Euro. Dazu kommen noch Follow-Focus, Mattebox und Rig, sodass die Gesamtinvestition schnell vierstellig wird.
Doch selbst die beste Optik nützt wenig ohne den richtigen Kamerabody. Im zweiten Teil der Serie zeigt Hoffmann, welche sechs Faktoren wirklich über die Cine-Qualität entscheiden: Codec-Tiefe, Dynamikumfang, Rolling Shutter, Hitzemanagement, Sensorauslese und Fokusassistenz. Von der günstigen Hybridkamera unter 1500 Euro bis zur dedizierten Cinema-Kamera für 6000 Euro und mehr – wir ordnen den Markt und geben konkrete Empfehlungen.
Welche Fotofilter wirklich nötig sind. Nicolas Alexander Otto stellt sechs gängige Filtertypen auf den Prüfstand: UV-, Pol-, Grau-, Verlaufs-, Diffusions- und Lichtverschmutzungsfilter. Sein Maßstab: 20 Jahre Praxis als Landschaftsfotograf.
Manche dieser Filter sind im digitalen Zeitalter schlicht überflüssig geworden – andere lassen sich auch durch die beste Bildbearbeitung nicht ersetzen. Otto zeigt, worauf es bei Langzeitbelichtungen ankommt, wann ein HDR-Workflow in Lightroom die bessere Wahl ist als ein klassischer Verlaufsfilter und welches Zubehör in keiner Fototasche fehlen sollte.

Portfolio Nora Schwarz
Nora Schwarz
)
Wie Japan die deutsche Fotoindustrie überholte. Sandra Petrowitz erzählt die spannende Geschichte hinter Canon, Nikon, Sony und Co. Nach der Öffnung Japans 1854 baute das Land mit europäischem Know-how eine optische Industrie auf. Deutsche Ingenieure wie Billy Neumann und Willy Heilemann halfen ab den 1920er-Jahren bei Nippon Kogaku und Minolta.
Den entscheidenden Schub brachte die US-Besatzung nach 1945: Über die PX-Läden auf Militärbasen verkauften japanische Hersteller Devisen-Kameras an US-Soldaten. Der Kriegsfotograf David Douglas Duncan entdeckte 1950 in Tokio die Nikkor-Objektive und machte sie im Koreakrieg weltberühmt. Ein goldener „PASSED“-Aufkleber des 1954 gegründeten Japan Camera Inspection Institute polierte den Ruf von „Made in Japan“ auf.
Die deutsche Industrie verschlief die Entwicklung: Die überkomplizierte Zeiss Contarex verlor gegen die modulare Nikon F von 1959. 1962 produzierte Japan erstmals mehr Kameras als Westdeutschland. Innovationen wie TTL-Belichtungsmessung in der Pentax Spotmatic (1964) besiegelten den deutschen Niedergang.
Stress im Fotografengraben. Nico Ernst beschreibt, wie hart der Job auf Open-Air-Festivals wie dem Wacken Open Air wirklich ist. 30 Fotografen kämpfen vor 40 Meter breiten Bühnen um Bilder – bei 30 Grad im Schatten, kurzfristig 800 Grad bei Pyrofontänen und unter strenger Zeitvorgabe: maximal 15 Minuten oder drei Songs pro Band.
Die Akkreditierung beginnt Monate vorher. Manche Superstars suchen ihre Fotografen selbst aus, bei Guns N‘ Roses 2025 in Wacken galt sogar ein totales Fotografierverbot. Standard-Equipment ist ein 70–200 mm f/2.8, dazu ein zweiter Body mit 24–70 mm. Stative sind wegen Verletzungsgefahr verboten, Blitze ohnehin.
Zur Pflichtausrüstung zählen guter Gehörschutz vom Akustiker, eingelaufene Schuhe, Regenschutz und schnelle Speicherkarten.

Der Inhalt der c’t Fotografie 3/2026 auf einen Blick.
Sie erhalten die aktuelle Ausgabe der c’t Fotografie (3/2026) für 13,90 Euro im heise shop. Dort sehen Sie auch eine komplette Inhaltsübersicht und erhalten Informationen über das exklusive Online-Zusatzmaterial, das wir über eine übersichtlich gestaltete Bedienoberfläche anbieten, dazu Vorschaubilder und das Editorial. Das E-Paper und die Ausgabe für Amazon Kindle kosten jeweils 12,90 Euro.
(tho)
Künstliche Intelligenz
Krach aus Kleingeld: Auf der Superbooth lärmen Weltpremieren gegen Langeweile
In Berlin kommen von Donnerstag noch bis Sonntag Musiker, Nerds und Technikbegeisterte auf der Superbooth zusammen. Über 300 Aussteller zeigen ihre neuesten Synthesizer und elektronischen Module und laden Besucher zum Hands-on ein. Hier laufen keine Anzugträger und PR-Hostessen herum, sondern Entwickler, die ihre Platinen zum Teil noch selbst von Hand gelötet haben. Statt Hochglanz-Marketing gibt es Gespräche über Schaltungsdesign, Filterresonanzen und darüber, warum ein Delay gerade wie ein Unterwasser-Echo klingt.
Weiterlesen nach der Anzeige
Die Superbooth hat sich zum wichtigsten und größten Treffen der Branche gemausert. Nirgendwo sonst gibt es so viele Weltpremieren von Prototypen zu sehen und zu hören. Initiator Andreas Schneider betreibt in Berlin den berühmten Schneidersladen, der Elektronikpioniere auf der ganzen Welt beliefert. Gerade deshalb funktioniert die Messe so gut: Sie wirkt trotz ihres Wachstums immer noch eher wie ein chaotisches Treffen von Klangbastlern als wie eine klassische Technikmesse.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externes Video (TargetVideo GmbH) geladen.
Unser Rundgang über das FEZ zeigt die interessantesten neuen Synthesizer zum Sound-Design aus Berlin.
Superbooth 2026:
(Quelle: Robin Ahrens, Hartmut Gieselmann/heise Medien)
Um Neulingen den Einstieg zu erleichtern, setzen viele Hersteller inzwischen auf kleine Desktop-Boxen, die zum Spielen mit der Hand einladen und sich oft einfach mit einem Laptop und einer DAW-Software kombinieren lassen. Wir sind am ersten Messetag über das Gelände gezogen und haben Dutzende Synthesizer und Module ausprobiert. Manche klangen wie verstimmte Raumsonden aus einem Science-Fiction-Film der 60er Jahre, andere verwandelten einfache Impulse in wabernde Rhythmuslandschaften.
Wir stellen sechs besonders interessante Neuerungen von Buchla, Soma, Verbos und Make Noise vor, die zeigen, wie unkonventionell Entwickler heute neue Instrumente bauen und dass die Branche den Einbruch durch die Corona-Krise inzwischen überwunden hat.
Die Krise ist vorbei
Auslöser des Booms war ein in den 90er Jahren vom deutschen Elektroingenieur Dieter Doepfer entwickeltes Standardisierungsformat namens Eurorack, das Maße und Spannungen der einzelnen Module festlegt, damit sie ihre Signale passend übertragen und in normierte Koffer passen. Durch das offene Format konnten viele kleine Firmen mit nur ein oder zwei Entwicklern neue Module in kleinen Stückzahlen entwerfen, sodass ein buntes Ökosystem entstand.
Doch Corona versetzte die Branche in eine schwere Krise: Musiker, die nicht auftreten konnten, hatten auch keine Knete für neue Instrumente. Viele kleinere Hersteller mussten aufgeben, meldeten Insolvenz an oder wurden von größeren Konsortien übernommen. Das traf zuletzt selbst Branchengrößen wie Moog, Elektron oder Native Instruments.
Weiterlesen nach der Anzeige

Der „Vater“ des Eurorack Dieter Doepfer (links) erzählte im Interview von seinen Plänen für Quadrophonie-Module.
(Bild: c’t / heise Medien)
Doch langsam lichten sich die Reihen, und die überlebenden Firmen haben wieder volle Auftragsbücher. Das bestätigte uns Dieter Doepfer, den wir auf seinem Stand auf der Superbooth trafen: „Aus Gründen, die wir selbst nicht nachvollziehen können, haben wir wieder den Stand von vor Corona erreicht. Es hat sich erstaunlicherweise alles wieder erholt.“ Doepfer hat sich inzwischen aus dem Tagesgeschäft zurückgezogen und berät seine Nachfolger bei neuen Modul-Ideen.
So zeigt Doepfer auf der Messe eine Reihe kleiner Hilfsmodule im platzsparenden 1U-Format, das nur ein Drittel der Höhe typischer Eurorack-Module benötigt. Neben solchen Brot-und-Butter-Helferlein tüftelt er aber schon an der nächsten Generation. Nachdem viele Eurorack-Hersteller erst vor ein paar Jahren von Mono-Signalen auf Stereo aufgerüstet haben, will Doepfer die Quadrophonie wieder aufleben lassen, bei der Künstler das Publikum aus vier Richtungen beschallen. Das funktioniert zwar schon bisher, benötigt aber einen immensen Verkabelungs- und Steuerungsaufwand, der vereinfacht werden soll.
Künstliche Intelligenz
Am Ende der Sieger: Das Open Document Format ist der Standard
Vor 20 Jahren passierte für das Open Document Format die entscheidende ISO-Abstimmung: Anfang Mai 2006 billigten ISO und IEC das Format als künftigen internationalen Standard. Anschließend wurde ODF am 30. November 2006 als ISO/IEC 26300:2006 veröffentlicht. Damals wirkte das wie ein technisches Detail, heute erscheint es in einem anderen Licht. Regierungen und Behörden diskutieren wieder über digitale Souveränität, Plattformabhängigkeiten und Langzeitarchivierung. Plötzlich steht eine Frage erneut im Raum, die viele längst für entschieden hielten: Wem gehören digitale Dokumente eigentlich?
Weiterlesen nach der Anzeige
ODF ist dabei weit mehr als das Dateiformat von LibreOffice. Der Standard entstand aus der Idee, dass Dokumente dauerhaft lesbar, herstellerunabhängig nutzbar und technisch transparent sein sollen. Zwei Jahrzehnte später wirkt dieser Ansatz erstaunlich modern. Denn viele Probleme, die ODF lösen wollte, prägen heute erst recht den Alltag großer Organisationen: proprietäre Cloudplattformen, schwierige Datenmigrationen und die Frage, wie sich Informationen über Jahrzehnte hinweg archivieren lassen.
ODF war nie nur ein technisches Projekt. Das Format entwickelte sich früh zum Symbol im Konflikt zwischen offenen Standards und geschlossenen Ökosystemen – und zu einem der größten politischen Streitthemen der IT-Industrie der 2000er-Jahre.
Die Idee hinter ODF: Dokumente als offene Datenstrukturen
Anfang der 2000er dominierten proprietäre Binärformate die Office-Welt. Microsofts DOC-, XLS- und PPT-Dateien galten als faktische Industriestandards, doch ihre internen Strukturen waren nur teilweise dokumentiert. Wer vollständige Kompatibilität wollte, musste Microsoft Office kaufen.
ODF verfolgte einen anderen Ansatz. Das Format setzte konsequent auf XML und sollte vollständig offen spezifiziert sein. Inhalte, Formatierungen und Metadaten lagen getrennt voneinander vor. Ziel war nicht nur die Lesbarkeit für Menschen, sondern auch die automatisierte Verarbeitung durch Skripte oder Datenbanken.
Heute klingt das selbstverständlich. Anfang der 2000er gehörte es jedoch zu einem grundlegenden Paradigmenwechsel. XML galt damals als universelles Austauschformat für strukturierte Daten. ODF übertrug diese Idee auf Office-Dokumente.
Eine ODT-Datei besteht intern aus mehreren XML-Dateien. „content.xml“ enthält die eigentlichen Inhalte, „styles.xml“ die Formatdefinitionen. Metadaten liegen in „meta.xml“, anwendungsspezifische Einstellungen in „settings.xml“. Ein ZIP-Container fasst diese Bestandteile zusammen. Deshalb lässt sich eine ODT-Datei in „.zip“ umbenennen und mit jedem gewöhnlichen Packprogramm öffnen.
Weiterlesen nach der Anzeige
Die Architektur erinnert eher an moderne Webtechnologien als an klassische Office-Formate. Inhalte und Darstellung liegen getrennt vor – ähnlich wie HTML und CSS im Web. Diese Modularität erleichtert nicht nur die Analyse, sondern auch automatisierte Verarbeitung, Konvertierung und Archivierung.
Microsoft übernahm dieses Prinzip später für DOCX und XLSX. Auch Office Open XML basiert intern auf ZIP-Containern und XML-Dateien. Der Unterschied lag weniger in der Grundarchitektur als in der Frage, wie offen und interoperabel die Spezifikation tatsächlich ist.
Vom OpenOffice-Format zum ISO-Standard
Die Wurzeln von ODF liegen bei Sun Microsystems. Der damalige Eigentümer von StarOffice veröffentlichte den Quellcode 2000 als OpenOffice.org und brauchte ein standardisiertes Dateiformat für die freie Office-Suite.
2002 begann die Standardisierung bei OASIS, einem Industriekonsortium für offene Standards. Das Ziel war ein herstellerneutraler Dokumentstandard. 2005 verabschiedete OASIS ODF 1.0, 2006 folgte die ISO-Standardisierung als ISO/IEC 26300. Damit existierte erstmals ein vollständig offener internationaler Standard für Office-Dokumente.
Bemerkenswert ist aus heutiger Sicht, wie früh dabei Themen aufkamen, die inzwischen wieder unter dem Schlagwort „digitale Souveränität“ verhandelt werden. Schon damals argumentierten Befürworter, Staaten dürften ihre Dokumente nicht an einzelne Hersteller binden. Dokumentformate bestimmen schließlich, welche Software eine Organisation einsetzen muss und wie zugänglich Daten langfristig bleiben.
Behörden müssen Dokumente oft mehrere Jahrzehnte aufbewahren. Herstellergebundene Formate bergen dabei erhebliche Risiken: Spezifikationen ändern sich, Softwareprodukte verschwinden, Lizenzmodelle wechseln. Hinzu kommt: Wandern Dokumente in Cloudplattformen, entwickeln sich deren technische Grundlagen oft außerhalb der Kontrolle staatlicher Institutionen weiter. Ein offenes Format sollte dieses Problem entschärfen.
Künstliche Intelligenz
iX-Workshop: KI für eigene Daten: RAG in der Praxis mit LangChain.js
Retrieval Augmented Generation (RAG) kombiniert die Stärken von Textgenerierung und Information Retrieval, um präzise und kontextreiche Antworten auf komplexe Anfragen zu ermöglichen. Damit können Entwickler komplexe Anwendungen erstellen und die Leistungsfähigkeit moderner KI-Modelle voll ausschöpfen.
Weiterlesen nach der Anzeige
In unserem dreitägigen interaktiven Workshop KI für eigene Daten: Retrieval Augmented Generation (RAG) in der Praxis mit LangChain.js erhalten Sie eine fundierte Einführung in die Architektur und technischen Grundlagen von RAG sowie den Einsatz von LangChain.js. Sie lernen, wie Sie eigene KI-Lösungen auf Basis dieses Patterns entwickeln und diese sowohl in Cloud- als auch in On-Premise-Umgebungen implementieren.
Darüber hinaus erfahren Sie, wie Sie Prompts gezielt optimieren, KI-Anwendungen strukturiert aufbauen und eigene Datenquellen effizient in KI-Modelle integrieren. Sie lernen den Umgang mit APIs wie OpenAI und Azure OpenAI und entwickeln ein Verständnis für zentrale technische Aspekte moderner KI-Integrationen.
Jede Menge Praxis und Übungen
Der Workshop ist konsequent praxisorientiert aufgebaut und bietet eine interaktive Lernumgebung, in der Sie die Inhalte direkt umsetzen.
Sie entwickeln eigene KI-Agenten – von der Konzeption über die Implementierung bis hin zu realistischen Testszenarien. Dabei setzen Sie sowohl Cloud- als auch On-Premise-Umgebungen ein und lernen, wie sich RAG-basierte Systeme stabil und skalierbar betreiben lassen.
Durch die enge Verzahnung von Theorie und Praxis gewinnen Sie ein tiefes Verständnis für den Aufbau produktionsreifer KI-Anwendungen.
|
Juli 06.07. – 08.07.2026 |
Online-Workshop, 09:00 – 17:00 Uhr 10 % Frühbucher-Rabatt bis zum 08. Jun. 2026 |
|
November 09.11. – 11.11.2026 |
Online-Workshop, 09:00 – 17:00 Uhr 10 % Frühbucher-Rabatt bis zum 12. Okt. 2026 |
Von Erfahrungen aus der Praxis profitieren
Weiterlesen nach der Anzeige
Sie profitieren von der direkten Anleitung durch Ihren Trainer Gregor Biswanger, führender Experte für generative KI, Microsoft MVP für Azure AI und Web-App-Development.
Er arbeitet eng mit dem Microsoft-Produktteam rund um GitHub Copilot zusammen und begleitet Unternehmen bei der Entwicklung und Einführung moderner KI-Lösungen. Im Workshop vermittelt er praxisnahe Einblicke aus realen Projekten und zeigt, wie sich RAG-Architekturen effizient und produktionsreif umsetzen lassen.
Für wen ist dieser Workshop geeignet?
Der Workshop richtet sich an Entwickler, die ihre Fähigkeiten im Bereich moderner KI-Technologien erweitern und praxisnahe Erfahrung mit RAG-Systemen sammeln möchten. Er eignet sich sowohl für Einsteiger in die KI-Entwicklung als auch für erfahrene Entwickler, die ihr Wissen gezielt vertiefen wollen.

(ilk)
-
Künstliche Intelligenzvor 3 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 3 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
Apps & Mobile Entwicklungvor 3 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 2 MonatenBlade‑Battery 2.0 und Flash-Charger: BYD beschleunigt Laden weiter
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Der beste Luftgütesensor im Test – CO₂, Schadstoffe & Schimmel im Blick
-
Social Mediavor 2 MonatenVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
