Connect with us

Künstliche Intelligenz

Jetzt können wirklich alle programmieren


Wer sich vor einem halben Jahr eine Meinung über KI-Coding gebildet hat, sollte noch einmal aktuelle Tools ausprobieren: Claude Code, OpenAI Codex und Co haben immens an Kompetenz gewonnen und kommen inzwischen auch mit komplexen Projekten klar. In einer 2,5-stündigen Vibecoding-Session erklärt der Entwickler Benjamin Thorstensen, was man bei der Arbeit mit Claude Code und OpenAI Codex beachten muss.

Weiterlesen nach der Anzeige

(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)

Eine kurze Ansage, bevor das Video losgeht. Das Thema KI – und vor allem code-schreibende KI – löst bei vielen von euch und auch bei mir starke Gefühle aus, oft negative. Es ist immer noch nicht klar, was KI mit dem IT-Arbeitsmarkt macht, gerade für jüngere Menschen, und was KI mit Open Source macht, was KI-Slop mit dem Internet macht. Sicher ist auf jeden Fall, dass viele Open-Source-Projekte in KI-generierten Pull Requests ertrinken – und dass GitHub, die größte Code-Plattform der Welt, das jetzt auch eingestanden hat und nachbessern will. Mit KI. Im folgenden Video lassen wir jetzt aber diese riesigen, also wirklich riesigen Meta-Probleme außen vor und konzentrieren uns auf das Thema selbst, nämlich Vibe-Coding oder, vornehmer, agentische Softwareentwicklung. Ich verspreche euch aber, dass in Zukunft hier auf diesem Channel auch KI-kritische Videos zu den großen Themen kommen werden. Und jetzt: let’s go.

Guckt mal hier: Das habe ich heute vibecodet – einen Rezept-Extraktor, auf den ich jegliches Kochrezept, was mir so über den Browser läuft, draufwerfen kann: von YouTube, Instagram, TikTok, sonst wo im Web. Und dann wird das Rezept da rausgezogen und in meine Notion-Datenbank reingeschrieben, genau mit den von mir vorgegebenen Attributen. Ja, und guckt euch mal bitte das Design von der Web-App hier an. Also für mich sieht das ziemlich professionell aus. Und ganz wichtig: Ich kann überhaupt nicht programmieren. Also ich kann mit diesen Tools Dinge tun, für die ich vorher monatelang hätte lernen müssen.

Also das ist wirklich so, als hätte ich so ein kleines Coding-Alien auf der Schulter sitzen, oder ich würde in so einem Riesen-Coding-Mech durch die Gegend fliegen oder so. Das ist wirklich ein gutes Gefühl. Ich habe mich wirklich mächtiger gefühlt damit. Wirklich mächtiger ist, glaube ich, das richtige Wort.

In diesem Video zeige ich euch den ganzen Prozess, also wie ich das gemacht habe mit dieser Rezepte-App. Und obwohl das wirklich jede und jeder von euch hinbekommen würde, fand ich wichtig, mir jemanden dazu zu holen, der das Ganze professionell beurteilen und erklären kann. Ich will euch ja keinen Quatsch erzählen, ne? Und ich hatte ja gesagt: Ich bin kein Entwickler.

Ja, und der Entwickler, das ist auf jeden Fall Benjamin Thorstensen, der seit 14 Jahren als Softwareentwickler und seit einiger Zeit auch sehr intensiv mit KI-Tools arbeitet. Ihr erfahrt im Video also auch noch ein paar Experten-Tricks.

Weiterlesen nach der Anzeige

Coden lassen haben wir einmal Claude Code mit Opus 4.6. Da braucht man ein kostenpflichtiges Abo oder zahlt halt jeden Token einzeln per API. Und parallel auch Codex von OpenAI, das man noch bis Anfang März mit einem kostenlosen ChatGPT-Account nutzen kann. Die fertige Kochrezept-Software läuft in einer der beiden Versionen übrigens ausschließlich mit lokaler KI.

Ja, und diese Vibe-Coding-Session, die hat dann doch ziemlich lange gedauert. Ich weiß aber, dass viele von euch wirklich sowas gerne im Detail sehen wollen. Deshalb habe ich das auch nur leicht geschnitten. Und alle anderen, die das eben nicht in dieser Ausführlichkeit sehen wollen, die können einfach zum Ende skippen. Wir haben da so einen Kapitelmarker gemacht, der heißt „Zusammenfassung“. Und da seht ihr dann nur die wichtigsten Erkenntnisse und das Fazit. Bleibt dran.

*Ab hier jetzt eine mehrstündige, ungeskriptete Coding-Session, deshalb kein Transkript*

So, jetzt die Zusammenfassung: Ja, Vibe Coding funktioniert und es ist so einfach, dass es wirklich alle benutzen können. Man gibt einfach ein, was man will, und dann wird das Programm erzeugt. Und das ist wirklich so einfach. Es klingt jetzt immer so, so ist es einfach, aber es ist wirklich so einfach. Man sagt einfach: Machen wir ein Programm, was Schafe zählt und mad, und dann macht es das. Und wenn man was nicht verstanden hat, dann tippt man das auch ein und fragt das und dann beantwortet es das. Und wenn man irgendwas anders haben will, wenn man irgendwas verändert haben will, dann kann man es auch einfach eintippen und das funktioniert.

Man braucht auch keine Entwicklungsumgebung dafür wie früher, sondern man braucht nur das Coding Tool wie zum Beispiel CodeCode. Man kann natürlich in einer Entwicklungsumgebung wie VS Code oder Cursor vibe-coden, aber das muss man nicht.

Wenn ihr jetzt sagt: Ja, aber ChatGPT, die ja doch schon vor Jahren in der ganz normalen Webansicht Code erzeugt. Ja, aber das funktioniert a) laut meiner Erfahrung nicht wirklich immer so zuverlässig und b) können die Coding Tools viel mehr selbst machen, zum Beispiel auch direkt Tools auf dem Rechner aufrufen. Und die können auch zum Beispiel, wenn ihr Kontextspeicher voll ist, einfach eine Zusammenfassung von sich selbst abspeichern, also was noch zu tun ist in der Programmierarbeit. Und dann können die auch nach gelöschtem Kontext einfach weitermachen. Also sind auch größere Projekte möglich.

Und hier mal kurz, was man zum Vibe Coding braucht oder was wir empfehlen. Also der Klassiker ist ja Claude Code von Anthropic, das man am besten mit dem Modell Opus 4.6 verwendet. Kostet Geld. Zum Beispiel braucht man das Pro-Abo. Das kostet monatlich kündbar 21,42. Ich hatte mir für dieses Video für einen Monat ein Max-Abo gekauft. Das kostet sage und schreibe 107,10 Euro im Monat. Kann man aber ja monatlich kündigen.

Ansonsten hat auch Codex von OpenAI viele Fans. Das kann man bis Anfang März 2026 sogar mit einem Nicht-Abo verwenden, also mit dem kostenlosen Account. Und dann gibt es auch noch Google Gemini. Das ist in Sachen Coding so ein bisschen der Underdog. Das kommt aber so langsam. Also will man Gemini zum Web-Coding benutzen, braucht man auch so ein Pro-Abo für 22 Euro. Also, und alle drei kann man natürlich auch ohne Abo per Token über API-Zugang bezahlen. Das geht dann aber sehr, sehr schnell richtig ins Geld.

Ja, und ganz wichtig: Man kann auch ein lokales Modell kostenlos auf eigene Hardware verwenden, zum Beispiel Qwen 3 Coder aus China. Dafür braucht man aber natürlich passende Hardware und zum Beispiel das Coding Tool Open Code. Aber auch in CodeCode kann man lokale LLMs einbinden. Die beste Qualität liefern aber zurzeit die Sprachmodelle Anthropic Opus 4.6 und OpenAI Codex.

Laut Benjamin hier aus dem Video unterscheiden die sich dadurch, dass Codex quasi der Entwickler ist, der, bevor er zu programmieren beginnt, erst mal eine Stunde damit verbringt, das Problem zu verstehen und dann mit einer sauberen Lösung kommt, hat aber einen Charakter wie trockenes Brot und ist nicht besonders kreativ, sondern macht vor allem das, was man ihm vorgibt. Opus ist so mehr der Senior Dev, der sofort loslegt, der sich ein neues Framework überlegt und manchmal ein bisschen an der Lösung vorbeischießt, aber oft auch mit einer Lösung kommt, an die man selber gar nicht gedacht hat. Bei Opus sagt Benjamin, hat er mehr dieses Lotterie-Gefühl, wo er dann vorher nicht weiß, ob er jetzt da den Jackpot knackt oder eben nicht.

Außerdem hat Opus im Gegensatz zu Codex nicht in der Design-Schule geschlafen, vor allem mit dem Add-on, dazu aber später noch mal mehr. Benjamin sagt, dass beide, also sowohl Claude Code als auch Codex, beide ihre Daseinsberechtigung haben. Er benutzt auch beide je nach Aufgabe. Bei Google Gemini, was er jetzt gerade erst in der Version Gemini 3.1 Pro ausgerollt wird, da sagt Benjamin, dass das überall so ein bisschen geschlafen hat in der Coding-Schule, nur nicht beim Design. Also was daraus kommt, sagt er, das ist echt ziemlich gut.

So, jetzt aber noch mal kurz zu den Coding Tools selbst oder den Harnesses, wie man in der KI-Szene sagt, also den Gurtgeschirren, also wie bei Pferden. Also das sind alle Tools und Fähigkeiten, die dem Modell extern zur Verfügung gestellt werden. Also was weiß ich, im Internet suchen oder Files öffnen. Die Harnesses sind sich alle recht ähnlich, funktionieren aber natürlich am besten mit den hauseigenen Modellen. Also Claude Code mit Opus, Codex mit Codex und so weiter.

Es gibt die alle in mindestens einer grafischen Version und in einer Kommandozeilen-Version. Die meisten laufen auf allen drei großen Betriebssystemen, einzelne mal nicht unter Windows oder mal nicht unter Linux. Hier mal kurz die Namen, damit ihr wisst, was ihr runterladen müsst. Die Kommandozeilentools heißen bei Anthropic Claude Code, bei OpenAI codex-cli, bei Google gemini-cli. Die grafischen Varianten sind bei Anthropic einfach die Claude-App, bei OpenAI heißt sie Codex, bei Google ist das zum Beispiel Antigravity.

Ja, und ich muss sagen, ich mag die Kommandozeilen-Varianten irgendwie lieber. Das ist irgendwie nice mit dieser ASCII-Art, Retro-Ästhetik. Außerdem klingt kurios, aber ich finde die sogar einfacher zu bedienen als die GUI-Tools, weil man da ja wirklich nichts anderes machen kann, als einfach einzutippen, was man will, in Menschensprache. Also man kann auch sagen, wenn das Ding fertig ist: Starte das Programm oder lösch das oder was weiß ich. Es macht einfach, was man will und das ist praktisch.

Beachten sollte man auf jeden Fall, dass man Claude Code am Anfang immer in den Planungsmodus schaltet. Das geht mit Shift+Tab. Da plant er dann erst mal das Vorgehen, bevor es dann richtig losgeht. Bei Codex muss man das nicht unbedingt machen, der entscheidet automatisch zwischen Planen und drauflos coden. Ganz gut.

Ja, okay. Und wie waren jetzt die Ergebnisse? Ja, funktioniert haben beide, also Claude Code und Codex. Die haben beide was Funktionierendes rausgegeben. Die haben beide auch die Audiospur zum Beispiel aus Videos in Text transkribiert. Die haben auch absolut problemlos die Daten in Notion reingepumpt. Also die haben problemlos mit der API zusammengearbeitet.

Die Qualität der Rezepte, die da dann am Ende in Notion standen, die, das habe ich mir auch schon gedacht: Qualität steht und fällt halt mit dem LLM, was da intern benutzt wird für die Rezepteanalyse, weil das muss halt erkennen, was ist hier jetzt Rezept, was ist Quatsch, was muss ich umrechnen und so weiter.

Ich fand interessant, dass das super kleine Open-Weights-LLM, das auf meinem MacBook lief, schon so einigermaßen brauchbare Ergebnisse ausgegeben hat. Das OpenAI-LLM in der Cloud war etwas besser von den Ergebnissen her, aber auch nicht viel. Sowohl Claude als auch Codex, die haben beide eine Web-App gebaut, die ich auf meinem Rechner lokal ausgeführt habe. Vom Aussehen der Web-App war Claude aber deutlich besser und das hat echt vor allem mit diesem offiziellen Plug-in, das heißt Frontend Design, zu tun. Sobald das läuft, sieht das alles wirklich richtig gut aus, was das so ausgibt, also frontendmäßig.

Ich habe hier auch noch einen wilden Einschub, denn am Ende hat die beste Rezeptqualität geliefert, was wirklich nur wenige Minuten gedauert hat, nämlich das war OpenClaw, einfach über Telegram mit diesem Prompt hier. Falls ihr von OpenClaw noch nie gehört habt, dazu gibt es ein Video, ein richtiger Hype gerade. Das zeigt mir eigentlich, dass man in Zukunft vielleicht gar keine UI braucht, sondern dass man einfach mit seinem privaten Bot schreibt oder spricht und der macht dann einfach die Sachen, die man haben will.

Aber ich meine, dass OpenClaw hier die beste Rezeptqualität produziert hat, das liegt auch natürlich vor allem daran, dass OpenClaw auch für die Rezepteaufbereitung Opus 4.6 verwendet hat, also einem der besten Sprachmodelle, die es zurzeit gibt. Die anderen beiden vibe-gecodeten Projekte, die haben das Rezept ja intern mit viel kleineren Sprachmodellen verarbeitet. Das macht halt einen riesen Unterschied aus.

Ja, krass. Ich muss immer wieder an einen Kommentar neulich im Heise-Forum denken, wo jemand über KI-generierten Code schrieb: Ja, man kann Dinge auf Hello-World-Niveau oder zusammengeklaute Funktionen aus den Sources der Welt generieren lassen, selbst das jedoch fehlerhaft und nur mit viel Kontrolle, Nacharbeit benutzbar. Und ich muss sagen, das stimmt nicht. Man kann den erzeugten Code sicher kritisieren, aber ihr seht es ja im Video: Er funktioniert. Und für mich als Nicht-Coder ist das ein unglaubliches Hilfsmittel.

Früher, wenn ich eine Idee für eine App oder so hatte, musste ich halt überlegen: Ist die Idee so toll, dass ich jetzt irgendwie überlege, wo ich ein Team her bekomme, will ich das irgendwie finanzieren oder so? Und hier mache ich einfach an einem Abend Prototypen fertig. Und ja, das verändert natürlich die Technikwelt. Das muss man, glaube ich, nicht mehr diskutieren.

Problematisch wird es natürlich jetzt, wenn ich jetzt denke, dass ich meinen App-Prototypen einfach veröffentliche, ohne dass ich überhaupt verstehe, was da intern passiert. Das ist natürlich gefährlich. Deshalb haben wir auch neulich in unserem Podcast c’t 4004 darüber fabuliert, dass man eigentlich einen Vibe-Coding-Führerschein einführen müsste, damit man zumindest ansatzweise versteht, was für einen Schaden so die eigene vibe-gecodete Software im schlimmsten Fall anrichten kann.

Aber wie gesagt, hier reden wir jetzt über Software, die man veröffentlichen oder sogar verkaufen will. Für so private Tools und lokale Experimente, wie in diesem Video, wie dieses Rezept-Tool, das können auf jeden Fall auch nicht technische Leute vibe-coding-mäßig ausprobieren. Ich finde, das demokratisiert wirklich die Softwareentwicklung. Vor allem, wenn das irgendwann alles genauso gut mit lokalen LLMs geht, dann verlassen die Daten nicht mal mehr den eigenen Rechner. Vielleicht geht das ja irgendwann auch auf ’n Smartphone lokal. Wer weiß. Ja, wird auf jeden Fall alles interessant.

Wie seht ihr das? Gerne alles in die Kommentare schreiben. Ich lese die zumindest in den ersten Tagen nach Veröffentlichung alle.

c’t 3003 ist der YouTube-Channel von c’t. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.


(jkj)



Source link

Künstliche Intelligenz

Amazons neue Fire TV Sticks verhindern Sideloading


Sideloading wird mit Amazons neuer Generation von Fire TV Sticks für die allermeisten Nutzer Geschichte sein, das kommuniziert Amazon nun offiziell auch an Kunden. Denen wird auf Amazons Produktseite für den neuen Fire TV Stick HD ein entsprechender Hinweis angezeigt. Davor hatte es bereits Hinweise gegeben, dass Sideloading unter dem neuen Fire-TV-Stick-Betriebssystem Vega OS erheblich strenger behandelt wird.

Weiterlesen nach der Anzeige

Vega OS ist ein Linux OS, welches bei den Fire TV Sticks das auf Androids Open-Source-Variante aufgebaute Fire OS ablöst. Amazon verspricht mit Vega OS eine bis zu 30 Prozent schnellere Performance. Allerdings hatte das Unternehmen auch schon lange im Vorfeld betont, dass unter Vega OS nur offiziell unterstützte Anwendungen laufen – was bereits ein Hinweis war, dass Sideloading, also das manuelle Installieren von Apps aus inoffiziellen Quellen, schwieriger werden könnte. Auf der deutschen Produktseite der neuesten Generation des Fire TV Sticks HD, welcher in Deutschland noch nicht verfügbar ist, ist jetzt zu lesen:

„Für mehr Sicherheit verhindert dieses Gerät das Sideloading oder die Installation von Apps aus unbekannten Quellen. Nur Apps aus dem Fire TV Amazon Appstore stehen zum Download zur Verfügung.“



Kein Sideloading: Hinweis an Kunden auf der deutschen Produktseite des neuen Amazon Fire TV Stick HD.

(Bild: Screenshot Amazon.de)

Medienberichten zufolge ist dieser Hinweis auch für US-Nutzer auf der US-Seite zu sehen, allerdings nicht für alle – das könnte hierzulande auch der Fall sein. In den USA startet der Verkauf des Fire TV Sticks HD Ende April.

Gegenüber heise online hatte Amazon den neuen Kurs beim Sideloading bereits im Herbst klargemacht. Hintergrund waren massive Probleme mit Piraterie-Apps, die in der Regel nur per Sideloading installieren lassen. Amazon geriet deswegen immer wieder unter Beschuss, bis sich das Unternehmen im Herbst entschied, gezielt gegen eine ganze Reihe solcher Apps vorzugehen und diese in Fire OS zu blockieren. Heise online erfuhr zu diesem Zeitpunkt auf Nachfrage von Amazon, dass sich die Maßnahmen unter Fire OS nur auf Piraterie-Apps beschränken würden und Sideloading grundsätzlich weiter möglich bleiben sollte. Vega OS hingegen sollte Sideloading für reguläre Nutzer nicht erlauben. Entwickler sollten laut Amazon aber auch unter Vega OS weiterhin Sideloading betreiben können.

Dafür müssen sie ihr Gerät laut Arstechnica bei Amazon entsprechend registrieren. Sideloading-Fans, die das nicht tun oder nicht tun können, könnten mit der gesamten neuen Generation von Fire TV Sticks indes wenig Freude haben. Auf seinen Entwicklerseiten gab Amazon bekannt, dass künftig alle Modelle mit Vega OS ausgestattet sein werden. Wer einen alten Stick mit Fire OS hat, unter dem das Sideloading noch geht, muss zumindest nicht damit rechnen, per Systemupdate auf Vega OS und damit ins neue, strenge Sideloading-Regime gezogen zu werden – im Herbst betonte das Unternehmen gegenüber heise online, dass es entgegen anderslautender Gerüchte keine Pläne gebe, bestehende Fire-TV-Geräte mit Fire OS als Betriebssystem auf Vega OS umzurüsten.

Weiterlesen nach der Anzeige


(nen)



Source link

Weiterlesen

Künstliche Intelligenz

HUDIMM: billigere Speichermodule für Intel-Mainboards


Der taiwanische Hersteller Asrock hat für seine Desktop-Mainboards das neue DRAM-Konzept „HUDIMM“ angekündigt. Dabei handelt es sich um Speichermodule für den herkömmlichen DDR5-Steckplatz mit 288 Kontakten. Der interne Aufbau der „half unbuffered DIMMs“ – daher der Name– unterscheidet sich jedoch. Daher soll vorerst nur Teamgroup die HUDIMMs herstellen. Das Konzept hat den Segen von Intel und soll mit Chipsätzen der Serien 600, 700 und 800 laufen, also mit allen aktuellen Prozessoren von Intel.

Weiterlesen nach der Anzeige

Das Ziel sind günstigere Speichermodule mit DDR5. Die Preise für herkömmliche DIMMs haben sich in den letzten sieben Monaten teils vervierfacht, weil für KI-Rechenzentren riesige Mengen an DRAM zu fast jedem Preis aufgekauft werden. Asrock und Co. wollen dem begegnen, indem für die gleiche Kapazität nur halb so viele DRAM-Bausteine auf einem HUDIMM verbaut werden.

Dazu wird einer der beiden Subkanäle weggelassen. Anders als bei DDR4 mit einem uniformen 64-Bit-Kanal für jeden DRAM-Kanal – üblicherweise mit bis zu zwei Steckplätzen – sieht DDR5 zwei Kanäle mit je 32 Bit vor. Das passt besser zu den Datenstrukturen von x86-Prozessoren und erlaubt unter anderem auch kurze Pausen gegen Überhitzung bei Schreib- und Lesevorgängen. Der Nachteil: Damit die beiden 32-Bit-Subkanäle genutzt werden können, muss dieselbe Zahl von Chips für jeden Subkanal auf dem DIMM verbaut werden. Auch die Platinen der DIMMs werden komplexer.

Teamgroup kann nun die ohnehin in der Produktion wegen des KI-Hypes bevorzugten DRAM-Bausteine mit größeren Kapazitäten zu einem Kanal zusammenfassen. Das ergibt in der Theorie HUDIMMs mit vergleichbarer Speichermenge als bei herkömmlichen DIMMs, aber mit weniger Chips, Leiterbahnen und damit Kosten. Konkrete Preisangaben machten die beteiligten Unternehmen jedoch noch nicht.

Weiterlesen nach der Anzeige

Bei nur einem statt zwei Subkanälen stellt sich die Frage nach der Performance. Asrock legte dazu einen etwas kruden Vergleich mit einer Mischbestückung vor. Da HUDIMMs logisch und mechanisch kompatibel zu bisherigen DDR5-DIMMs sind, ist das folgende Konstrukt möglich: ein HUDIMM mit 8 GByte (ein Subkanal) und ein DIMM mit 16 GByte (zwei Subkanäle). Diese Kombination, mit also drei Subkanälen, soll nach Asrocks Messungen minimal schneller sein als ein einzelnes DIMM mit zwei Subkanälen. Verglichen wird also eine aus Sicht des Mainboards Dual-Channel-Bestückung mit einer Single-Channel-Konfiguration, beide mit 24 GByte. Zudem handelt es sich bei AIDA64 um einen synthetischen Benchmark, nicht einen mit echten Anwendungen.



Minimal schneller: Zwei DIMMs gegen eines ist auch ein bisschen unfair.

(Bild: Asrock)

Wenn aber die Speicherperformance für den konkreten Anwendungsfall gar nicht entscheidend ist, etwa für Büro-PCs, aber die Kapazität wichtiger ist, könnte ein einzelnes HUDIMM wirklich Kostenvorteile bringen. Wie schnell das dann ist, hat Asrock aber noch nicht verraten. HUDIMMs sollen auch im SO-DIMM-Format erscheinen, unter anderem für die Deskmini-Serie an besonders kompakten PCs. Laut Angaben des Unternehmens ist die Technik zum Patent angemeldet, es bleibt daher auch spannend, ob andere Hersteller HUDIMMs unterstützen. Für den Einsatz der neuen Speichermodule brauchen Asrock-Boards ein Firmwareupdate, das künftig hier zu finden sein soll.


(nie)



Source link

Weiterlesen

Künstliche Intelligenz

Canons Nachtsicht-Wunder und ein Hai-Flüsterer – die Fotonews der Woche 16/26


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Wer schon einmal nachts ohne Stativ fotografiert hat, kennt das Gefühl: Man dreht die ISO hoch, das Rauschen explodiert, und am Ende sieht das Bild aus, als hätte jemand eine Handvoll Konfetti über die Datei gestreut. Canon hat nun eine Kamera vorgestellt, die dieses Problem auf eine geradezu physikalisch radikale Weise löst – allerdings nicht für Fotografen, sondern für Überwachungsprofis und Wildbiologen. Aber der Reihe nach.

Weiterlesen nach der Anzeige


Das Titelbild der Ausgabe 01 2026 des Foto-Magazins c't Fotografie

Das Titelbild der Ausgabe 01 2026 des Foto-Magazins c't Fotografie

(Bild: 

heise

)

Auf der NAB 2026 hat Canon die MS-510 enthüllt, eine Spezialkamera mit einem sogenannten SPAD-Sensor (Single Photon Avalanche Diode) – wir berichteten im Januar über die Präsentation eines Prototyps. Während herkömmliche CMOS-Sensoren Licht ansammeln und dann die gesamte Ladung auslesen – wobei zwangsläufig auch Rauschen mitverstärkt wird –, zählt der SPAD-Sensor buchstäblich jedes einzelne Lichtteilchen. Trifft ein Photon auf einen Pixel, löst es eine Elektronenlawine aus, die ein sauberes digitales Signal erzeugt. Kein Akkumulieren, kein analoges Rauschen, das sich einschleicht.

Das Ergebnis: Die MS-510 [Video] arbeitet bei einer minimalen Motivbeleuchtung von 0,0006 Lux. Um das einzuordnen: Eine sternenklare Nacht bietet etwa 0,02 Lux, ein bedeckter Nachthimmel ohne jede künstliche Lichtquelle liegt bei rund 0,007 Lux. Canons neue Kamera sieht also in Dunkelheit, in der selbst Nachtsichtgeräte ins Grübeln kommen. Dazu kommt eine verbesserte Nahinfrarot-Empfindlichkeit gegenüber dem Vorgängermodell MS-500.

Bevor jetzt jemand seinen Kamerahändler anruft: Die MS-510 löst mit 3,2 Megapixeln auf, liefert 1080p-Video, akzeptiert Broadcast-Objektive mit B4-Bajonett und kostet 22.800 US-Dollar. Das ist Werkzeug für Grenzüberwachung, Infrastruktur-Monitoring und die Beobachtung nachtaktiver Tierarten, die man nicht mit Scheinwerfern verschrecken möchte.

Wie Richard Butler bei dpreview treffend analysiert, hat die SPAD-Technologie für die klassische Fotografie noch einige Hürden zu nehmen. Die Quanteneffizienz, also der Anteil des Lichts, der tatsächlich gemessen wird, unterscheidet sich nicht dramatisch von aktuellen CMOS-Sensoren. Der große Vorteil des SPAD liegt im Wegfall des Ausleserauschens, das vor allem bei extremer Dunkelheit relevant ist. Bei Tageslicht dominiert ohnehin das Photonenrauschen, und dagegen hilft auch keine Elektronenlawine. Hinzu kommt der Energiehunger: Die MS-510 verbraucht als Gesamtsystem rund 24 Watt – doppelt so viel wie Canons CMOS-basierte MS-Kameras. Akkulebensdauer und Wärmemanagement in einem kompakten Kameragehäuse wären also echte Herausforderungen. Von der Auflösung ganz zu schweigen. Wer also auf einen SPAD-Sensor in einer EOS R wartet, sollte sich bequem hinsetzen, es könnte dauern.

Weiterlesen nach der Anzeige

Während Canon also in die tiefste Dunkelheit vordringt, feiert Ricoh das Licht des Alltags. Die GR-Serie wird 30 Jahre alt, und das Unternehmen begeht das Jubiläum mit einem neuen Logo, dem Slogan „Forever a Snapshooter“ und der Ankündigung von Fan-Events weltweit im Herbst. Ein neues Produkt gibt es nicht – was angesichts der Tatsache, dass die GR IV und die GR IV Monochrome erst kürzlich erschienen sind, auch niemanden überraschen dürfte.

Die Geschichte der GR-Serie liest sich wie eine Lektion in konsequenter Produktphilosophie. 1996 startete alles mit der filmbasierten GR1 und ihrem 28mm f/2.8-Objektiv. 2005 kam die erste digitale GR mit einem 1/1,8-Zoll-CCD-Sensor. Und bis heute folgt die Serie vier goldenen Regeln, wie Kazunobu Saiki, General Manager der Kamerasparte, im vergangenen Jahr gegenüber PetaPixel erklärte: Die GR muss immer dabei sein (Kompaktheit), schnell reagieren, hohe Bildqualität liefern und sich weiterentwickeln, solange die ersten drei Regeln nicht verletzt werden.

In einer Branche im Wandel ist diese Beständigkeit fast schon rebellisch. Die GR ist die Kamera, die Streetfotografen in die Jackentasche stecken, die Profis als Zweitkamera schätzen und die Hipster auf Instagram posten, ohne zu wissen, dass sie damit eine 30-jährige Tradition fortführen. Chapeau, Ricoh.

c’t Fotografie Zoom In abonnieren

Ihr Newsletter mit exklusiven Foto-Tipps, spannenden News, Profi-Einblicken und Inspirationen – jeden Samstag neu.

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.

Zum Wochenende eine Videoempfehlung, die nichts mit Technik, aber alles mit der Kraft der Fotografie zu tun hat. Der südafrikanische Wildlife-Fotograf Chris Fallows war zu Gast bei „60 Minutes“ auf CBS und sprach über seine Karriere, die untrennbar mit den Großen Weißen Haien in der False Bay bei Kapstadt verbunden ist.

Fallows wurde berühmt durch sein Bild „Air Jaws“ – eine Schwarzweiß-Aufnahme eines Weißen Hais, der mit offenem Maul aus dem Wasser schießt. „Wir hatten schon eine Stunde lang einen Robben-Dummy geschleppt, ohne Erfolg“, erzählt er. Dann brach ein Hai durch die Wasseroberfläche, und Fallows drückte ab. Die gesamte Sequenz dauerte sieben Sekunden. „Es war in der Zeit des Films. Ich konnte nicht auf die Rückseite der Kamera schauen“, erinnert er sich. Das ganze Wochenende habe er gewartet, ob das Bild scharf sei. Am Montag im Labor applaudierten alle.

Doch die Geschichte hat auch eine bittere Seite: Vor etwa zehn Jahren begann die Population der Großen Weißen in der False Bay dramatisch zu schrumpfen. Wo Fallows einst 250 bis 300 Individuen pro Jahr sichtete, sind die Haie heute weitgehend verschwunden. Die Gründe werden noch diskutiert, aber Fallows nutzt seine Bekanntheit und die Einnahmen aus seiner Fotografie inzwischen für den Naturschutz. Gemeinsam mit seiner Frau Monique hat er Land in Südafrika und Namibia erworben, um Lebensräume wiederherzustellen.

„Alle Lebewesen hängen voneinander ab“, sagt Fallows. „Große Weiße Haie, Elefanten, Löwen, Pinguine – sie alle haben ihre eigenen kleinen Familien und Ökosysteme. Behandelt sie mit Respekt.“ Wer etwas Zeit hat, findet das Interview bei CBS – es zeigt eindrucksvoll, dass die wichtigste Eigenschaft eines Fotografen nicht die Kamera ist, sondern die Geduld, zur richtigen Zeit am richtigen Ort zu sein.

Und weil wir gerade bei Jubiläen und Rückblicken sind: Amateur Photographer hat diese Woche eine charmante Zeitreise durch die Kamerageschichte von Ilford veröffentlicht. Ja, genau, Ilford, das Unternehmen, das die meisten nur von Filmrollen und Fotopapier kennen. Tatsächlich trug eine kleine, aber feine Reihe von Kameras den Ilford-Schriftzug, von der Magazine Hand Camera aus dem Jahr 1902 über die legendäre Witness – Großbritanniens Antwort auf die Leica, heute bis zu 10.000 Pfund wert – bis zu den Sportsman-Modellen der 1950er, die für viele Briten der Einstieg in die „richtige“ Fotografie waren. Hergestellt hat Ilford die meisten dieser Kameras übrigens nicht selbst, sondern von externen Ingenieurbüros bauen lassen. Das Geschäftsmodell „Design hier, Fertigung dort“ ist also keine Erfindung des 21. Jahrhunderts. Wer sich für Fotogeschichte begeistert, sollte sich diesen wunderbaren Long Read zum Sonntagskaffee gönnen.

Lesen Sie auch


(tho)



Source link

Weiterlesen

Beliebt