Connect with us

Künstliche Intelligenz

Lebendige Naturfotos durch Unschärfe: c’t Fotografie 2/26


Eine einfache Technik steht unterstützt dabei, Bilder von Tieren, Pflanzen oder Landschaften in meisterhafte Aufnahmen zu verwandeln: das Fotografieren durch natürliche Elemente hindurch. Der Naturfotograf Radomir Jakubowski erklärt, dass Bildwirkung und Komposition wichtiger sind als absolute Schärfe. Seine Methode, die ursprünglich aus der Makrofotografie stammt, verleiht Bildern Tiefe und Atmosphäre. Mit Gräsern, Zweigen oder Blättern im Vordergrund lenkt man den Blick des Betrachters. Ein solcher Vordergrund ist kein zufälliges Störelement, sondern ein bewusstes Gestaltungsmittel.

Weiterlesen nach der Anzeige

Für diese Technik empfiehlt Jakubowski lichtstarke Teleobjektive. Brennweiten wie 135 mm f/1.8 oder 400 mm f/2.8 eignen sich besonders gut. Sie komprimieren den Raum und lassen Vorder- und Hintergrund weich verschwimmen. Ein gebrauchtes 135-Millimeter-Objektiv mit Offenblende f/2.0 oder f/1.8 ist sein Geheimtipp. Der Fotograf betont, dass der Vordergrund umso unschärfer wird, je näher er sich an der Linse befindet. Als Faustregel für die Positionierung von unscharfen, aber noch erkennbaren Elementen nennt er die halbe Distanz zwischen Kamera und Hauptmotiv.



Unschärfe leitet den Blick und wertet viele Motive auf. Wichtig ist der Aufbau mit einer ansprechenden Tiefenstaffelung.

(Bild: Radomir Jakubowski)

Jakubowski erläutert, wie man Bokeh (die Qualität der Unschärfe) gezielt formt. Lichtpunkte im Hintergrund, etwa die durch Blätter scheinende Sonne, erzeugen lebendige Unschärfekreise. Die Wahl des Standpunkts und der Perspektive beeinflussen die Unschärfe ebenfalls stark. Ein tiefer Standpunkt kann beispielsweise den Himmel als Hintergrund nutzen, während eine hohe Position möglicherweise dunkle Täler einbezieht.

Die Technik lässt sich in allen Genres der Naturfotografie anwenden. Im Nahbereich bieten Lücken in der Vegetation einen Blick wie durch ein Schlüsselloch. Öffnungen im Gebüsch rahmen in der Wildtierfotografie Tiere unscharf ein, während diese selbst scharf abgebildet werden. In solchen Motivsituationen stößt der Autofokus der Kamera schnell an seine Grenzen. Jakubowski rät dann zum manuellen Fokussieren. Eine weitere kreative Möglichkeit ist die Technik der Doppelung, bei der ein unscharfes Tier im Vordergrund das scharfe Tier im Hintergrund ergänzt. Selbst in der Landschaftsfotografie kann ein unscharfer Vordergrund reizvoll sein, um zum Beispiel Herbstfarben zu betonen.

Canon EOS R6 Mark III: Mehr Pixel, mehr Tempo. Wir haben die dritte Generation der Canon EOS R6 getestet. Die Kamera bietet einen neuen Sensor mit 32,5 Megapixeln, der Serienaufnahmen mit 40 Bildern pro Sekunde ermöglicht. Auch die Videofunktionen wurden erweitert. Die Kamera kann nun 7k-Raw-Videos intern aufzeichnen. Dafür hat Canon einen der beiden SD-Kartensteckplätze durch einen Slot für schnellere CFexpress-Karten ersetzt. Der HDMI-Anschluss wurde auf einen vollwertigen Typ-A-Port aufgerüstet, der Bildstabilisator verbessert, sodass er nun bis zu 8,5 Blendenstufen kompensieren kann. Das Gehäuse und die Bedienung ähneln stark dem Vorgängermodell. Der Autofokus erkennt und verfolgt Motive wie Personen und Tiere zuverlässig. Die umfangreichen Menüs erfordern allerdings eine gewisse Einarbeitungszeit.

Die eigene KI-Bildmaschine auf dem Heim-PC einrichten. Tilo Gockel erklärt, wie man einen eigenen KI-Bildgenerator auf dem lokalen Rechner installiert. Das spart Abokosten, umgeht die Zensur und wahrt die Datenhoheit. Doch die Anfangsinvestition in die Hardware ist erheblich. Für den Betrieb des Generators Flux.1 empfiehlt er einen leistungsstarken PC mit mindestens 32 GB RAM und einer Nvidia-Grafikkarte mit 12 GB VRAM. Er rät aber zu 64 GB RAM und 16 GB VRAM. Gockel empfiehlt das Paket Pinokio, weil es vieles vereinfacht, und beschreibt, wie es installiert und eingesetzt wird. Nach der Einrichtung generiert das System Bilder in etwa zehn Sekunden. Da die Auflösung mit 1024 × 1024 Pixeln gering ist, sei ein externer Upscaler wie Krea.ai notwendig.

Weiterlesen nach der Anzeige


Portfolio Ben Thouard

Der französische Fotograf Ben Thouard widmet sich dem Ozean. Seine Bilder zeigen Wasser, Wellen und Licht auf eine Weise, die zwischen Dokumentation und abstrakter Kunst changiert. (Bild:

Ben Thouard

)

90 Jahre Kine-Exakta: Die Revolution der Spiegelreflexkamera. Bernd Kieckhöfel blickt auf die Einführung der Kine-Exakta im Jahr 1936 zurück. Die von der Dresdner Firma Ihagee entwickelte Kamera war die erste Spiegelreflexkamera für das Kleinbildformat. Sie revolutionierte die Fotografie, da sie erstmals ein exaktes Sucherbild dessen zeigte, was das Objektiv aufnahm. Damit löste sie das Parallaxenproblem der verbreiteten Messsucherkameras. Die Kine-Exakta war von Beginn an als System mit Wechselobjektiven und umfangreichem Zubehör konzipiert. Auslöser und Filmtransport befanden sich auf der linken Seite, eine ungewöhnliche Ergonomie für heutige Verhältnisse. Nach dem Krieg erlebte die Kamera in der DDR ihre Blütezeit. Das Modell Exakta Varex von 1950 bot als erste Kleinbild-SLR einen wechselbaren Prismensucher, der ein seitenrichtiges Bild lieferte.

Mehr Rot für die Sterne: Kameras für die Astrofotografie. Handelsübliche Kameras filtern tiefrotes Licht, insbesondere die für die rötlichen Emissionsnebel wichtige H-Alpha-Wellenlänge bei 656 Nanometern. Bei einer Astromodifikation wird dieser Filter vor dem Sensor entfernt oder ersetzt. Dadurch reagiert der Kamerasensor deutlich empfindlicher auf dieses rote Licht, was zu farbenprächtigen Aufnahmen der Milchstraße und von Deep-Sky-Objekten führt. Seidel erläutert, dass dieser Umbau Fachwissen erfordert, da unter anderem das Auflagemaß der Kamera angepasst werden muss. Für die Fotografie bei Tageslicht entsteht durch die Modifikation jedoch ein Rotstich, der durch einen manuellen Weißabgleich oder spezielle Clipfilter korrigiert werden kann. Seidel bewertet auch den Nutzen von Lichtverschmutzungs- und Weichzeichnungsfiltern in der einfachen Astrofotografie und erklärt, warum die Canon EOS 6D bis heute eine beliebte Kamera für diesen Umbau ist.



Der Inhalt der c’t Fotografie 2/26 auf einen Blick.

Sie erhalten die aktuelle Ausgabe der c’t Fotografie (2/2026) für 12,90 Euro im heise shop. Dort sehen Sie auch eine komplette Inhaltsübersicht und erhalten Informationen über das exklusive Online-Zusatzmaterial, das wir über eine übersichtlich gestaltete Bedienoberfläche anbieten, dazu Vorschaubilder und das Editorial. Das E-Paper und die Ausgabe für Amazon Kindle kosten jeweils 12,49 Euro.


(tho)



Source link

Künstliche Intelligenz

Netzsperre und Cyberangriffe im Iran


Bei den konventionellen Angriffen auf den Iran durch Israel und die USA ab Samstagmorgen ist die Islamische Republik auch zum Ziel von Cyberattacken geworden. Dies berichtet die iranische Nachrichtenagentur Fars, welche den Revolutionsgarden nahe steht laut der Deutschen Presse-Agentur dpa.

Weiterlesen nach der Anzeige

Betroffen sind demnach mehrere inländische Nachrichtenagenturen und zentrale Plattformen, die mit erheblichen Störungen zu kämpfen hätten. Dazu zählten auch die Websites der Nachrichtenagenturen Irna und Isna. Die Behörden verhängten eine Internetsperre. Die auf Netzsperren spezialisierte Organisation Netblocks berichtete schon am Vormittag auf X, es sei ein „fast vollständiger Internetausfall“.

Viele Menschen im Iran umgehen staatliche Medien und informieren sich – solange sie Zugang zum Internet haben – über Websites der Auslandsopposition oder in sozialen Medien wie Instagram oder Telegram. Daher spielen schwerer zu kontrollierende Dienste wie Starlink eine große Rolle, dem Regime soll es jedoch auch gelungen sein, diese großflächig zu stören.

Bereits während einer Protestwelle im Januar, welche mit mindestens 30.000 Toten blutig niedergeschlagen wurde, hatte der Iran den Netzzugang wochenlang gesperrt. Später wurden diese Beschränkungen wieder gelockert. Es gibt jedoch auch Anzeichen dafür, dass sich das Land dauerhaft vom Internet abkoppeln will.


(nie)



Source link

Weiterlesen

Künstliche Intelligenz

RTL meldet Sky-Deutschland-Übernahme bei EU-Kommission an


RTL hat die geplante Übernahme von Sky Deutschland offiziell bei der Europäischen Kommission angemeldet. Mit der Anmeldung startet die erste Prüfung durch die EU-Kommission, ob der Deal wettbewerbsrechtlich unproblematisch ist.

Weiterlesen nach der Anzeige

Die Europäische Kommission prüft bei Fusionen, Übernahmen oder Besitzerwechseln großer Unternehmen im Europäischen Wirtschaftsraum, ob wettbewerbsrechtliche Bedenken dagegen sprechen. Man wollte weiterhin konstruktiv mit der Brüsseler Behörde zusammenarbeiten, hieß es laut dpa von RTL. Man sei zuversichtlich, die wettbewerbsrechtliche Genehmigung zu erhalten und die Transaktion im ersten Halbjahr 2026 abzuschließen.

RTL hatte im Sommer 2025 mitgeteilt, den Medienkonzern Sky Deutschland übernehmen zu wollen. RTL-Deutschland-Chef Stephan Schmitter soll dann Geschäftsführer des gemeinsamen Unternehmens werden.

Sky Deutschland zählt bislang zum US-Unternehmen Comcast. Mit der Übernahme will sich RTL als große Streaming-Kraft in Deutschland hinter Netflix und Prime Video positionieren.

Zusammengerechnet kämen RTL+ und Sky laut RTL Group auf rund 11,5 Millionen zahlende Abonnenten. Besonders wertvoll dürften dabei die Sportrechte sein: Sky hält unter anderem Übertragungsrechte für die Fußball-Bundesliga und die Formel 1.


(ssi)



Source link

Weiterlesen

Künstliche Intelligenz

Jetzt können wirklich alle programmieren


Wer sich vor einem halben Jahr eine Meinung über KI-Coding gebildet hat, sollte noch einmal aktuelle Tools ausprobieren: Claude Code, OpenAI Codex und Co haben immens an Kompetenz gewonnen und kommen inzwischen auch mit komplexen Projekten klar. In einer 2,5-stündigen Vibecoding-Session erklärt der Entwickler Benjamin Thorstensen, was man bei der Arbeit mit Claude Code und OpenAI Codex beachten muss.

Weiterlesen nach der Anzeige

(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)

Eine kurze Ansage, bevor das Video losgeht. Das Thema KI – und vor allem code-schreibende KI – löst bei vielen von euch und auch bei mir starke Gefühle aus, oft negative. Es ist immer noch nicht klar, was KI mit dem IT-Arbeitsmarkt macht, gerade für jüngere Menschen, und was KI mit Open Source macht, was KI-Slop mit dem Internet macht. Sicher ist auf jeden Fall, dass viele Open-Source-Projekte in KI-generierten Pull Requests ertrinken – und dass GitHub, die größte Code-Plattform der Welt, das jetzt auch eingestanden hat und nachbessern will. Mit KI. Im folgenden Video lassen wir jetzt aber diese riesigen, also wirklich riesigen Meta-Probleme außen vor und konzentrieren uns auf das Thema selbst, nämlich Vibe-Coding oder, vornehmer, agentische Softwareentwicklung. Ich verspreche euch aber, dass in Zukunft hier auf diesem Channel auch KI-kritische Videos zu den großen Themen kommen werden. Und jetzt: let’s go.

Guckt mal hier: Das habe ich heute vibecodet – einen Rezept-Extraktor, auf den ich jegliches Kochrezept, was mir so über den Browser läuft, draufwerfen kann: von YouTube, Instagram, TikTok, sonst wo im Web. Und dann wird das Rezept da rausgezogen und in meine Notion-Datenbank reingeschrieben, genau mit den von mir vorgegebenen Attributen. Ja, und guckt euch mal bitte das Design von der Web-App hier an. Also für mich sieht das ziemlich professionell aus. Und ganz wichtig: Ich kann überhaupt nicht programmieren. Also ich kann mit diesen Tools Dinge tun, für die ich vorher monatelang hätte lernen müssen.

Also das ist wirklich so, als hätte ich so ein kleines Coding-Alien auf der Schulter sitzen, oder ich würde in so einem Riesen-Coding-Mech durch die Gegend fliegen oder so. Das ist wirklich ein gutes Gefühl. Ich habe mich wirklich mächtiger gefühlt damit. Wirklich mächtiger ist, glaube ich, das richtige Wort.

In diesem Video zeige ich euch den ganzen Prozess, also wie ich das gemacht habe mit dieser Rezepte-App. Und obwohl das wirklich jede und jeder von euch hinbekommen würde, fand ich wichtig, mir jemanden dazu zu holen, der das Ganze professionell beurteilen und erklären kann. Ich will euch ja keinen Quatsch erzählen, ne? Und ich hatte ja gesagt: Ich bin kein Entwickler.

Ja, und der Entwickler, das ist auf jeden Fall Benjamin Thorstensen, der seit 14 Jahren als Softwareentwickler und seit einiger Zeit auch sehr intensiv mit KI-Tools arbeitet. Ihr erfahrt im Video also auch noch ein paar Experten-Tricks.

Weiterlesen nach der Anzeige

Coden lassen haben wir einmal Claude Code mit Opus 4.6. Da braucht man ein kostenpflichtiges Abo oder zahlt halt jeden Token einzeln per API. Und parallel auch Codex von OpenAI, das man noch bis Anfang März mit einem kostenlosen ChatGPT-Account nutzen kann. Die fertige Kochrezept-Software läuft in einer der beiden Versionen übrigens ausschließlich mit lokaler KI.

Ja, und diese Vibe-Coding-Session, die hat dann doch ziemlich lange gedauert. Ich weiß aber, dass viele von euch wirklich sowas gerne im Detail sehen wollen. Deshalb habe ich das auch nur leicht geschnitten. Und alle anderen, die das eben nicht in dieser Ausführlichkeit sehen wollen, die können einfach zum Ende skippen. Wir haben da so einen Kapitelmarker gemacht, der heißt „Zusammenfassung“. Und da seht ihr dann nur die wichtigsten Erkenntnisse und das Fazit. Bleibt dran.

*Ab hier jetzt eine mehrstündige, ungeskriptete Coding-Session, deshalb kein Transkript*

So, jetzt die Zusammenfassung: Ja, Vibe Coding funktioniert und es ist so einfach, dass es wirklich alle benutzen können. Man gibt einfach ein, was man will, und dann wird das Programm erzeugt. Und das ist wirklich so einfach. Es klingt jetzt immer so, so ist es einfach, aber es ist wirklich so einfach. Man sagt einfach: Machen wir ein Programm, was Schafe zählt und mad, und dann macht es das. Und wenn man was nicht verstanden hat, dann tippt man das auch ein und fragt das und dann beantwortet es das. Und wenn man irgendwas anders haben will, wenn man irgendwas verändert haben will, dann kann man es auch einfach eintippen und das funktioniert.

Man braucht auch keine Entwicklungsumgebung dafür wie früher, sondern man braucht nur das Coding Tool wie zum Beispiel CodeCode. Man kann natürlich in einer Entwicklungsumgebung wie VS Code oder Cursor vibe-coden, aber das muss man nicht.

Wenn ihr jetzt sagt: Ja, aber ChatGPT, die ja doch schon vor Jahren in der ganz normalen Webansicht Code erzeugt. Ja, aber das funktioniert a) laut meiner Erfahrung nicht wirklich immer so zuverlässig und b) können die Coding Tools viel mehr selbst machen, zum Beispiel auch direkt Tools auf dem Rechner aufrufen. Und die können auch zum Beispiel, wenn ihr Kontextspeicher voll ist, einfach eine Zusammenfassung von sich selbst abspeichern, also was noch zu tun ist in der Programmierarbeit. Und dann können die auch nach gelöschtem Kontext einfach weitermachen. Also sind auch größere Projekte möglich.

Und hier mal kurz, was man zum Vibe Coding braucht oder was wir empfehlen. Also der Klassiker ist ja Claude Code von Anthropic, das man am besten mit dem Modell Opus 4.6 verwendet. Kostet Geld. Zum Beispiel braucht man das Pro-Abo. Das kostet monatlich kündbar 21,42. Ich hatte mir für dieses Video für einen Monat ein Max-Abo gekauft. Das kostet sage und schreibe 107,10 Euro im Monat. Kann man aber ja monatlich kündigen.

Ansonsten hat auch Codex von OpenAI viele Fans. Das kann man bis Anfang März 2026 sogar mit einem Nicht-Abo verwenden, also mit dem kostenlosen Account. Und dann gibt es auch noch Google Gemini. Das ist in Sachen Coding so ein bisschen der Underdog. Das kommt aber so langsam. Also will man Gemini zum Web-Coding benutzen, braucht man auch so ein Pro-Abo für 22 Euro. Also, und alle drei kann man natürlich auch ohne Abo per Token über API-Zugang bezahlen. Das geht dann aber sehr, sehr schnell richtig ins Geld.

Ja, und ganz wichtig: Man kann auch ein lokales Modell kostenlos auf eigene Hardware verwenden, zum Beispiel Qwen 3 Coder aus China. Dafür braucht man aber natürlich passende Hardware und zum Beispiel das Coding Tool Open Code. Aber auch in CodeCode kann man lokale LLMs einbinden. Die beste Qualität liefern aber zurzeit die Sprachmodelle Anthropic Opus 4.6 und OpenAI Codex.

Laut Benjamin hier aus dem Video unterscheiden die sich dadurch, dass Codex quasi der Entwickler ist, der, bevor er zu programmieren beginnt, erst mal eine Stunde damit verbringt, das Problem zu verstehen und dann mit einer sauberen Lösung kommt, hat aber einen Charakter wie trockenes Brot und ist nicht besonders kreativ, sondern macht vor allem das, was man ihm vorgibt. Opus ist so mehr der Senior Dev, der sofort loslegt, der sich ein neues Framework überlegt und manchmal ein bisschen an der Lösung vorbeischießt, aber oft auch mit einer Lösung kommt, an die man selber gar nicht gedacht hat. Bei Opus sagt Benjamin, hat er mehr dieses Lotterie-Gefühl, wo er dann vorher nicht weiß, ob er jetzt da den Jackpot knackt oder eben nicht.

Außerdem hat Opus im Gegensatz zu Codex nicht in der Design-Schule geschlafen, vor allem mit dem Add-on, dazu aber später noch mal mehr. Benjamin sagt, dass beide, also sowohl Claude Code als auch Codex, beide ihre Daseinsberechtigung haben. Er benutzt auch beide je nach Aufgabe. Bei Google Gemini, was er jetzt gerade erst in der Version Gemini 3.1 Pro ausgerollt wird, da sagt Benjamin, dass das überall so ein bisschen geschlafen hat in der Coding-Schule, nur nicht beim Design. Also was daraus kommt, sagt er, das ist echt ziemlich gut.

So, jetzt aber noch mal kurz zu den Coding Tools selbst oder den Harnesses, wie man in der KI-Szene sagt, also den Gurtgeschirren, also wie bei Pferden. Also das sind alle Tools und Fähigkeiten, die dem Modell extern zur Verfügung gestellt werden. Also was weiß ich, im Internet suchen oder Files öffnen. Die Harnesses sind sich alle recht ähnlich, funktionieren aber natürlich am besten mit den hauseigenen Modellen. Also Claude Code mit Opus, Codex mit Codex und so weiter.

Es gibt die alle in mindestens einer grafischen Version und in einer Kommandozeilen-Version. Die meisten laufen auf allen drei großen Betriebssystemen, einzelne mal nicht unter Windows oder mal nicht unter Linux. Hier mal kurz die Namen, damit ihr wisst, was ihr runterladen müsst. Die Kommandozeilentools heißen bei Anthropic Claude Code, bei OpenAI codex-cli, bei Google gemini-cli. Die grafischen Varianten sind bei Anthropic einfach die Claude-App, bei OpenAI heißt sie Codex, bei Google ist das zum Beispiel Antigravity.

Ja, und ich muss sagen, ich mag die Kommandozeilen-Varianten irgendwie lieber. Das ist irgendwie nice mit dieser ASCII-Art, Retro-Ästhetik. Außerdem klingt kurios, aber ich finde die sogar einfacher zu bedienen als die GUI-Tools, weil man da ja wirklich nichts anderes machen kann, als einfach einzutippen, was man will, in Menschensprache. Also man kann auch sagen, wenn das Ding fertig ist: Starte das Programm oder lösch das oder was weiß ich. Es macht einfach, was man will und das ist praktisch.

Beachten sollte man auf jeden Fall, dass man Claude Code am Anfang immer in den Planungsmodus schaltet. Das geht mit Shift+Tab. Da plant er dann erst mal das Vorgehen, bevor es dann richtig losgeht. Bei Codex muss man das nicht unbedingt machen, der entscheidet automatisch zwischen Planen und drauflos coden. Ganz gut.

Ja, okay. Und wie waren jetzt die Ergebnisse? Ja, funktioniert haben beide, also Claude Code und Codex. Die haben beide was Funktionierendes rausgegeben. Die haben beide auch die Audiospur zum Beispiel aus Videos in Text transkribiert. Die haben auch absolut problemlos die Daten in Notion reingepumpt. Also die haben problemlos mit der API zusammengearbeitet.

Die Qualität der Rezepte, die da dann am Ende in Notion standen, die, das habe ich mir auch schon gedacht: Qualität steht und fällt halt mit dem LLM, was da intern benutzt wird für die Rezepteanalyse, weil das muss halt erkennen, was ist hier jetzt Rezept, was ist Quatsch, was muss ich umrechnen und so weiter.

Ich fand interessant, dass das super kleine Open-Weights-LLM, das auf meinem MacBook lief, schon so einigermaßen brauchbare Ergebnisse ausgegeben hat. Das OpenAI-LLM in der Cloud war etwas besser von den Ergebnissen her, aber auch nicht viel. Sowohl Claude als auch Codex, die haben beide eine Web-App gebaut, die ich auf meinem Rechner lokal ausgeführt habe. Vom Aussehen der Web-App war Claude aber deutlich besser und das hat echt vor allem mit diesem offiziellen Plug-in, das heißt Frontend Design, zu tun. Sobald das läuft, sieht das alles wirklich richtig gut aus, was das so ausgibt, also frontendmäßig.

Ich habe hier auch noch einen wilden Einschub, denn am Ende hat die beste Rezeptqualität geliefert, was wirklich nur wenige Minuten gedauert hat, nämlich das war OpenClaw, einfach über Telegram mit diesem Prompt hier. Falls ihr von OpenClaw noch nie gehört habt, dazu gibt es ein Video, ein richtiger Hype gerade. Das zeigt mir eigentlich, dass man in Zukunft vielleicht gar keine UI braucht, sondern dass man einfach mit seinem privaten Bot schreibt oder spricht und der macht dann einfach die Sachen, die man haben will.

Aber ich meine, dass OpenClaw hier die beste Rezeptqualität produziert hat, das liegt auch natürlich vor allem daran, dass OpenClaw auch für die Rezepteaufbereitung Opus 4.6 verwendet hat, also einem der besten Sprachmodelle, die es zurzeit gibt. Die anderen beiden vibe-gecodeten Projekte, die haben das Rezept ja intern mit viel kleineren Sprachmodellen verarbeitet. Das macht halt einen riesen Unterschied aus.

Ja, krass. Ich muss immer wieder an einen Kommentar neulich im Heise-Forum denken, wo jemand über KI-generierten Code schrieb: Ja, man kann Dinge auf Hello-World-Niveau oder zusammengeklaute Funktionen aus den Sources der Welt generieren lassen, selbst das jedoch fehlerhaft und nur mit viel Kontrolle, Nacharbeit benutzbar. Und ich muss sagen, das stimmt nicht. Man kann den erzeugten Code sicher kritisieren, aber ihr seht es ja im Video: Er funktioniert. Und für mich als Nicht-Coder ist das ein unglaubliches Hilfsmittel.

Früher, wenn ich eine Idee für eine App oder so hatte, musste ich halt überlegen: Ist die Idee so toll, dass ich jetzt irgendwie überlege, wo ich ein Team her bekomme, will ich das irgendwie finanzieren oder so? Und hier mache ich einfach an einem Abend Prototypen fertig. Und ja, das verändert natürlich die Technikwelt. Das muss man, glaube ich, nicht mehr diskutieren.

Problematisch wird es natürlich jetzt, wenn ich jetzt denke, dass ich meinen App-Prototypen einfach veröffentliche, ohne dass ich überhaupt verstehe, was da intern passiert. Das ist natürlich gefährlich. Deshalb haben wir auch neulich in unserem Podcast c’t 4004 darüber fabuliert, dass man eigentlich einen Vibe-Coding-Führerschein einführen müsste, damit man zumindest ansatzweise versteht, was für einen Schaden so die eigene vibe-gecodete Software im schlimmsten Fall anrichten kann.

Aber wie gesagt, hier reden wir jetzt über Software, die man veröffentlichen oder sogar verkaufen will. Für so private Tools und lokale Experimente, wie in diesem Video, wie dieses Rezept-Tool, das können auf jeden Fall auch nicht technische Leute vibe-coding-mäßig ausprobieren. Ich finde, das demokratisiert wirklich die Softwareentwicklung. Vor allem, wenn das irgendwann alles genauso gut mit lokalen LLMs geht, dann verlassen die Daten nicht mal mehr den eigenen Rechner. Vielleicht geht das ja irgendwann auch auf ’n Smartphone lokal. Wer weiß. Ja, wird auf jeden Fall alles interessant.

Wie seht ihr das? Gerne alles in die Kommentare schreiben. Ich lese die zumindest in den ersten Tagen nach Veröffentlichung alle.

c’t 3003 ist der YouTube-Channel von c’t. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.


(jkj)



Source link

Weiterlesen

Beliebt