Connect with us

Entwicklung & Code

Interview: So arbeiten die Entwickler bei OpenAI


Für viele Entwickler sind Programmierassistenten auf Basis großer Sprachmodelle (LLMs) nicht mehr wegzudenken. Da Kompetenz in diesem Feld für neue Modelle besonders relevant ist, nennen Entwickler Coding-Kapazitäten oft neben Mathe-Fähigkeiten, wenn sie die nächste Generation ihrer Produkte hypen wollen. Derzeit nutzen Entwickler oft nicht das Eine Modell, sondern greifen für verschiedene Anforderungen auf die Klassenbesten verschiedener Anbieter zu – wenn nicht sogar kleinere Modelle simplere Aufgaben abwickeln.

Weiterlesen nach der Anzeige

Unter dem Namen Codex bündelt OpenAI die Programmierfähigkeiten seines Angebots, auf die sich über eine CLI-Variante, als IDE-Extension oder auf dem Mac neuerdings per App zugreifen lässt. Im Gespräch mit iX erzählt Dominik Kundel, Developer Experience Lead bei OpenAI, über Softwareentwicklung mit Codex bei OpenAI und den Zielen, die das Unternehmen mit dem Tool verfolgt.




Dominik Kundel ist Developer Experience Lead für Codex bei OpenAI in San Francisco. Er sitzt bei OpenAI zwischen dem Produkt- und dem Go-to-Market-Team, programmiert am Tooling und an der Dokumentation und Lehrmaterialien, um dafür zu sorgen, dass Leute das Meiste aus Codex herausholen können.

iX: OpenAI hat zwischen 2021 und 2025 drei Werkzeuge vorgestellt, die Codex heißen. Was ist der aktuellste Ableger der Reihe denn jetzt genau?

Dominik: Grundsätzlich verstehen wir Codex als eine Einheit. Codex ist ein Software Engineer, der da sein soll, wo Entwickler arbeiten. Das ist einmal die Terminal-Oberfläche Codex CLI. Außerdem gibt es Codex für Code Reviews in GitHub und IDE Extensions, um Codex in Cursor oder in VS Code zu benutzen. Darunter liegen die Codex-Modelle, aktuell GPT-5.2 Codex. Das sind auf Programmieren trainierte Modelle und der Codex Harness, in dem die Agenten interagieren. Diese Teile geben wir auch in der API raus, worüber Cursor oder Open Code ebenfalls mit Codex interagieren können.

Wie helft ihr euren Nutzern dabei, den Überblick über ihren generierten Code zu behalten?

Einerseits mit der Funktion Codex Code Review, die automatisch mit der ChatGPT-Subscription kommt. Codex ist gut darin, selbst komplexe Codebases zu navigieren und zu verstehen. Wir haben sehr große Codebases bei OpenAI und testen das Ganze damit selber. Andererseits ist Codex gut darin, Rückfragen zu stellen, um den Code zu verbessern. Wir benutzen Codex selbst viel, um sozusagen aufzuräumen. Wir schicken Codex die Aufgabe, Sachen zu refactorn oder Bugs zu finden. Ich hab letztes Jahr am Agents SDK gearbeitet und hatte dabei konstant mehrere Codex-Instanzen laufen, die noch nach Bugs gesucht haben oder Sachen verbessert haben.

Weiterlesen nach der Anzeige

Das heißt, ihr entwickelt bei OpenAI selbst mit Codex?

Grundsätzlich sieht es bei uns so aus, wie bei vielen Silicon Valley Softwarefirmen, wir benutzen also Git und PR-Reviews. Allerdings haben wir durch den ganzen Prozess Codex verteilt. Das heißt, Entwickler, aber auch Product Manager, Designer, Data Scientists, andere, eigentlich mittlerweile fast die komplette Firma benutzt Codex, um Code zu schreiben. Der Code geht dann aber noch durch die traditionellen Pull Requests Reviews und den ganzen Prozess. Wir nutzen Codex aber auch für einen zusätzliches Review, durch das aller Code läuft. Wir haben das Modell explizit auf Code Reviews trainiert.

Mich überrascht häufig, wenn Codex Sachen findet, die ich selbst nicht gefunden hätte. Vor allem, da ich zum Teil an Dokumentation arbeite und dann etwa einen Pull Request hochschicke und auf einmal dann ein Kommentar kommt, dass auf der aktuellen Seite die Dokumentation und der Source Code nicht übereinstimmen. Etwa, weil es eine Logikproblem gibt. Trotzdem wird jeder PR noch von Menschen durchschaut. Häufig ist es so, dass die Leute als Erstes Codex benutzen, um den PR zu reviewen und dann eventuell irgendwelche CI/CD Probleme von Codex reparieren lassen, bevor ein Kollege den Pull Request dann durchschaut.

Hast du das Gefühl, du hast dann noch die Kontrolle über die ganzen Agenten oder bist du eigentlich nur noch ein Mensch, der Sachen abnickt?

Nee, ich habe noch Kontrolle. Vor allem bei komplexeren Problemen bitte ich Codex, erstmal einen Plan zu schreiben. Wir haben einen Kollegen, Aaron Friel, der nennt seine Pläne „Exec Plans“. Er lässt das Modell ein komplettes Dokument schreiben, wo es dokumentiert, welche Entscheidungen es getroffen hat und was der Fortschritt ist. Da hat man ein Log, durch das man nochmal durchgehen kann und die Richtigkeit der Entscheidungen bestätigen kann. Das lässt sich auch noch weiter aufteilen, um weiterhin mehrere PR-Reviews zum Durchgehen zu haben.

Was wir generell vorschlagen ist, die gleichen Systeme aufzusetzen, wie wenn man mit einem großen Team an denselben Sachen arbeitet. Das heißt, CI ist eine der ersten Sachen, die ich normalerweise aufsetze, um sicherzustellen, dass ich dann auch Test Coverage habe. Das hilft dann auch Codex. Codex ist generell darauf trainiert, zu verifizieren, ob die Aufgaben fertig sind. Wenn man also nach einem neuen Feature fragt und bereits Tests hat, schreibt Codex automatisch neue Tests. Sowas hilft dann bei der Maintenance. Genauso wie weiterhin Code Reviews zu machen und Dokumentation zu behalten. Ich habe das Gefühl, dass die Codebases besser aussehen, weil Codex hilft Features zu dokumentieren und auch bei anderen Aufgaben hilft, die in der Realität oft hinten anstehen.

Benutzt ihr nur Codex oder benutzt ihr auch Modelle von anderen Anbietern?

Wir benutzen nur OpenAI-Modelle. Bei der Wahl des Editors sind wir nicht festgelegt, da kann jeder Kollege die IDE of Choice einsetzen, die eventuell noch weitere KI-Features hat. Wenn ich mal Code schreiben muss, dann benutze ich Cursor, wo ich dann das Cursor Tab Modell benutze. Cursor ist allerdings auch ein großer OpenAI-Kunde.

Viele Entwickler schwören aktuell auf Claude Code mit Opus 4.5. Wie wollt ihr da mit Codex aufholen?

Ich glaube, dass es da zwei Perspektiven gibt. Auf der einen Seite sind die Leute, die Claude Code sehr mögen, mit den Features, die es gibt und auch das Terminal Interface, was die Modelle haben. Die Leute mögen es, mit Opus zu schreiben. Wir hören häufig, dass Codex zu langsam ist. Da arbeiten wir auch dran. Auf der anderen Seite gibt es viele Leute, die mittlerweile auf Codex schwören. Die Anwender loben, dass sie Codex ein Problem geben und das Tool einfach daran arbeitet. Wenn sie dann später wiederkommen, ist Codex komplett fertig.

Anders als bei Claude Code, wo man sich dran gewöhnt hat, hin und her zu schreiben, ist Codex gut darin, ein Problem zu nehmen und wenn es das Ziel verstanden hat, einfach für mehrere Stunden an diesem Problem arbeiten. Peter Steinberger, der im Moment auf X und LinkedIn sehr viral geht, schreibt darüber, dass er Codex bevorzugt und wie er das meiste aus Codex rausholt.

Wie wollt ihr Codex denn schneller machen?

Ich kann da keine Details nennen, aber wir haben zum Beispiel vor Kurzem eine Cerebras-Partnerschaft angekündigt.

Du hast über große Codebasen gesprochen, wie ihr sie ja selber habt. Gibt es besondere Strategien für den Umgang damit?

Mono-Repos helfen sehr, um dem Modell Kontext zu geben. Also, in der Lage zu sein, Codex etwa auf das Backend zu verweisen, wenn man gerade zum Beispiel an einer Android-App arbeitet. Ein gutes Beispiel dafür ist unser Browser Atlas. Da gibt es das Agent Panel, über das ein Agent in einem logged-in oder logged-out State dann selbst mit dem Browser umgehen kann. Das Feature und den Wechsel zwischen den Zuständen hat größtenteils Codex geschrieben. Dafür musste es die Codebase mit vier verschiedenen Sprachen durchgehen. Diesen Kontext zu geben ist sehr hilfreich.

Außerdem schlagen wir vor, CI/CD zu haben und generell Validation Tools. Wenn man also Frontend-Produkte baut, auch die Tools zu haben, die sicherstellen, dass die Frontend-Komponenten richtig gerendert werden. Man kann dann die Screenshots wieder als Image-Input in Codex reingeben und Codex kann sich dann quasi selbst validieren. Ein weiterer Punkt ist Naming. Wir empfehlen, Namen zu benutzen, die sehr einfach zu finden sind. Codex benutzt nämlich Tools wie grep und ripgrep, um sich in der Codebase zurechtzufinden. Wenn es die Sachen schnell finden kann, ist Codex wesentlich schneller.

Einer der Gründe, warum Codex den Leuten langsam vorkommt, ist, dass es häufig erstmal auf eine Tour geht, um sich zurechtzufinden. Codex springt nicht direkt rein und schreibt irgendeinen Code, sondern es geht erstmal rum und versucht, zu verstehen. Genauso wie das ein Software-Entwickler machen würde: Wie sieht die Codebase hier aus, wo sind die Daten oder die Dateien, mit denen ich umgehen möchte. Das Modell versucht zu verstehen, wie das Ganze aufgebaut ist, bevor es dann anfängt. Naming Conventions, die dem Modell erlauben einfacher herumzuspringen, helfen.

Was hebt die neue Codex App vom CLI oder dem Plug-in-Einsatz ab?

Die App ist gezielt entwickelt, um Leuten beim Multitasking zu helfen. Viele Leute nutzen mehrere Codex-Instanzen parallel, die dann mehrere CLI-Tabs nebeneinander aufbauen. Die Codex-App ist als Command Center gedacht. Man kann den Überblick über alle Projekte behalten und schnell zwischen den Projekten wechseln. Dabei hat die App ein ähnliches User-Interface wie die IDE-Extension, man hat also Zugriff auf Features wie Worktrees. Wenn man an mehrere Features in der gleichen Codebase arbeiten will, kann man mehrere Worktrees aufbauen, um dann Aufgaben im Hintergrund laufen zu lassen und dann schnell dazwischen zu wechseln. Außerdem heben wir in der App Agent Skills hervor, also die Möglichkeit, dem Agenten neue Capabilities wie bestimmte APIs oder bestimmte Tools beizubringen.

Also generell Tool-Use-Funktionen?

Das ist ähnlich wie Tool Use, nur, dass der Agent das Ganze „progressively discovered“. Man kann jetzt bestimmte Prozesse einbauen. Ich habe letztens ein Screenshot-Skill gebaut, der auch in der App enthalten ist. Damit kann man Codex anweisen, Screenshots der App zu machen, die Codex dann benutzen kann, um selber zu verifizieren, ob es den Job richtig gemacht hat. Als ich diesen Skill gebaut habe, habe ich dann meinen PR zu GitHub geschickt, der Codex Code Review auf GitHub hat dann ein Problem gefunden. Ich habe dann den GitHub „address code review“-Skill benutzt, um Codex auf GitHub zu schicken und das Problem zu analysieren, zu fixen und ein Update zu dem PR zu schicken.

Man kann in diese Skills Prozesse einarbeiten und dann mit dem kombinieren, was wir Automations nennen. Automations sind dann Aufgaben, die entweder jede Stunde oder zu einer bestimmten Uhrzeit am Tag laufen. Die Automations laufen im Hintergrund auf einem Worktree. Wenn sie irgendein Problem finden, können sie das Ganze an dich weiterleiten. Ein Kollege hat beispielsweise jede Stunde eine Automation laufen, die alle seine Pull Requests durchgeht und guckt, ob CI bei denen grün ist oder ob es irgendwelche Probleme gibt und fixt die dann automatisch selber. Oder die Automation läuft einmal am Tag durch Sentry durch und guckt sich die Error-Logs an. Dann sucht sich das Programm ein besonders großes Problem aus und versucht es selber zu fixen und öffnet einen PR.

Mit Codex und den Automations in der App kann man als Entwickler dann auch die Aufgaben neben der Feature-Entwicklung im Blick behalten. Also die Aufgaben, die so an der Seite hängen oder nicht-technische Aufgaben sind, wie etwa bei der Codebase auf dem Laufenden zu bleiben. Da kann man sich zum Beispiel einmal am Tag ein automatisiertes Update mit den Änderungen an der Codebase schicken lassen und dazu, was in dem Fall an der Dokumentation aktualisiert werden muss.

Du hast berichtet, dass ihr am Ende immer die Ergebnisse von Codex kontrolliert. Wie vibe-coding-freundlich ist euer Tool?

Wir wollen, dass Codex eine Stütze für professionelle Entwickler ist. Codex kann an sehr komplexen Problemen arbeiten, weswegen es auch etwas langsamer ist. Das heißt, es kommt darauf an, was man aus dem Vibe Coding herausholen will. Ich habe zum Beispiel schonmal eine komplette Demo-App während eines Meetings gebaut, was viele so Vibe Coding nennen würden. Es funktioniert, aber es ist nicht die gleiche Erfahrung, als wenn man sich beispielsweise was mit Lovable bauen lassen würde.

Dominik, vielen Dank für das Interview.


(pst)



Source link

Entwicklung & Code

WWDC 2026 am 8. Juni: Apple gewährt ersten Blick auf iOS 27 und macOS 27


Am Montag, 8. Juni, gewährt Apple einen ersten offiziellen Blick in die nächsten großen Versionen seiner Betriebssysteme. An diesem Tag findet der Auftakt zur Entwicklerkonferenz WWDC statt, wie das Unternehmen am Montag mitteilte. Traditionell beginnt die Konferenz mit einer Keynote und der anschließenden „Platforms State of the Union“, der speziellen Entwickler-Keynote. Erwartet werden unter anderem die Betriebssystem-Updates iOS 27, iPadOS 27 und macOS 27.

Weiterlesen nach der Anzeige

Bis zum 12. Juni können App-Entwickler dann online Details zum erwarteten neuen Framework Core AI erfahren, mit Designern und Entwicklern von Apple in Kontakt treten oder an Workshops teilnehmen. Dabei dürfte auch das bereits in Xcode integrierte agentische Coding für Entwickler eine wichtige Rolle spielen.

Der Termin war bereits – dem Rhythmus der Vorjahre folgend – erwartet worden. Über weitere Inhalte gibt Apple nur wenig preis. Das diesjährige Logo, ein grell leuchtender Kreis in Anspielung auf das kreisrunde Apple-Hauptquartier in Kalifornien, und der ebenfalls leuchtende Schriftzug WWDC26 lädt zu Spekulationen ein. Die Erfahrung lehrt aber, dass die Bildsprache so abstrakt ist, dass sich selbst rückblickend nicht zwangsläufig Rückschlüsse herstellen lassen.

Als recht wahrscheinlich gilt, dass Apple nach der Erstvorstellung der Apple Intelligence im Jahr 2024 nach zwei Jahren umfassende neue KI-Funktionen auf Basis von Google Gemini plant. Apple selbst hat in der Medienmitteilung bereits erwähnt, dass es KI-Neuigkeiten geben wird. Angesichts der Kooperation mit Google und der Integration des LLM Gemini wird spätestens zur WWDC erwartet, dass die kontextsensitive Siri als echter Chatbot Gestalt annimmt. Sie sollte eigentlich schon in iOS 18 kommen. Außerdem soll laut Gerüchten ein Hauptaugenmerk in diesem Jahr auf Fehlerbehebungen und Optimierungen der Software liegen.

Wie in den Vorjahren haben ausgewählte Entwickler und Studenten die Möglichkeit, am 8. Juni persönlich bei einer Sonderveranstaltung im Apple Park dabei zu sein – die Teilnehmerzahl ist begrenzt. Die Bewerbungsfrist für das Losverfahren läuft bis zum 30. März, die Benachrichtigung der ausgewählten Teilnehmer soll am 2. April erfolgen.

Weiterlesen nach der Anzeige

Neben den Inhalten richtet Apple auch den Blick auf seinen Entwickler-Nachwuchs: Am 27. März werden die Teilnehmer der diesjährigen Swift Student Challenge über ihren Status informiert. Die Gewinner können sich für einen Platz bei der Vor-Ort-Veranstaltung im Apple Park bewerben. 50 besonders ausgezeichnete „Distinguished Winners“ werden zudem zu einem dreitägigen Aufenthalt in Cupertino eingeladen.

Die Konferenz ist über die Apple Developer App, die Webseite und den Apple-YouTube-Kanal zugänglich.

Lesen Sie auch


(mki)



Source link

Weiterlesen

Entwicklung & Code

Jetzt auch für Windows: Terminal-Multiplexer Zellij 0.44.0 erschienen


Der in Rust geschriebene Terminal-Workspace Zellij ist in Version 0.44.0 erschienen. Das Release bringt unter anderem nativen Windows-Support, die Anbindung via HTTPS an entfernte Sessions sowie umfangreiche Erweiterungen der Kommandozeilensteuerung für die Automatisierung.

Weiterlesen nach der Anzeige

Wie die Entwickler im offiziellen Blog mitteilen, läuft Zellij nun nativ unter Windows. Der Funktionsumfang entspricht dem der Linux- und macOS-Versionen. Bislang war der Einsatz unter Windows nur über das Windows Subsystem for Linux (WSL) möglich.

Aufbauend auf dem in Version 0.43.0 eingeführten Webserver können Nutzer sich nun direkt aus dem Terminal heraus per HTTPS an eine entfernte Zellij-Session anbinden – ganz ohne Browser. Der Befehl zellij attach genügt dafür. Die Verbindung nutzt den eingebauten Webclient, der sich wie ein Browser gegenüber dem Zellij-Web-Server authentifiziert.

Ergänzend dazu gibt es neuerdings einen Read-Only-Modus für das Session-Sharing. Über zellij watch oder im Browser mit einem speziellen Read-Only-Token können Dritte eine Session ausschließlich lesend verfolgen. Solche Tokens lassen sich per zellij web --create-read-only-token oder über das Share-Plug-in (Strg+O, S) erzeugen. Dieses Feature eignet sich besonders für Lehrveranstaltungen, Demonstrationen, Screencasting oder das Streaming, bei denen Zuschauer den Terminalinhalt beobachten, aber nicht eingreifen sollen.

Zellij 0.44.0 hat die Kommandozeilensteuerung erheblich erweitert. Der Befehl zellij run unterstützt im aktuellen Release Flags wie --blocking, --block-until-exit-success und --block-until-exit-failure, mit denen sich Kommandos konditionell verketten lassen. So lässt sich etwa eine Sequenz aus Tests und anschließendem Release-Build abbilden: zellij run --block-until-exit-success -- cargo test && zellij run --blocking -- cargo build --release.

Neue CLI-Aktionen wie zellij action list-panes liefern detaillierte Informationen zu geöffneten Panes mitsamt IDs, Titeln, ausgeführten Befehlen und Koordinaten. Mit zellij action send-keys lassen sich Tasteneingaben an bestimmte Panes senden, zellij action dump-screen gibt den aktuellen Viewport oder den Scrollback-Buffer aus. Über zellij subscribe können externe Tools Echtzeit-Updates aus der Session abonnieren. Hinzu kommen verbesserte Befehle für detach und switch-session sowie die Möglichkeit, Floating Panes atomar ein- und auszublenden. Pane- und Tab-IDs werden nun als Rückgabewerte geliefert, was die Skript-Integration erleichtert.

Weiterlesen nach der Anzeige

Der überarbeitete Layout-Manager lässt sich über Strg+O, L aufrufen. Nutzer können Layouts in neuen Tabs öffnen, auf den aktuellen Tab anwenden oder den Zustand eines Tabs als neues Layout aufzeichnen. Der ebenfalls neu gestaltete Session-Manager fasst das Erstellen neuer Sessions, das Anhängen an bestehende und das Wiederherstellen beendeter Sessions in einer einzigen Ansicht mit Fuzzy Finding zusammen.

Darüber hinaus lassen sich Pane-Grenzen neuerdings mit der Maus oder per Strg+Scrollrad verschieben. Dateipfade in Compiler-Ausgaben oder Logdateien erkennt Zellij automatisch und öffnet sie per Klick.

Für Plug-in-Entwickler stellt Version 0.44.0 neue Rust-APIs bereit. Sie ermöglichen unter anderem den Zugriff auf Scrollback-Inhalte anderer Panes, das Hervorheben von Text im Viewport, das Setzen von Pane-Farben sowie das Auslesen von Umgebungsvariablen und das Auslösen von Session-Saves. Da neue UI-Funktionen in Zellij grundsätzlich als Erweiterungen umgesetzt werden, stehen diese APIs auch externen Plug-ins zur Verfügung.

Siehe auch:


(fo)



Source link

Weiterlesen

Entwicklung & Code

Google schiebt die Gaming-Umgebung Agones in die CNCF


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Gaming-Erweiterung für Kubernetes, Agones, kommt zur Cloud Native Computing Foundation (CNCF) und startet dort im Status einer Sandbox.

Weiterlesen nach der Anzeige

Laut CNCF-Blog ist das Open-Source-Projekt ein fester Bestandteil der Games-Industrie, der erste offizielle Partner war von Anfang an Ubisoft. 250 Entwicklerinnen und -Entwickler beteiligen sich an Agones, was sich unter dem Dach der CNCF weiter ausbauen soll.

Das von Google 2017 ins Leben gerufene Projekt dient dem Bereitstellen von Multi-Player-Games in der Kubernetes-Welt. Entwicklerinnen und Entwickler brauchen damit eine Anwendung nur einmal zu bauen und können sie überall bereitstellen, wobei sowohl lokale als auch Cloud-Komponenten zum Einsatz kommen können.


(who)



Source link

Weiterlesen

Beliebt