Connect with us

Entwicklung & Code

Postman wird Git-native und bringt KI-Agent-Mode für API-Workflows


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Der API-Werkzeughersteller Postman hat eine grundlegend überarbeitete Version seiner Entwicklungsplattform vorgestellt. Das Update macht die Anwendung vollständig Git-nativ und führt mit dem Agent Mode sowie einem zentralen API Catalog neue Funktionen ein, die auf die Zusammenarbeit mit autonomen KI-Agenten abzielen.

Weiterlesen nach der Anzeige

Laut der Ankündigung im Postman-Blog werden APIs immer stärker zur kritischen Schnittstelle zwischen Agenten und der realen Welt. Der zentrale Gedanke dabei: Im Unterschied zum bisher deterministischen Ansatz treffen KI-Agenten zur Laufzeit probabilistische Entscheidungen darüber, welche APIs sie aufrufen, wann und in welcher Reihenfolge. Fehlerhafte oder unzuverlässige Schnittstellen könnten sich in agentengesteuerten Systemen schnell kaskadierend auswirken. Die Neuerungen in Postman sollen Entwicklerteams daher auf die zunehmend agentengetriebene Softwareentwicklung vorbereiten.

Der wohl tiefgreifendste Umbau betrifft die Arbeitsweise mit Versionskontrolle. Die neue Postman-Version ist laut Hersteller von Grund auf Git-nativ aufgebaut. Entwicklerinnen und Entwickler sollen in Postman auf demselben Branch arbeiten können, auf dem sie auch Code schreiben – parallel zu ihrer IDE. Die Git-native Architektur ermögliche zudem Offline-Arbeit.


Aufmacher bcc API

Aufmacher bcc API

(Bild: avdyachenko/Shutterstock)

Die Online-Konferenz betterCode() API von iX und dpunkt.verlag zeigt an zwei Tagen (12. und 21. Mai 2026) moderne API-Konzepte: Protokolle, Routing, Testen usw. Sicherheit von APIs ist ebenso ein Thema wie die neue LLM-Schnittstelle Model Context Protocol (MCP).

Ein wesentliches Detail für den Entwickleralltag: Postman führt das neue Collection-3.0-Format ein, das YAML-Dateien statt JSON-Blobs verwendet. Collections werden dabei in einzelne YAML-Dateien aufgeteilt. Die Dateien sollen damit nicht nur für KI-Agenten lesbar und schreibbar werden, sondern sich auch einfacher vergleichen und durch Menschen überprüfen lassen. Sämtliche Postman-Assets – darunter Specs, Flows und lokale Mock-Server – werden zusammen mit dem Code versioniert.

Neu sind außerdem codebasierte lokale Mock-Server, die API-Server simulieren und sowohl lokal als auch in der CI-Pipeline laufen können. Postman verspricht sich davon mehr Flexibilität als von rein statischem Mocking: Mock-Server sollen somit stärker ins Zentrum der Entwicklung rücken, etwa beim Entwurf neuer APIs oder beim Stubbing von Abhängigkeiten.

Weiterlesen nach der Anzeige

Moderne Softwaresysteme nutzen selten nur ein einziges Protokoll, doch die meisten Werkzeuge behandeln jedes Protokoll separat. Postman erlaubt es Teams nun, HTTP, GraphQL, gRPC, MCP, MQTT, WebSockets und KI-Requests in derselben Collection zu organisieren. Automatisierung und Validierung über HTTP, GraphQL und gRPC hinweg sollen im Collection Runner möglich sein, weitere Protokolle sollen folgen. Laut Postman ergibt sich daraus ein systemweites Testen, das das tatsächliche End-to-End-Verhalten von Systemen abbilden soll – ohne den Koordinationsaufwand, der entsteht, wenn jede Komponente in einem anderen Tool validiert wird.

Die Postman-CLI soll künftig dieselben Collections, Tests und Mocks sowohl lokal als auch in CI-Pipelines ausführen können, ohne dass Workflows für jede Umgebung neu konfiguriert werden müssen. Das soll CI-spezifische Fehler – etwa, dass Lücken in der Testabdeckung erst nach einem Commit sichtbar werden – reduzieren und Workflows vereinheitlichen.

Unter dem Namen „Agent Mode“ steht ab sofort eine KI-Funktion bereit, die über Postman und angebundene Repositories hinweg arbeiten soll. Der Agent Mode kann laut Ankündigung bestehende Collections, Tests und Mocks bearbeiten, aktualisieren und neue erstellen, die den Standards der jeweiligen Organisation folgen. Entwickler können die KI per Konversation nutzen, ihr komplette Workflows übertragen oder sie direkt auf der Codebasis arbeiten lassen – etwa um Fehler zu beheben, Server-Stubs zu generieren oder Client-Code zu erzeugen. Postman-Assets sollen sich auch komplett neu erstellen lassen, indem die KI auf vorhandenen Code verwiesen wird.

Ergänzend dazu soll die KI-gestützte Testgenerierung automatisch Contract-, Last-, Unit-, Integrations- und End-to-End-Tests für APIs anlegen. Bei fehlgeschlagenen Tests unter anderem im Collection Runner soll der Agent Mode die Ursache diagnostizieren und direkt in den Ergebnissen einen Fix vorschlagen können – sodass Entwickler Requests, Variablen und Environments nicht mehr aufwendig einzeln inspizieren müssen.

Eines der größten Probleme in Entwicklungsorganisationen: Es gibt keinen einzigen Ort, der grundlegende Fragen zu den eigenen APIs beantwortet – welche APIs existieren, ob sie getestet sind, ob sie den internen Standards entsprechen und wie sie in Produktion performen. Diese Informationen verteilen sich laut Postman über Git-Repos, CI-Dashboards, APM-Tools, Wikis und informelles Teamwissen.

Der neue API-Katalog soll als operative Schicht für das API-Portfolio-Management dienen und als „System of Record“ fungieren, das aktuell bleibt, weil es direkt mit den Orten verbunden ist, an denen APIs gebaut, getestet und betrieben werden. Teams sollen ihre gesamte API-Landschaft unabhängig von der darunterliegenden Infrastruktur und über alle Umgebungen hinweg einsehen können.

Der Katalog integriert API-Governance, sodass zentrale Teams Designregeln durchsetzen können, und bietet Analytics zur Messung der API-Gesundheit. Per Agent Mode sollen Nutzer den Katalog in natürlicher Sprache abfragen können – etwa: „Welche APIs in Produktion haben keine OpenAPI-Spec?“ oder „Welche Endpoints haben eine P95-Latenz über 500 ms im Staging?“ Der Agent Mode hat laut Postman Zugriff auf das vollständige Datenmodell des Katalogs und kann Governance-, Test- und Laufzeitdaten in einer einzelnen Abfrage verknüpfen.

Lesen Sie auch

Weitere Neuerungen in Postman betreffen unter anderem das Private API Network, das auf Publisher- und Consumer-Seite aktualisiert wurde. Änderungen aus Git synchronisieren sich nun automatisch über die Postman-CLI mit dem Netzwerk. Das ebenfalls überarbeitete UI bietet nun eine einheitliche Workbench, in der Collections, Environments, Specs, Flows und lokale Mock-Server gemeinsam organisiert werden können.

Die Release Notes zu Version 12 (aktuell ist 12.0.3) listen alle konkreten Änderungen im Detail auf.


(map)



Source link

Entwicklung & Code

Git 2.54: Experimenteller Befehl für Commit-Historie


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Das verteilte Versionsverwaltungssystem Git 2.54 ist erschienen. Ein experimenteller git history-Befehl und ein veränderter Umgang mit Hooks zählen zu den wichtigsten Neuerungen in dem Release, an dem 137 Personen mitgewirkt haben.

Weiterlesen nach der Anzeige

Wie GitHub in einem Blogeintrag ausführt, bot Git bisher bereits Möglichkeiten, die Historie eines Projekts zu verändern. So lassen sich mit git rebase -i Commits anders anordnen, editieren oder verwerfen. Das ändert jedoch auch Working Tree und Index, was weitreichende Aktionen nach sich ziehen kann.

Für einfache Fälle steht daher nun der experimentelle Befehl git history bereit, der unter der Haube auf der Funktionsweise von git replay basiert. git history unterstützt die beiden Vorgänge reword und split. Mit git history reword können Entwicklerinnen und Entwickler eine Commit-Nachricht im Editor öffnen und anpassen, um zum Beispiel einen Tippfehler zu berichtigen. Das aktualisiert ebenfalls Branches, die aus diesem Commit hervorgehen. Im Gegensatz zu git rebase verändern sich Working Tree und Index hierbei jedoch nicht. Die zweite mögliche Aktion, git history split , erlaubt das Aufteilen eines Commits in zwei verschiedene Commits.

Zu den bewussten Einschränkungen des history-Befehls zählt, dass er weder mit Historien umgehen kann, die Merge Commits enthalten, noch Vorgänge durchführt, die Merge-Konflikte auslösen würden.

Weiterlesen nach der Anzeige

Eine weitere bedeutende Neuerung betrifft den Umgang mit Git-Hooks. Diese ließen sich bisher nur als ausführbare Skripte definieren, die sich in einem spezifischen Verzeichnis befanden – standardmäßig im Unterverzeichnis hooks des .git-Verzeichnisses. Das brachte einige Schwierigkeiten mit sich, wie GitHub erläutert: Wollten Entwickler beispielsweise vor jedem Commit auf allen Repositories einen Linter laufen lassen, so mussten sie das entsprechende Skript in jedes Repository kopieren, was zu Arbeitsaufwand und Fehleranfälligkeit führte.

Diese Probleme soll Git 2.54 lösen, denn Hooks lassen sich nun in den Konfigurationsdateien definieren. Statt ein Skript in .git/hooks/pre-commit zu platzieren, ist nun diese Alternative möglich:


[hook "linter"]
   event = pre-commit
   command = ~/bin/linter --cpp20


Auf diese Weise lassen sich Hooks zentral definieren und auf alle Repos anwenden. Eine solche Konfiguration kann sich User-basiert in ~/.gitconfig befinden, systemweit in /etc/gitconfig oder in einer lokalen Konfigurationsdatei eines Repositories. Entwicklerinnen und Entwickler können zudem mehrere Hooks für ein bestimmtes Event definieren oder Hooks wahlweise in einem Repository deaktivieren.

Weitere Informationen zu diesen und anderen Neuerungen in Git 2.54 finden sich in den Release Notes.


(mai)



Source link

Weiterlesen

Entwicklung & Code

Software Testing: Praxisnah sicher entwickeln mit IEC 62443-4-1


In dieser Episode spricht Richard Seidl mit Holger Santelmann über IT-Sicherheit in Entwicklungsprozessen und über die internationale Norm IEC 62443-4-1, die festlegt, wie sichere Entwicklungsprozesse für industrielle Software und Systeme gestaltet werden sollen. Im Zentrum steht die Frage, wie Normen praktisch umgesetzt werden können, ohne dass sie nur lästige Pflicht bleiben. Holger Santelmann erzählt, wie sein Unternehmen diese Norm eingeführt und zum echten Werkzeug für bessere Softwarequalität gemacht hat. Es geht um konkrete Herausforderungen: von Trainings und unabhängigen Testern bis hin zu interner Reflexion und Zusammenarbeit im Team.

Weiterlesen nach der Anzeige

Holger Santelmann ist Dipl.-Medieninformatiker (FH) und verfügt über mehr als 20 Jahre Erfahrung in der Softwareentwicklung. Er hat als Senior Software Developer bei der Firma M&M Software GmbH angefangen und sich in den letzten Jahren immer mehr auf das Thema Release- bzw. Testmanagement spezialisiert. Als Leiter des Competence Centers Quality Engineering treibt er das Thema Qualitätssicherung innerhalb der Firma M&M Software GmbH weiter voran und unterstützt den Softwareentwicklungsprozess.

Bei diesem Format dreht sich alles um Softwarequalität: Ob Testautomatisierung, Qualität in agilen Projekten, Testdaten oder Testteams – Richard Seidl und seine Gäste schauen sich Dinge an, die mehr Qualität in die Softwareentwicklung bringen.

Die aktuelle Ausgabe ist auch auf Richard Seidls Blog verfügbar: „Praxisnah sicher entwickeln mit IEC 62443-4-1 – Holger Santelmann“.


(mdo)



Source link

Weiterlesen

Entwicklung & Code

Google bildet „Strike Team“ zur Verbesserung seiner Coding-KI-Modelle


Google soll intern ein Sonderteam aus Forschern und Ingenieuren zusammengestellt haben, um seine KI-Modelle für die Softwareentwicklung zu verbessern. Auslöser ist laut einem Bericht von The Information die wachsende Überzeugung innerhalb von Google DeepMind, dass Anthropics Coding-Tools den eigenen Gemini-Modellen derzeit überlegen sind. Während Anthropic nach eigenen Angaben nahezu seinen gesamten Code KI-gestützt schreibt, liegt der Anteil bei Google laut Finanzchefin Anat Ashkenazi bei rund 50 Prozent. Der Rückstand soll nun aufgeholt werden – und zwar nicht nur aus Wettbewerbsgründen: Googles Mitgründer Sergey Brin sieht verbesserte Coding-Fähigkeiten als Zwischenschritt auf dem Weg zu einer KI, die sich irgendwann selbst weiterentwickeln kann.

Weiterlesen nach der Anzeige

Mit seinem „Strike Team“ verschärft damit auch Google die Gangart in dem zurzeit meist umkämpften Teilbereich der Künstlichen Intelligenz. Anthropic hatte sich mit seinem Coding-Tool Claude Code frühzeitig auf den Bereich Coding spezialisiert. OpenAI hat sein Engagement rund um das KI-Tool Codex massiv erweitert, woraufhin Anthropic auch ein Design-Tool namens Claude Design vorstellte.

Bei Google geht es aktuell erst einmal auch darum, den internen Einsatz von KI stärker voranzubringen, wie das US-Magazin The Information unter Berufung auf namentlich nicht genannte Quellen im Unternehmen berichtet. Bislang habe sich Google bei seinen Modellen vor allem auf die Bedürfnisse externer Kunden konzentriert. Ähnliches gilt für Apple: Auch dort werden Entwickler gerade im Umgang mit KI-Coding-Tools für die Softwareentwicklung geschult, um den internen Einsatz zu modernisieren. Solche internen Modelle, welche die Eigenheiten des Google-Codes besser abbilden als öffentliche Modelle, wolle man zwar wegen der darin enthaltenen Geschäftsgeheimnisse nicht nach außen geben. Sie können aber eine wichtige Zwischenstufe sein, um bessere öffentliche Modelle zu erschaffen.

Teamleiter sei Sebastian Borgeaud, ehemaliger Pre-Training-Lead für Gemini bei Google DeepMind. Der Fokus liege auf komplexen Langzeit-Coding-Aufgaben. Dazu zähle das Verständnis von Codebases und das Schreiben kompletter Software. Google-Mitgründer Sergey Brin und DeepMind-CTO Koray Kavukcuoglu sollen persönlich in das Strike Team eingebunden sein. Brin habe die Mitarbeiter angehalten, verpflichtend interne Agenten für mehrstufige Aufgaben zu nutzen. Ein Fernziel sei der sogenannte „AI Takeoff“, also eine KI, die sich selbst verbessern kann. Die Nutzung der Coding-Tools werde intern mit einem Leaderboard nachgehalten.

Dabei treffen Googles Ambitionen auf eine Branche, die KI-Tools bereits weit verbreitet einsetzt. Das Entwicklerportal Stack Overflow fand in seiner jährlichen Befragung mit 49.000 Teilnehmern heraus, dass 84 Prozent der Entwickler entsprechende Tools schon nutzen oder zumindest deren Einsatz planen. Sie versprechen sich damit vor allem eine Zeitersparnis. Bislang, so ergeben Befragungen, sei diese Hoffnung aber nicht immer erfüllt worden. 46 Prozent der Entwickler misstrauen der Genauigkeit von KI-Tools.

Weiterlesen nach der Anzeige

Lesen Sie auch


(mki)



Source link

Weiterlesen

Beliebt