Entwicklung & Code
Nach über zwanzig Jahren: Zeit für ein neues PNG
Die dritte Edition der Portable Network Graphics (PNG) ist jetzt offiziell veröffentlicht, wie das W3C angekündigt hat. Zentral sind drei neue Bereiche: Unterstützung für animierte Bilder, HDR-Support (High Dynamic Range) sowie Exif-Informationen. PNG ist als Web-Standard weitverbreitet, allerdings liegt das letzte Update des Standards über zwanzig Jahre zurück. Version 1.2 erschien am 11. August 1999 und wurde am 10. November 2003 die zweite Ausgabe der W3C-Empfehlung.
APNGs offiziell mit an Bord
Der APNG-Support (Animated Portable Network Graphics) ist zwar neu, das Konzept dahinter jedoch nicht: Schon 2004 kam das Format auf, es erhielt ab 2008 deutlich mehr Schwung, als Mozilla es nativ in seinem Webbrowser Firefox unterstützte. Seit 2017 können auch Chromium-basierte Browser animierte PNGs anzeigen. Offiziell handelte es sich bislang aber nicht um einen Teil von PNG, das zu Beginn explizit nicht als GIF-Ersatz gedacht war. Dieses Erbe sollte Multiple-Image Network Graphics (MNG) antreten, das sich aber nicht durchsetzen konnte.
Hinter dem HDR-Support verbirgt sich eigentlich, dass PNG mit der dritten Edition Coding Independent Code Points (CICP) zur Farbraumidentifikation hinzufügt. Bei CICP handelt es sich um eine Spezifikation, mit der sich angeben lässt, welchen Farbraum ein Bild verwendet. Sie umfasst jedoch nicht, wie mit diesem Farbraum umzugehen ist. Der Vorteil ist, dass die Implementierung leichtgewichtig ist – in nur vier Nummern speichert CICP die relevanten Informationen ab. Technische Details hierzu finden interessierte Leser bei Chris Lilley, einer der Co-Autoren des originalen PNG-Standards und aktuell Technical Director beim W3C. CICP entstammt dem Rundfunkbereich, kommt aber abseits vom Bewegtbild mittlerweile auch bei anderen Bildformaten wie JPEG XL zum Einsatz.
Wie Chris Blume, Vorsitzender der W3C PNG Working Group, erklärt, geht der neue HDR-Support jedoch ebenfalls auf den Rundfunkbereich zurück. Die W3C Timed Text Working Group, die BBC und Comcast beziehungsweise NBCUniversal sowie MovieLabs hatten Interesse an dem Update der Spezifikation, um Untertitel und Banner anzuzeigen. Laut Blume arbeiten einige dieser Medienunternehmen bereits daran, diese Features per HDR umzusetzen. Informationen hierzu finden sich auf seiner Webseite.
PNGs für die Fotografie
Schließlich unterstützt PNG jetzt Exif-Daten. Mit dem Exchangeable Image File Format lassen sich Metainformationen wie der Ersteller oder Belichtungsinformationen bei Fotos im Bild hinterlegen. Der Standard kommt insbesondere bei der digitalen Fotografie zum Einsatz, ist aber nicht auf sie beschränkt.
Neben den genannten Unternehmen sind auch Adobe, Apple und Google an der Weiterentwicklung von PNG beteiligt. Blume gibt an, dass die Arbeiten am nächsten Update bereits im Gange sind. Während die vierte Ausgabe die Interoperabilität von HDR und SDR (Standard Dynamic Range) verbessern soll, stellt er für die fünfte Edition eine größere Änderung in Aussicht: PNG soll eine bessere Kompression erhalten. Was das für die Kompatibilität mit dem bisherigen Format bedeutet, diskutieren die Entwickler noch.
Alle Informationen zur neuen PNG-Spezifikation gibt es beim W3C.
(fo)
Entwicklung & Code
Für fairen Wettbewerb – Google übergibt KI-Agenten-Protokoll an Linux Foundation
Das von Google zusammen mit vielen weiteren Industriepartnern und Dienstleistern wie Atlassian, Paypal, Accenture und McKinsey entwickelte und im April dieses Jahres vorgestellte Protokoll Agent2Agent (A2A) hat eine neue Heimat bei der Linux Foundation gefunden.
Auf ihrem Open Source Summit North America hat die gemeinnützige Organisation am 23. Juni die Übergabe des A2A-Protokolls durch Google bekannt gegeben. Zeitgleich startete die Organisation zusammen mit Amazon Web Services (AWS), Cisco, Google, Microsoft, Salesforce, SAP und ServiceNow das Agent2Agent-Projekt, das auf GitHub gehostet wird.
Leistungsstarke, sichere und flexible KI-Lösungen im Unternehmen erfolgreich einsetzen: In diesem Workshop lernen Technologie- und KI-Experten, Data Scientists, Machine Learning Engineers und Softwareentwickler, wie sie Large Language Models (LLMs) gezielt an eigene Anforderungen anpassen – von Feintuning und Retrieval-Augmented Generation (RAG) bis hin zur lokalen Nutzung mit Ollama. Sie erfahren außerdem, wie sie unternehmenseigene Daten sicher in LLMs integrieren, Multi-Agenten-Systeme zur Automatisierung entwickeln und KI-gestützte Prozesse optimieren.
Anmeldung und Termine unter heise.de/s/xK28Q.
A2A soll langfristig unabhängig bleiben
Mit dem Projekt wollen die Linux Foundation und ihre Unterstützer sicherstellen, dass das Agent2Agent-Protokoll herstellerunabhängig bleibt, faire Wettbewerbsbedingungen schafft und Innovationen fördert. Zudem hoffen die Betreiber auf eine tatkräftige Beteiligung der Community, um das Projekt weiterzuentwickeln. Laut der Linux Foundation unterstützen mittlerweile mehr als hundert Unternehmen A2A, wobei AWS und Cisco die jüngsten Neuzugänge sind.
Das quelloffene A2A ergänzt das Model Context Protocol (MCP) von Anthropic und erlaubt es KI-Agenten, einander zu erkennen, Informationen sicher auszutauschen sowie unabhängig von Plattform, Anbieter und Framework zusammenzuarbeiten. Google hatte bereits im April angekündigt, noch in diesem Jahr eine produktionsreife Version des A2A-Prokokolls auf den Markt bringen zu wollen.
(who)
Entwicklung & Code
Mein Scrum ist kaputt #135: Was macht ein Musikproduzent?

Welche Lehren lassen sich für Agilisten aus der Musikproduktion ziehen? Dominik Ehrenberg und Sebastian Bauer sprechen mit Musikproduzent Sebastian Schilde.
Entwicklung & Code
KI Navigator #11: Fünf Stufen der KI-Nutzung in der Softwareentwicklung
Willkommen zur elften Ausgabe der KI-Navigator-Kolumne der DOAG KI Community!
ist Informatiker, Softwarearchitekt, Projektleiter und KI-Enthusiast. Seit über zehn Jahren entwickelt er Software in unterschiedlichsten Domänen. Er programmiert seit dem Aufkommen von GitHub Copilot und Cursor bevorzugt mit KI-Unterstützung und setzt sich aktiv für das Konzept des Vise Coding ein. Seine Erfahrungen teilt er regelmäßig auf Konferenzen und gibt Schulungen zum Thema „KI und Softwarearchitektur“.
ist Softwareentwickler bei WPS – Workplace Solutions und realisiert seit über zehn Jahren Anwendungen in unterschiedlichen Sprachen und Frameworks. Sein Schwerpunkt liegt auf Testautomation, Requirements Engineering und dem produktiven Einsatz von KI-gestützten Entwicklungswerkzeugen wie GitHub Copilot und JetBrains AI Assistant. Praxiserfahrungen dazu vermittelt er in Trainings, Meetups und auf verschiedenen Konferenzen.
Im Umfeld der Softwareentwicklung lassen sich unterschiedliche Typen der KI-Nutzung ausmachen, die wir bei uns in der WPS GmbH in fünf Typen unterteilen:
- Nichtnutzer von KI
- ChatGPT-Nutzer
- Copilot Coder
- Chat First Coder
- Vibe Coder
Richtig angewendet führt KI meist zu höherer Effizienz und besserer Codequalität. Dennoch haben viele Entwicklerinnen und Entwickler ihr persönliches Optimum beim KI-Einsatz noch nicht erreicht. Wie stark KI den Entwicklungsprozess unterstützt, hängt von mehreren Faktoren ab: dem Erfahrungsgrad, den verfügbaren KI-Tools und den eingesetzten Technologien.
Im Folgenden stellen wir die fünf Typen näher vor – wie sie arbeiten, warum sie so arbeiten und welche Einschätzung wir jeweils dazu haben.
Die Nichtnutzer von KI
Diejenigen, die KI gar nicht nutzen, arbeiten wie in den vergangenen 15 oder 20 Jahren: Sie schreiben den gesamten Programmcode selbst. Sie verschaffen sich ohne KI-Unterstützung einen Überblick über vorhandenen Code, recherchieren über Google, Dokumentation sowie Foren und Diskussionen wie etwa auf Stack Overflow oder GitHub.
Dass sie so arbeiten, kann unterschiedliche Gründe haben. Der naheliegendste und vermutlich häufigste ist, dass ihre Firma den Einsatz von KI (noch) nicht erlaubt – etwa aus Sicherheitsbedenken. Andere haben KI eventuell aus grundsätzlichen Vorbehalten noch nicht ausprobiert. Manche haben KI getestet und waren von den Ergebnissen enttäuscht.
Eine Enttäuschung kann an mangelnder Erfahrung im Prompting oder fehlendem Bewusstsein für den nötigen Kontext liegen – beides lässt sich schnell aufholen. Möglicherweise war auch der Effekt der sogenannten Jagged Technological Frontier (die scharfe technologische Grenze) dafür verantwortlich. Das Prinzip beschreibt, dass KI scheinbar ähnliche Aufgaben teils erstaunlich gut, teils überraschend schlecht löst.
Es ist auch eine Frage des Typs, ob man von KI profitiert. Wer schon lange mit einer bestimmten Technologie arbeitet, schnell recherchiert und effizient adaptieren kann, spürt womöglich (noch) keinen echten Effizienzgewinn durch KI. Allerdings hat eine Studie gezeigt, dass gerade Leistungsträger eher Bedenken vor KI haben, obwohl sie laut Untersuchungen paradoxerweise mehr profitieren.
Nicht zuletzt stellt sich die Frage: Wie aktuell sind die negativen Erfahrungen mit KI-Unterstützung? Unsere Beobachtung zeigt: Was vor drei bis sechs Monaten noch nicht zufriedenstellend funktionierte, kann heute bereits robust einsatzfähig sein.
Die ChatGPT-Nutzer
Nach unserer Definition nutzen ChatGPT-Anwender KI nur gelegentlich – etwa ein paar Mal pro Tag. Dieses Nutzungsverhalten beobachtet man häufig, wenn ChatGPT das einzige verwendete KI-Tool ist. Die Intensität der Nutzung hängt stark vom verfügbaren Tooling ab: Ist KI wie bei GitHub Copilot direkt ins Entwicklungstool integriert, kommt sie meist deutlich häufiger zum Einsatz.
ChatGPT-Nutzer setzen KI vor allem für Recherche ein und ersetzen damit teilweise das Googeln, das Lesen von Dokumentationen und das Durchforsten von Foren. Auch zum Generieren von Code-Snippets oder Beispielen, zum Erklären von Code oder Analysieren von Fehlermeldungen ziehen sie ChatGPT gelegentlich heran.
Was ist die Motivation, (nur) das pure ChatGPT oder vergleichbare Chatbots wie Claude oder Gemini zu verwenden? Zum einen ist der Einsatz ähnlich niederschwellig wie die Google-Suche. Zum anderen behalten Entwicklerinnen und Entwickler die volle Kontrolle darüber, welchen eigenen Code sie der KI zur Verfügung stellen.
ChatGPT ist oft das bevorzugte Werkzeug, wenn eine Firma keine klare oder offizielle Regeln für den Umgang mit KI-Tools definiert hat und sich der Einsatz in einem Graubereich bewegt. Um diesem unerwünschten Zustand entgegenzuwirken, haben wir in unserer Firma eine KI-Richtlinie entwickelt, die den Developern eine klare Orientierung bietet.
Die Copilot-Coder
Copilot-Coder haben ihren KI-Programmierassistenten ständig im Einsatz. Er ist direkt in die Entwicklungsumgebung integriert und lässt sich dadurch einfach und ohne Hürden verwenden. Der wohl größte Vorteil gegenüber der Nutzung von ChatGPT liegt in der Autovervollständigung: Während des Codens macht die KI automatisch Vorschläge für den weiteren Code – oft mit erstaunlich guten Ergebnissen.
Mittlerweile existiert eine Vielzahl solcher KI-Tools. Der bekannteste Vertreter ist GitHub Copilot, aber auch JetBrains AI Assistant oder die KI-Entwicklungsumgebung Cursor bieten beeindruckende Funktionen. Beispiele sind das Beheben von Programmierfehlern per Klick, das automatische Generieren der Dokumentation und die nahtlose Integration eines KI-Chatbots mit einer Auswahl der besten und aktuellsten Modellen.
Copilot-Coder bleiben meist stark codezentriert. Sie beschränken den Einsatz der KI bewusst auf einen kleinen, selbst definierten Kontext innerhalb ihrer Projekte, etwa beim Generieren einer Filterfunktion für eine Liste. Das Einfügen eines Buttons, der den Filter auslöst, oder das Abspeichern des Ergebnisses würden anschließend in separaten, KI-unterstützten Schritten erfolgen.
Diese Arbeitsweise etabliert sich nach unserer Erfahrung ganz natürlich bei engagierten Entwicklern und Entwicklerinnen, die mit einem Copilot-ähnlichen Tool arbeiten. Ausschlaggebend dafür ist in vielen Fällen, dass das Unternehmen eine Business-Lizenz bereitstellt. Nach unseren Beobachtungen markierte diese Vorgehensweise bis etwa Ende letzten Jahres das maximal Machbare mit den damals verfügbaren Tools.
Die Chat-First-Coder
Dieser Ansatz ist erst seit dem Jahreswechsel 2024/2025 praktikabel. Entscheidend dafür war die Einführung von KI-Agenten in gängige Programmierassistenten – zunächst in Cursor und seit April 2025 auch standardmäßig in GitHub Copilot und Junie von Netbrains. Abgesehen von einigen Kinderkrankheiten und längeren Rechenzeiten können wir KI-Agenten für die meisten Anwendungsfälle empfehlen – auch für diejenigen, die noch eher im Stil der Copilot-Coder arbeiten.
Chat-First-Coder behandeln den Quellcode und den Chat mit dem KI-Assistenten als gleichwertige Elemente. Sie beschreiben ein Feature vollständig oder teilweise im Chat – der Assistent entwickelt daraufhin eigenständig einen Plan, passt den Programmcode an, testet Änderungen und nimmt bei Bedarf Korrekturen vor. Für die obige Beispielanforderung zum Filtern einer Liste würde die KI den nötigen Button und das Abspeichern in einem Schritt hinzufügen. Unsere Herangehensweise dabei ist, dass wir vor dem Chat mit der KI eine klare Erwartungshaltung entwickeln, an der wir das anschließend generierte Ergebnis überprüfen.
Besonders für Chat-First-Coder ist es unerlässlich, den generierten Quellcode nie ungesehen oder unverstanden zu übernehmen. Des Weiteren sind eine klare Vorstellung von der Struktur des Programmcodes, im Großen wie im Kleinen, und sorgfältiges Testen essenziell. Hier liegt die Verantwortung bei den Developern, und unsere Erfahrung zeigt: Genau an dieser Stelle entstehen derzeit bereits erste Qualitätsprobleme, weil die Sorgfalt manchmal fehlt.
Die kontrollierte, eng geführte Form der Code-Generierung durch KI-Agenten wird teilweise als Vise-Coding bezeichnet. Im Gegensatz dazu steht die letzte Stufe der KI-Nutzung: das Vibe-Programming.
Die Vibe-Coder
Vereinfacht gesagt bedeutet Vibe-Coding, Software zu entwickeln, ohne den entstandenen Programmcode überhaupt anzusehen: Man formuliert lediglich einen Prompt, beobachtet das Ergebnis und schreibt dann den nächsten – die Arbeit erfolgt nach dem Motto: „Hauptsache, es funktioniert.“ Andrej Karpathy hat den Begriff Anfang 2025 geprägt.
Das ist die Richtung, in die Tools wie Devin schon seit einiger Zeit drängen – bislang mit eher mäßigem Erfolg oder stark eingeschränktem Anwendungsbereich. Seit der Einführung des Agentenmodus ist dieser Ansatz nun grundsätzlich auch mit Tools wie GitHub Copilot, Cursor, Codex und Google Firebase Studio umsetzbar.
Nach aktuellem Stand lassen sich mit dieser Methode zwar definitiv keine größeren, robusten Softwareprojekte realisieren – für kleine Prototypen kann sie jedoch bereits hilfreich sein. Insbesondere bei kurzen Skripten, etwa in einem Auswertungscode in Python lassen sich bereits gute Ergebnisse erzielen.
Tipps für Developer und Unternehmen
Es ist absehbar, dass KI-Assistenz künftig immer leistungsfähiger wird – und sich darauf aufbauende Arbeitsabläufe unter Entwicklern zunehmend etablieren. Eine aus unserer Sicht hilfreiche Prognose liefert Lars Röwekamp in seinem Kolumnenbeitrag „Läutet KI das Ende der Spezies Softwareentwickler ein?“ Wer sich aus einer alternativen Perspektive mit den Stufen der KI-Adaption befassen möchte, dem sei ein unterhaltsamer Artikel auf Zef+ empfohlen.
Um den Einsatz von KI-Programmierassistenten konkret voranzutreiben, möchten wir abschließend zwei Empfehlungen geben:
Entwicklerinnen und Entwickler sollten gezielt überlegen, in welchen Bereichen KI ihnen beim Coden helfen kann – es gibt fast immer geeignete Use Cases. Und sie sollten diese Evaluation regelmäßig wiederholen, da sich die Möglichkeiten in sehr kurzen Zyklen verändern. Gerade derzeit kann sich eine Neubewertung alle drei bis sechs Monate lohnen.
Unternehmen sollten den Einsatz von KI-Programmierassistenten ermöglichen. Wo es sinnvoll ist, sollten sie ihren Developern Wahlfreiheit bei den Tools lassen, ihnen aber klare Richtlinien an die Hand geben, wie die Tools zu nutzen sind.
Wer sich über KI-Programmierassistenten und den Einsatz von KI allgemein weitergehend informieren möchte, findet dazu auf der Konferenz KI Navigator am 19. und 20. November in Nürnberg Gelegenheit.
(rme)
-
Social Mediavor 1 Woche
LinkedIn Feature-Update 2025: Aktuelle Neuigkeiten
-
Social Mediavor 2 Wochen
Aktuelle Trends, Studien und Statistiken
-
Online Marketing & SEOvor 2 Wochen
Aus Marketing, Medien, Agenturen & Tech: Diese 40 klugen Köpfe unter 40 müssen Sie kennen
-
Social Mediavor 2 Wochen
“Wir haben doch nichts zu erzählen…” – 3 Tricks für neue Social Media Content Ideen
-
UX/UI & Webdesignvor 2 Wochen
Wie gelingt eine einwandfreie Zusammenarbeit?
-
Online Marketing & SEOvor 2 Wochen
#WantaFanta: Warum Fanta und Nico Santos der Gen Z Wünsche erfüllen
-
Online Marketing & SEOvor 2 Wochen
Influencer Marketing: Warum Influencer Vertrauen verlieren und klassische Medien gewinnen
-
UX/UI & Webdesignvor 2 Wochen
Kunst & KI begleitet die Münchner Standort-Eröffnung › PAGE online