Entwicklung & Code
Go-Entwickler nutzen oft KI-Tools – sind aber wenig begeistert
Das Team hinter Googles Programmiersprache Go hat die Community befragt, und es haben über 5000 Go-Developer geantwortet: Sie nutzen häufig KI-Tools für Informationssuche und Coding, sind mit diesen aber nur mittelmäßig zufrieden. Mit der Programmiersprache an sich sind die Go-Developer dagegen fast durchweg zufrieden: Das gaben 91 Prozent an.
Weiterlesen nach der Anzeige
Die Freitextantworten geben Aufschlüsse über die Gründe der Beliebtheit. Hierbei nennt das Go-Team als repräsentative Antwort unter anderem, dass andere Sprachen zu komplex seien, Go dagegen vergleichsweise klein und einfach. Eine andere Antwort betont die gute Skalierbarkeit der Sprache, die sowohl für einzelne Programmierer als auch für große Teams geeignet sei. Weitere Antworten heben das Tooling, die Standard Library und das Go-Ökosystem positiv hervor.
Die größten Hürden für Go-Developer
Die Schwierigkeiten bei der Go-Entwicklung wurden ebenfalls abgefragt. Die Top 3 der frustrierendsten Aspekte sind „Sicherstellung, dass Go-Code Best Practices und Go-Idiomen folgt“, „Ein Feature, das ich in einer anderen Programmsprache schätze, ist nicht in Go vorhanden“ und „Auffinden vertrauenswürdiger Go-Module und -Pakete“. Auch die Dokumentation und das Testing von Go-Code sowie das Erlernen von Go-Modulen finden viele der Entwicklerinnen und Entwickler schwierig.

2025 Go Developer Survey: Diese Dinge führen zur Frustration mit Go. Die Teilnehmenden durften drei Antworten auswählen.
(Bild: Google)
KI-Tools mit Hindernissen
Über die Hälfte der Befragten nutzt täglich KI-Tools, während 29 Prozent diese entweder nie verwenden oder nur wenige Male innerhalb des Monats vor der Umfrage genutzt haben. Die am häufigsten genutzten KI-Assistenten sind ChatGPT (45 Prozent), GitHub Copilot (31 Prozent), Claude Code (25 Prozent) und Gemini (20 Prozent). Direkt auf dem fünften Platz folgt jedoch bereits mit 17 Prozent: „Ich verwende keine KI-Assistenten oder -Agenten, wenn ich Go-Code schreibe“.
Die Einsatzzwecke von KI sind vielfältig und gehen über das Schreiben von Code hinaus. Beispielsweise lernen Entwickler damit neue Konzepte, suchen nach Informationen, nutzen KI für Testing und reviewen ihren selbst geschriebenen Code. Den Code anderer Personen möchte allerdings ein Drittel nicht mit KI-Unterstützung reviewen, und für das Deployment einer Software zur Produktion lehnen die Befragten KI mehrheitlich ab.
Weiterlesen nach der Anzeige

2025 Go Developer Survey: Go-Entwicklerinnen und -Entwickler nutzen KI für vielfältige Anwendungsbereiche.
(Bild: Google)
Die Zufriedenheit mit den KI-Tools ist durchwachsen: Sehr zufrieden sind lediglich 13 Prozent, einigermaßen zufrieden („somewhat satisfied“) 42 Prozent. Unzufrieden sind 16 Prozent, sehr unzufrieden sieben Prozent. Die übrigen 22 Prozent sind neutral. Als Hauptproblem in Bezug auf KI-Entwicklertools gibt die Mehrheit nicht funktionierenden Code an, während knapp ein Drittel auch die Qualität des funktionierenden KI-generierten Codes bemängelt.
Sprachenübergreifende Erkenntnisse
In diesem Jahr fragte das Go-Team auch danach, was – neben Go – die andere Lieblingssprache der Programmiererinnen und Programmierer ist. Dabei stehen bei ihnen Python, Rust, TypeScript, C und Java ganz oben. Das Go-Team sieht hier das Potenzial, spezialisierte Tutorials zu erstellen, zum Beispiel „Error Handling in Go für Java-Entwickler“. Auch könne ein Teil solcher Anleitungen in Code-Analyzer integriert und somit direkt innerhalb einer IDE verfügbar gemacht werden.
Datengrundlage: Professionelle und erfahrene Go-Entwickler
Der 2025 Go Developer Survey fand vom 9. bis 30. September 2025 statt und ergab 5379 gültige Antworten. Von diesen arbeiten 87 Prozent als Entwicklerinnen und Entwickler. Die Befragten setzen Go vorrangig beruflich (82 Prozent) und privat beziehungsweise für Open-Source-Projekte (72 Prozent) ein, und ein Drittel hat bereits mehr als sechs Jahre Erfahrung mit Go vorzuweisen.
Weitere Informationen zu den Ergebnissen finden sich auf dem Go-Blog. Die Rohdaten sollen im ersten Quartal dieses Jahres ebenfalls erscheinen. Allerdings werden darin nur die Antworten der Personen, die dieser Veröffentlichung zugestimmt haben (82 Prozent), enthalten sein.
(mai)
Entwicklung & Code
Eclipse Theia 1.68: KI-Agenten lernen Skills und erledigen To-do-Listen
EclipseSource hat die Veröffentlichung von Eclipse Theia 1.68 bekanntgegeben, einer quelloffenen Entwicklungsplattform für Web- und Cloud-basierte Tools. Das aktuelle Release erlaubt das Verwenden von GitHub Copilot out-of-the-box und lässt KI-Agenten – noch als Alpha-Feature – Skills verwenden. Neben zahlreichen KI-bezogenen Updates gibt es auch weitere Neuerungen, unter anderem zur Verbesserung der Accessibility.
Weiterlesen nach der Anzeige
Aufgabenplanung zum Mitverfolgen
KI-Agenten können in Eclipse Theia durch das neue Tool todo_write den Fortschritt mehrstufiger Aufgaben visuell darstellen: Sie können To-do-Listen erzeugen, die im Chatfenster angezeigt und aktualisiert werden. Die Aufgaben erhalten, ihrem Status entsprechend, Icons für „noch nicht erledigt“, „in Arbeit“ oder „erledigt“. Um das Feature nutzen zu können, muss der neue Agenten-Modus „Agent Mode (Next)“ aktiviert sein. Dieser soll sich dadurch auszeichnen, dass er Coding-Aufgaben effektiver, zuverlässiger und autonomer durchführt.
Das Entwicklungsteam zeigt ein Beispiel: Ein Prompt fordert den KI-Agenten auf, eine To-do-Liste für das Kochen einer Mahlzeit zu erstellen und so zu tun, als würde er die dafür nötigen Schritte ausführen.

Der KI-Agent arbeitet eine virtuelle To-do-Liste ab.
(Bild: EclipseSource)
GitHub Copilot in Eclipse Theia 1.68
Entwicklerinnen und Entwickler mit aktivem GitHub-Copilot-Abo können dieses nun direkt innerhalb der Theia IDE sowie in mit Theia AI erstellten Tools verwenden. Sie benötigen dafür weder zusätzliche API-Keys noch Abos. Dahinter steht technisch das neue Package @theia/ai-copilot, das GitHub Copilot als Language-Model-Anbieter in Eclipse Theias KI-Framework integriert, mitsamt Authentifizierung per OAuth.
Weiterlesen nach der Anzeige
Wie der Authentifizierungsvorgang aussieht, demonstriert das EclipseSource-Team:

GitHub Copilot lässt sich direkt aus Eclipse Theia 1.68 heraus nutzen.
(Bild: EclipseSource)
Skills für KI-Agenten
Als Alpha-Feature können KI-Agenten in Eclipse Theia nun Agent Skills nutzen. Diese bestehen aus wiederverwendbaren Anweisungen und Domänenwissen, die Agenten aus SKILL.md-Dateien beziehen. Unter anderem können Agenten im Verzeichnis ~/.theia/skills/ vorhandene Skills automatisch entdecken, spezifische Skills per Entwickleranweisung mithilfe des Befehls /skillName nutzen oder Skills nach Bedarf laden. Für Letzteres dient die Variable {{skills}}, die Entwicklerinnen und Entwickler in Agenten-Prompts einfügen können.
Das Erstellen von Skills mithilfe des CreateSkill-Agenten befindet sich ebenfalls im Alpha-Status. Um projektspezifische Skills festzulegen, dient das KI-Chat-Interface. Dort können Developer den gewünschten Skill beschreiben, und der Agent wird eine korrekt strukturierte SKILL.md-Datei mitsamt entsprechendem YAML-Frontmatter und Markdown-Inhalt erstellen.
Updates für Accessibility und VS-Code-Kompatibilität
Für eine verbesserte Barrierefreiheit sind im Chat nun Fokusnavigationsbefehle verwendbar, um per Tastatur zwischen Input und Antworten zu navigieren (Strg/Cmd+oben/unten). Auch sind alle Chat-Buttons jetzt per Tastatur zugänglich, und für Screenreader stehen umfassende ARIA-Attribute bereit.
Daneben wurde die Kompatibilität mit Erweiterungen für Visual Studio Code auf die API-Version 1.108.0 erhöht und das Theia-Team hat einige Bugs behoben, wie der Blogeintrag zur Ankündigung aufführt.
(mai)
Entwicklung & Code
Codex-Spark: Schnelles Coding-Modell von OpenAI
Ein erstes Modell fürs Coden in Echtzeit, so beschreibt OpenAI das neu herausgebrachte GPT-5.3-Codex-Spark. Es ist eine Research-Preview und setzt erstmals auf einem Cerebras-Chip auf.
Weiterlesen nach der Anzeige
Codex-Spark soll besonders schnell sein – konkret 1000 Tokens in der Sekunde liefern können. Doch auch OpenAI schreibt in einem Blogbeitrag, dass das auf Kosten der Qualität gehen kann – das zeigt zumindest der Terminal-Bench 2.0, der auf die Genauigkeit abzielt. Dennoch soll dank der Schnelligkeit eine neue, andere interaktive Arbeit mit dem Modell möglich sein. Codex-Spark lässt sich beispielsweise auch in Echtzeit unterbrechen oder umlenken, heißt es. Es gibt aber etwa keine automatische Vorschau. Verarbeitet wird grundsätzlich nur Text, das Modell hat ein 128K-Kontextfenster.
Im Januar hatte OpenAI die Partnerschaft mit dem kalifornischen Chipdesigner Cerebras bekannt gegeben. Die haben seither verstärkt an einem Chip gearbeitet, der auf Inferenz ausgelegt ist, also besonders schnell KI-Algorithmen auszuführen. Bisher hatte OpenAI auf KI-Beschleuniger von Nvidia gesetzt. So richtig ausgereift klingt Codex-Spark allerdings noch nicht. Im Blogbeitrag steht, man wolle das Modell für frühe Experimente freigeben, während man unter anderem noch an der Endnutzer-Erfahrung arbeite. Zunächst gibt es auch spezielle Rate-Limits, dazu gehört, dass die Nutzung bei vielen Zugriffen auch grundlegend eingeschränkt werden kann. Zugriff haben ChatGPT-Pro-Nutzer mit Codex-App, der CLI und der VS-Code-Erweiterung.
OpenAI kündigt auch bereits an, dass Codex-Spark das erste Modell einer neuen „ultraschnellen Modell-Familie“ sein soll. Multimodalität und weitere Fähigkeiten sollen entsprechend folgen.
Erst vor wenigen Tagen hat OpenAI mit GPT-Codex-5.3 ein neues Modell mit Coding-Fähigkeiten veröffentlicht. Auch dieses soll vor allem schneller sein, als der Vorgänger. Hier geht es aber mitnichten um Echtzeit sondern um minutenlange Denkprozesse zur Aufgabenerfüllung. Zudem gibt es mit der Codex-App eine Kommandozentrale für KI-Workflows.
Sam Altman witzelt bei X, dass ihm das neue, schnelle Modell Freude bereiten würde. Dabei bezieht er sich mit dem englischen Satz „It sparks joy for me“ auf die 2010er Fernsehsendung, in der Marie Kondo Menschen beim Ausmisten geholfen hat. Die Aufräum- und Minimalismusexpertin fragte bei jedem Teil, ob es dem Besitzer Freude bereite – nur dann durfte man es behalten. Kondo allerdings ihren eigenen Spark-Stil längst über Bord geworfen und lässt eigenen Aussagen zufolge lieber ein bisschen Chaos zu.
Weiterlesen nach der Anzeige
(emw)
Entwicklung & Code
PHP-Framework: Tempest 3.0 bringt neuen Error-Handler
Tempest 3.0 ist erschienen. Das noch recht junge PHP-Framework bringt einen neuen Exception-Handler, Performance-Optimierungen, Unterstützung für PHP 8.5 sowie zahlreiche Detailänderungen. Auf GitHub verzeichnet das Projekt 2100 Sterne.
Weiterlesen nach der Anzeige
Das Tool richtet sich an Entwicklerinnen und Entwickler, die Webanwendungen mit einem integrierten Stack aus Routing, ORM, View-System, Konsole und OAuth-Anbindung umsetzen wollen. Es bündelt typische Infrastrukturaufgaben und setzt konsequent auf aktuelle PHP-Versionen. Hinter dem Projekt steht unter anderem Brent Roose, der die Community unter stitcher.io über Neuerungen rund um die Programmiersprache auf dem Laufenden hält.
Fokus auf PHP 8.5
Version 3.0 unterstützt ausschließlich PHP 8.5 oder neuer. Das Projekt bleibt damit bei seiner Linie, nur die jeweils aktuelle PHP-Version zu berücksichtigen. Das soll den Einsatz neuer Sprachfeatures erleichtern, setzt aber eine entsprechend moderne Laufzeitumgebung voraus.
Neuer Exception-Handler und ORM-Updates
Statt der PHP-Bibliothek Whoops nutzt Tempest ab sofort einen eigenen Exception-Handler, der sich offenbar enger in das Framework integrieren lässt und das Debugging verbessern soll.
Im Datenbankbereich wurde das ORM laut Entwicklerteam performanter. Neu ist zudem die Unterstützung von UUIDs (Universally Unique Identifier) als Primärschlüssel. Die Methode Query::toRawSql wurde überarbeitet, um komplexe Abfragen nachvollziehbarer zu machen.
Weiterlesen nach der Anzeige
CSRF, Views und OAuth
Beim Schutz vor Cyberangriffen wie Cross-Site Request Forgery (CSRF) ersetzt Tempest den klassischen Token-Ansatz durch die Header Sec-Fetch-Site und Sec-Fetch-Mode. Das bisherige x-csrf-Element entfällt.
Der View-Parser erhält Whitespace nun unverändert, was das Debugging erleichtern soll. Zusätzlich unterstützt Tempest Validierungsregeln mit Closures und erweitert die OAuth-Integration um Twitch.
Upgrade und Ausblick
Als Major-Release bringt Tempest 3.0 mehrere Breaking Changes, etwa beim Exception-Handling, Session-Management und bei Konfigurationsklassen. Ein Upgrader auf Basis von Rector soll die Migration bestehender Projekte teilweise automatisieren.
Für die 3.x-Reihe plant das Team unter anderem eine Debugging-KI, Unterstützung für den Worker-Modus von FrankenPHP sowie eine Überarbeitung von Event- und Command-Bus. Weitere Informationen zum Release finden sich im Ankündigungsbeitrag auf der offiziellen Website zum PHP-Framework.
(mdo)
-
Entwicklung & Codevor 3 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Apps & Mobile Entwicklungvor 3 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Apps & Mobile Entwicklungvor 3 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Social Mediavor 2 TagenCommunity Management zwischen Reichweite und Verantwortung
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
