Connect with us

Entwicklung & Code

Coden mit KI verändert die Teamarbeit und den agilen Prozess


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

KI-Assistenten ändern das Berufsbild von Entwicklerinnen und Entwicklern, reines Coden wird unwichtiger, während konzeptionelle Kompetenzen an Bedeutung gewinnen. Das hat Auswirkungen sowohl auf die Arbeit des einzelnen Coders als auch auf das Team und den agilen Prozess. heise developer spricht mit Facundo Giuliani, Teamleiter für den Bereich Solutions Engineering bei Storyblok, über die Zukunft von Developer-Teams im KI-Zeitalter.

Weiterlesen nach der Anzeige




Facundo Giuliani ist Teamleiter für den Bereich Solutions Engineering bei Storyblok. Mit Sitz in Buenos Aires, Argentinien, bringt er über 15 Jahre Erfahrung in der Software- und Webentwicklung mit. Er engagiert sich mit großer Leidenschaft in der Entwickler-Community und tritt regelmäßig auf Events und Konferenzen auf. Facundo ist einer der Organisatoren von React Buenos Aires, der größten React-Community Argentiniens, und organisiert zudem die Entwickler-Community DevSummit AR. Für sein Engagement wurde er als Prisma Ambassador, Auth0 Ambassador und Cloudinary Media Developer Expert ausgezeichnet.

Wie wirkt sich der vermehrte Einsatz von Coding-Assistenten auf die Struktur von Entwicklungsteams aus?

Entwicklungsteams bewegen sich zunehmend hin zu hybriden Kompetenzprofilen, bei denen das reine Programmieren nur noch ein Teil des Mehrwerts ist. Konzeptuelles Denken, die Einordnung von Problemen und Integrations-Know-how werden ebenso entscheidend sein wie das Schreiben von Code. Dadurch entstehen häufiger crossfunktionale Teams, in denen Entwicklerinnen, Designer und Product Owner immer früher und enger zusammenarbeiten. Unternehmen werden ihre Teams zunehmend um Problemfelder und angestrebte Ergebnisse herum organisieren und weniger um die reine Code-Delivery.

Was bedeutet das in der Praxis?

Teams werden rund um konkrete Kunden- oder Geschäftsherausforderungen aufgebaut. Etwa zur Optimierung der Onboarding-Conversion oder der Verkürzung der Content-Veröffentlichungszeit, statt für eine bestimmte Codebasis verantwortlich zu sein. Entwicklerinnen, Designer, Analystinnen und KI-Spezialisten arbeiten von Beginn an gemeinsam, definieren das Problem, testen Hypothesen und iterieren schnell. Der Erfolg wird dabei nicht mehr an Story Points oder Code Commits gemessen, sondern an echten Wirkungskriterien wie Nutzungsraten, Performance-Steigerungen oder reduzierter manueller Arbeit.

Es gibt ja Vermutungen, dass KI die Jobchancen von jungen Entwicklern verschlechtert. Wird sich künftig die Altersstruktur in Teams ändern?

Einstiegsrollen werden durch KI nicht wegfallen, aber die Bedeutung von Einstiegsjobs wird sich verschieben: Neueinsteigerinnen und -einsteiger werden sich künftig eher KI-gestützt mit komplexeren Aufgaben beschäftigen, anstatt primär Code auszuführen oder generieren zu lassen. Dadurch kann der Einstieg in den Tech-Bereich sogar zugänglicher werden, weil die Hürde zum Experimentieren sinkt und so vielfältigere Einstiegsmöglichkeiten erlaubt. Innerhalb der Teams wird es voraussichtlich eine ausgewogene Mischung aus erfahrenen Fachkräften geben, die die strategische Richtung vorgeben, und jüngeren Talenten, die mithilfe von KI schneller lernen und Ergebnisse erzielen können.

Weiterlesen nach der Anzeige

Damit verbessern sich ja auch die Chancen für Quereinsteiger?

Absolut! KI-Assistenten und Low-Code-Tools senken die technische Einstiegshürde und ermöglichen es damit Menschen mit Design-, Content- oder Data-Backgrounds, sich sinnvoll an Softwareprojekten zu beteiligen. Der Fokus auf Problemlösung, Kreativität und Kommunikation eröffnet Quereinsteigerinnen und Quereinsteigern neue Wege, Mehrwert zu schaffen, auch ohne von Beginn an tiefgehende Programmierkenntnisse mitzubringen.

Wie werden Teams in der KI-Zukunft arbeiten?

Teams übernehmen zunehmend die Orchestrierung von Systemen, statt selbst Zeile für Zeile zu coden. Sie kuratieren und validieren KI-generierte Komponenten. Der Arbeitsalltag wird menschliches Urteilsvermögen mit automatisierten Tests, Sicherheitsscans und von KI-Assistenten gespeisten Continuous-Delivery-Pipelines verbinden. Entwicklerinnen und Entwickler werden sich stärker auf Architekturentscheidungen, Qualitätssicherung und plattformübergreifende Integrationen konzentrieren, um zuverlässige Ergebnisse aus maschinell erzeugtem Code sicherzustellen.

Werden auch neue Rollen in Entwicklungsteams entstehen?

Wir sehen bereits neue hybride Rollen entstehen, die innerhalb von Produkt- und Plattform-Teams angesiedelt sind – beispielsweise die Rolle des Prompt Engineers oder System Orchestrators. Diese Positionen verbinden menschliche Intention mit maschineller Ausführung und gestalten, wie verschiedene Agenten, APIs und Content-Systeme miteinander interagieren.

Hat der verbreitete Einsatz von KI-Assistenten auch Auswirkungen auf den agilen Prozess?

KI-Assistenten verkürzen den Iterationszyklus und beschleunigen damit Planung, Backlog-Pflege und Prototyping deutlich. Stand-ups und Retrospektiven werden sich künftig weniger auf den Status einzelner Tasks konzentrieren und mehr darauf, Annahmen zu überprüfen und KI-Ergebnisse zu steuern. Agile Prozesse werden sich weiterentwickeln, um dabei Experimentieren, Metriken und kontinuierliche Validierung in den Vordergrund zu rücken, anstatt nur den Durchsatz von Sprints.

Welche Überlegungen sollten Teams jetzt anstellen, um zukunftsfähig zu bleiben?

Teams sollten verstärkt in Kompetenzentwicklung rund um Architektur, Integration und Orchestrierung investieren, da diese die Grundlage für langfristigen Erfolg bilden. Das Aufstellen und Testen von Standards sowie eine robuste Observability sind entscheidend, um KI sicher und in großem Maßstab einzubinden. Am wichtigsten ist jedoch, dass Teams eine Kultur der Flexibilität fördern, in der Entwicklerinnen und Entwickler ermutigt werden, neue Tools zu lernen, disziplinübergreifend zusammenzuarbeiten und KI eher als Partner statt als Ersatz zu begreifen.


(who)



Source link

Entwicklung & Code

Developer-Häppchen fürs Wochenende – Kleinere News der Woche


Die beliebten Developer-Snapshots haben wir neu in leckere Häppchen verpackt. Inhaltlich bleibt alles beim Alten – ein kleiner Überblick über alles, was es zwar nicht in die News geschafft hat, wir aber dennoch für spannend halten:

Weiterlesen nach der Anzeige

  • Die Cloud Native Computing Foundation (CNCF) wirft einen Blick zurück und einen nach vorne: Kubernetes hat in diesem Jahr einige stabile Features hinzugewonnen, darunter Sidecar Containers in Version 1.33 und das Beschränken anonymer Anfragen auf spezifische Endpunkte in Version 1.34. Im kommenden Jahr sollen unter anderem User-Namespaces für HostNetwork-Pods, robuste Image-Pull-Autorisierung und Pod-Zertifikate für mTLS hinzukommen.
  • Microsoft hat verkündet, dass die C++-Code-Editierungswerkzeuge für GitHub Copilot nun als öffentliche Preview vorliegen. Sie sind in der neuesten Insider-Version von Visual Studio 2026 verfügbar und bieten dem KI-Copiloten neue Möglichkeiten wie das Visualisieren von Klassenvererbungshierarchien oder das Verstehen von Metadaten wie Typ, Deklaration und Scope.
  • Der State of HTML Report für 2025 ist erschienen und legt dieses Jahr einen Schwerpunkt auf die frei geschriebenen Antworten der Teilnehmerinnen und Teilnehmer, die sie „bei bestimmten Problembereichen“ abgegeben haben.
  • Für TypeScript veröffentlicht Google ein Agent Development Kit, mit dem Entwicklerinnen und Entwickler Agenten in TypeScript entwerfen und orchestrieren. Darüber hinaus bietet es Tools für Debugging, Testing und Deployment im Ökosystem von Google.


Aufmacher betterCode() API

Aufmacher betterCode() API

(Bild: avdyachenko/Shutterstock)

Call for Proposals: Die Veranstalter der heise-Konferenz betterCode() API suchen wieder Expertinnen und Experten, die technische Know-how-Vorträge, Berichte aus der Praxis oder auch eintägige Workshops abhalten möchten. Die Online-Konferenz findet am 12. Mai 2026 statt und schon jetzt gibt es günstige Blind-Bird-Tickets.

  • Kotlin 2.3 unterstützt nun Java 25 in der JVM, ist kompatibel zu Gradle 9, bietet einen Swift-Export, verbessert das Parsen von UUIDs und prüft den Code auf ungenutzte Returns.
  • Embarcadero hat Delphi 13 und das zugehörige RAD Studio mit C++-Builder angekündigt. Dieser basiert auf Clang 20 und unterstützt C++ 23. Für Delphi gibt es einen kurzen Ternary Operator mit ifthen …. Außerdem vervollständigt das RAD Studio die Unterstützung von Windows 64bit als Compiler-Ziel.

  • Next.js 16.1 bringt ein Update für Turbopack und einen experimentellen Bundle Analyzer. Mit diesem interaktiven Tool optimieren Entwicklerinnen und Entwickler ihren Code. Eine Vereinfachung gibt es zudem für den Debugger, der sich mit next dev --inspect aufrufen lässt.
  • Mit Version 18.7 integriert GitLab künstliche Intelligenz stärker in die Plattform, beispielsweise bei der Diagnose abgebrochener Pipelines oder beim statischen Testen. Die generelle Verfügbarkeit der Duo-Agenten-Plattform ist für den Januar mit Version 18.8 angekündigt.
  • LangGrant (vormals Windocks) hat den LEDGE MCP-Server vorgestellt, der helfen soll, die Entwicklung agentenbasierter KI zu beschleunigen. Die Plattform soll es ermöglichen, das Reasoning von LLMs über mehrere Datenbanken wie Oracle, SQL Server, Postgres oder Snowflake hinweg zu skalieren und mehrstufige Analysepläne auszuführen – ohne dass dabei Daten an das LLM gesendet werden müssen.

Solltest du ein schmackhaftes Thema vermissen, freuen wir uns über deine Mail.


(mai)



Source link

Weiterlesen

Entwicklung & Code

Von den Grenzen großer Sprachmodelle und der Unerreichbarkeit von AGI und ASI


Die rasante Entwicklung großer Sprachmodelle hat eine intensive Debatte über ihr Potenzial ausgelöst, künstliche allgemeine Intelligenz und letztlich künstliche Superintelligenz zu erreichen.

Weiterlesen nach der Anzeige


Michael Stal

Michael Stal

Prof. Dr. Michael Stal arbeitet seit 1991 bei Siemens Technology. Seine Forschungsschwerpunkte umfassen Softwarearchitekturen für große komplexe Systeme (Verteilte Systeme, Cloud Computing, IIoT), Eingebettte Systeme und Künstliche Intelligenz.

Er berät Geschäftsbereiche in Softwarearchitekturfragen und ist für die Architekturausbildung der Senior-Software-Architekten bei Siemens verantwortlich.

Obwohl diese Systeme bemerkenswerte Fähigkeiten in den Bereichen Sprachverarbeitung, Schlussfolgerungen und Wissenssynthese aufweisen, deuten grundlegende architektonische und theoretische Einschränkungen darauf hin, dass sie die Lücke zu echter allgemeiner Intelligenz nicht schließen können. Diese Analyse untersucht die zentralen technischen Hindernisse, die aktuelle LLM-Paradigmen daran hindern, AGI oder ASI zu erreichen.

Künstliche allgemeine Intelligenz (AGI – Artificial General Intelligence) ist eine hypothetische Form der künstlichen Intelligenz, die die kognitiven Fähigkeiten des Menschen in allen Bereichen des Wissens und der Schlussfolgerungen erreicht oder übertrifft. Im Gegensatz zu schmalen KI-Systemen, die für bestimmte Aufgaben entwickelt wurden, würde AGI eine flexible Intelligenz aufweisen, die in der Lage ist, Wissen in jedem Bereich mit der gleichen Leichtigkeit wie die menschliche Intelligenz zu lernen, zu verstehen und anzuwenden. Zu den Hauptmerkmalen von AGI gehören autonomes Lernen anhand minimaler Beispiele, Wissenstransfer zwischen unterschiedlichen Bereichen, kreative Problemlösung in neuartigen Situationen und die Fähigkeit, abstrakte Konzepte mit echtem Verständnis und nicht nur durch Mustererkennung zu verstehen und zu manipulieren.

Künstliche Superintelligenz (ASI – Artificial Superintelligence) geht über AGI hinaus und steht für eine Intelligenz, die die kognitiven Fähigkeiten des Menschen in allen Bereichen, einschließlich Kreativität, allgemeiner Weisheit und Problemlösung, bei weitem übertrifft. ASI würde die menschliche Intelligenz nicht nur erreichen, sondern um ein Vielfaches übertreffen und möglicherweise Erkenntnisse und Fähigkeiten erreichen, die für den Menschen unvorstellbar sind. Die Unterscheidung zwischen AGI und ASI ist entscheidend, da AGI eine allgemeine Intelligenz auf menschlichem Niveau darstellt, während ASI eine grundlegend andere Kategorie von Intelligenz impliziert.

Große Sprachmodelle sind in ihrer derzeitigen Form statistische Systeme, die auf der Grundlage umfangreicher Textkorpora trainiert werden, um das wahrscheinlichste nächste Token in einer Sequenz vorherzusagen. Diese Modelle lernen, Muster aus ihren Trainingsdaten zu komprimieren und zu reproduzieren, wodurch sie in der Lage sind, kohärente und kontextuell angemessene Antworten zu generieren. Ihre Funktionsweise unterscheidet sich jedoch grundlegend von der flexiblen, adaptiven Intelligenz, die AGI auszeichnet.

Weiterlesen nach der Anzeige

Die Transformer-Architektur, die den meisten aktuellen LLMs zugrunde liegt, bringt mehrere grundlegende Einschränkungen mit sich, die ihr Potenzial für allgemeine Intelligenz begrenzen. Der Aufmerksamkeitsmechanismus ist zwar leistungsstark für die Verarbeitung von Sequenzen, arbeitet jedoch mit festen Gewichtungsmatrizen, die während des Trainings gelernt wurden. Diese Gewichte kodieren statistische Beziehungen zwischen Token, können sich jedoch ohne erneutes Training nicht dynamisch an völlig neue Konzepte oder Domänen anpassen. Diese statische Natur steht in starkem Kontrast zur biologischen Intelligenz, die ihre neuronalen Verbindungen auf der Grundlage neuer Erfahrungen kontinuierlich anpasst.

Die Feedforward-Verarbeitung von Transformatoren schafft eine weitere bedeutende Einschränkung. Informationen fließen in einer Richtung durch die Netzwerkschichten, wodurch die für die menschliche Kognition charakteristische iterative, zyklische Verarbeitung verhindert wird. Das menschliche Denken beinhaltet kontinuierliche Rückkopplungsschleifen, in denen Konzepte höherer Ebene die Verarbeitung auf niedrigerer Ebene beeinflussen und umgekehrt. Dieser bidirektionale Fluss ermöglicht es dem Menschen, sein Verständnis durch Reflexion und Neukonzeption zu verfeinern – Fähigkeiten, die in aktuellen LLM-Architekturen noch fehlen.

Darüber hinaus führt der diskrete Tokenisierungsprozess, der die kontinuierliche menschliche Sprache in diskrete Token umwandelt, zu Informationsverlusten und schränkt die Fähigkeit des Modells ein, subtile Nuancen und kontextabhängige Bedeutungen zu verstehen. Die Verarbeitung der menschlichen Sprache erfolgt gleichzeitig auf mehreren Ebenen, von der phonetischen und morphologischen bis zur semantischen und pragmatischen Ebene, mit einer kontinuierlichen Integration über diese Ebenen hinweg. Der Engpass der Tokenisierung hindert LLMs daran, auf dieses gesamte Spektrum der Sprachverarbeitung zuzugreifen.

Das Ziel der Vorhersage des nächsten Tokens, das das LLM-Training antreibt, schafft grundlegende Einschränkungen in der Art und Weise, wie diese Systeme Informationen verstehen und verarbeiten. Dieses Trainingsparadigma optimiert eher die statistische Korrelation als das kausale Verständnis, was zu einem ausgeklügelten Musterabgleich statt zu echtem Verständnis führt. Dieser Ansatz ermöglicht zwar beeindruckende Leistungen bei vielen Sprachaufgaben, versäumt es jedoch, die für allgemeine Intelligenz wesentlichen Fähigkeiten des kausalen Denkens und der Weltmodellierung zu entwickeln.

Der im LLM-Training verwendete Ansatz des überwachten Lernens stützt sich auf statische Datensätze, die eine Momentaufnahme des menschlichen Wissens zu einem bestimmten Zeitpunkt darstellen. Dies steht im Gegensatz zum menschlichen Lernen, das aktive Erkundung, Hypothesenbildung und -prüfung sowie die kontinuierliche Integration neuer Erfahrungen in das vorhandene Wissen umfasst. Menschen entwickeln Verständnis durch Interaktion mit ihrer Umgebung und bilden und verfeinern mentale Modelle auf der Grundlage von Rückmeldungen aus ihren Handlungen. LLMs fehlt diese interaktive Lernfähigkeit, und sie können kein echtes Verständnis durch Erfahrungslernen entwickeln.

Die Skalierungshypothese, die besagt, dass größere Modelle, deren Training mit immer mehr Daten erfolgt, letztendlich AGI erreichen, steht vor mehreren theoretischen Herausforderungen. Die einfache Vergrößerung des Modells und des Datensatzes berücksichtigt zwar die Quantität, aber nicht die qualitativen Unterschiede zwischen Mustererkennung und Verständnis. Das Entstehen neuer Fähigkeiten in größeren Modellen spiegelt oft eher eine ausgefeiltere Mustererkennung wider als grundlegende Veränderungen in der Form von Intelligenz. Ohne die zugrunde liegenden architektonischen und trainingsbezogenen Einschränkungen zu beseitigen, kann die Skalierung allein die Lücke zwischen statistischer Verarbeitung und echter Intelligenz nicht schließen.



Source link

Weiterlesen

Entwicklung & Code

Neu in .NET 10.0 [2]: Support für 36 Monate


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Während die vorherige, im November 2024 erschienene Version 9.0 Standard-Term-Support (STS) für 24 Monate (ursprünglich sogar nur 18 Monate, wurde verlängert am 16.09.2025) besitzt und daher noch bis zum November 2026 mit Updates versorgt wird, bietet Microsoft Aktualisierungen und technische Hilfe für .NET 10.0 als Long-Term-Support (LTS) für die Dauer von 36 Monaten an, also bis November 2028.

Weiterlesen nach der Anzeige


Der Dotnet-Doktor – Holger Schwichtenberg

Der Dotnet-Doktor – Holger Schwichtenberg

Dr. Holger Schwichtenberg ist technischer Leiter des Expertennetzwerks www.IT-Visions.de, das mit 53 renommierten Experten zahlreiche mittlere und große Unternehmen durch Beratungen und Schulungen sowie bei der Softwareentwicklung unterstützt. Durch seine Auftritte auf zahlreichen nationalen und internationalen Fachkonferenzen sowie mehr als 90 Fachbücher und mehr als 1500 Fachartikel gehört Holger Schwichtenberg zu den bekanntesten Experten für .NET und Webtechniken in Deutschland.

Der Support für das Ende 2023 erschienene .NET 8.0 mit Long-Term-Support (LTS) läuft noch bis 10. November 2026. Alle anderen .NET-Versionen vor Version 9 sind bereits aus dem Support gelaufen.


Diagramm .NET-Support

Diagramm .NET-Support

Erscheinungstermine und Support-Zyklen für das moderne .NET (Abb. 1)

(Bild: Holger Schwichtenberg)

Für einige von Microsoft veröffentlichte .NET-NuGet-Pakete, die nicht Teil des .NET-SDKs sind, gilt eine andere Support-Richtlinie.

Das betrifft folgende Paketfamilien:

  • Extensions.*, z.B. Microsoft.Extensions.Http.Resilience und Microsoft.Extensions.Telemetry
  • AspNetCore.*, z.B. Microsoft.AspNetCore.Testing und Microsoft.AspNetCore.Diagnostics.Middleware

Für diese Pakete gilt:

Weiterlesen nach der Anzeige

  • Es kann jeden Monat ein neues Minor-Release geben (9.1, 9.2, 9.3 usw.).
  • Es gibt immer nur Support für die jeweils aktuelle Version.
  • Die Regeln des Semantic Versioning werden nicht streng befolgt von Microsoft.

Die Liste der betroffenen NuGet-Pakete findet man auf der .NET-Site.


Screenshot Release Cadence

Screenshot Release Cadence

Microsoft erläutert den abweichenden Support für die .NET Platform Extensions (Abb. 2).

(Bild: Microsoft)


(rme)



Source link

Weiterlesen

Beliebt