Connect with us

Entwicklung & Code

OOP-Konferenz 2026: Embrace Change – lasst uns Veränderungen willkommen heißen!


Das Motto der von heise conferences veranstalteten Konferenz OOP 2026 lautet „Embrace Change“ – ein Leitsatz, der vor allem für Flexibilität steht. Und zwar für eine Flexibilität, die es uns ermöglicht, sowohl mit den Veränderungen, die auf uns einströmen, gut umzugehen als auch selbst Veränderungen voranzubringen. Inwiefern beides wichtig bei der Entwicklung von Softwarearchitektur ist, wird auf der OOP 2026 im Detail untersucht, diskutiert und vorgestellt.

Weiterlesen nach der Anzeige




Jutta Eckstein ist eine deutsche Spezialistin für Agilität, insbesondere agile Softwareentwicklung mittels Extreme Programming, Scrum und weiteren Themen.

Gerade in unserer Branche stehen wir ständig vor neuen Herausforderungen. Allzu oft versuchen wir jedoch – fast reflexartig – diese Änderungen zu umgehen, auf die lange Bank zu schieben oder auch vehement die Vorteile des aktuellen Status quo zu betonen. Fakt ist, die Veränderung holt uns dennoch ein. Vor diesem Hintergrund gilt es beispielsweise, die sich ständig wandelnden Cybersicherheitsbedrohungen als Anlass zu nehmen, nicht nur die Sicherheit, sondern auch die Stabilität des Systems zu verbessern.

Bei den unzähligen (auch gleichzeitig auftretenden) Veränderungen tritt unweigerlich eine Veränderungsmüdigkeit ein. Beispielsweise können wir nicht davon ausgehen, dass die jüngere Generation auf die gleiche Weise motiviert werden kann wie die Generation davor. Das heißt, wir müssen – zum Vorteil aller – auf die unterschiedlichen Bedürfnisse und Erwartungen jüngerer Generationen eingehen.

Auch geänderte Kundenanforderungen empfinden wir oft als Störfaktor unserer Arbeit (was es ja auch ist), aber nicht selten erlauben sie uns sowohl eine größere Marktakzeptanz als auch einen Wettbewerbsvorteil zu erlangen.

Weiterlesen nach der Anzeige

Auch wenn wir gerne die Stabilität von Softwarearchitektur betonen wollen, gilt es zunehmend, Softwarearchitektur so zu gestalten, dass sie sich kontinuierlich anpasst. Dabei können wir auch generative KI zur Hilfe nehmen, die uns sowohl beim Wie (dem Vorgehen) als auch beim Was (dem Ziel) unterstützen kann. Um diesen Nutzen wirklich ziehen zu können, sind wir gefordert, unser Wissen immer auf dem aktuellen Stand zu halten, damit wir sowohl tragfähige Wartungsstrategien als auch Innovationen entwickeln können. Das heißt, wir müssen verstehen, dass Legacy und Innovation untrennbar miteinander verbunden sind.

Selbstverständlich gilt es, künstliche Intelligenz als Bestandteil der Softwareentwicklung zu begreifen. Das heißt, dass der Einsatz von KI zur Folge hat, dass wir uns von der gewohnten Art und Weise, wie wir Software entwickeln, verabschieden müssen. Und gleichsam ist es unerlässlich, die Grundlagen von System-Design, -Architektur und -Programmierung zu verinnerlichen, da wir ansonsten beispielsweise die generierten Ergebnisse nicht bewerten können.


Personen diskutieren auf der OOP

Personen diskutieren auf der OOP

Die OOP lädt zum Gedankenaustausch ein.

(Bild: sigs.de)

Zum Auftakt am Dienstag lädt Frank Buschmann, Distinguished Key Expert bei Siemens, zu einer Podiumsdiskussion ein. Dabei steht das Motto „Embrace Change“ im Fokus: Auf die Woche genau vor 25 Jahren wurde das Agile Manifest verabschiedet, das die Haltung, Veränderungen als Chance zu verstehen und diese immer und überall anzunehmen, in den Vordergrund rückte. Diese Haltung führte zu zahlreichen Veränderungen, beispielsweise von reinen Entwicklungsteams zu multidisziplinären Teams, von klassischer Entwicklung zu nachhaltigem DevOps, von Monolithen zu Microservices, von On-Premises zu Cloud oder von Datenanalyse zu agentenbasierter KI. Auf dem Podium wird diskutiert, wie wir mit einer solchen Menge an Veränderungen umgehen können, ohne den Überblick zu verlieren oder überfordert zu sein.

Max Schrems, als einer der einflussreichsten Datenschutzaktivisten und Anwälte, wird die erste Keynote der OOP 2026 präsentieren. Bekannt wurde er durch seine Klage gegen Facebook und dessen Datenschutzverletzungen. In seiner Keynote beleuchtet er die Abhängigkeit der (europäischen) Unternehmen von den (amerikanischen) Hyperscalern. Das momentane politische Klima erfordert, dass wir dieser Abhängigkeit von US-Clouds ins Auge sehen und uns entsprechend vorbereiten müssen.

Als Softwareentwicklerin, Architektin und Technologin befasst sich Birgitta Böckeler mit KI-unterstützter Softwareentwicklung. Vor dem Hintergrund, dass messbare Erfolge momentan noch ausbleiben, betrachtet sie in ihrer Keynote kritisch den aktuellen Stand, vor allem bezüglich des praktischen Nutzens von KI in der Softwareentwicklung.


Teilnehmende hören Vortrag

Teilnehmende hören Vortrag

Fragen zu den Keynotes lassen sich über das Smartphone stellen.

(Bild: sigs.de)

Die Abschluss-Keynote hält Alistair Cockburn, der nicht nur als Co-Autor des Agilen Manifests bekannt wurde, sondern auch als weltweit anerkannter Experte für Projektmanagement, Softwarearchitektur, Use Cases und (natürlich) agiler Entwicklung. In seiner Keynote diskutiert er, inwiefern Technologie – und damit auch Software – alles, nur nicht neutral ist. Das heißt, jegliche Art von guter oder schlechter Voreingenommenheit, Meinung oder Überzeugung beeinflusst auch die Technologie. Das heißt, jede Innovation sollte auch einem moralischen Prüfstand unterzogen werden.

Vor Ort in München ermöglichen tiefergehende Gespräche, Interaktionen und gemeinsames Erleben, das eigene Wissen und Netzwerk in einer entspannten Umgebung zu erweitern.

Software Architecture: Building Software That Adapts

Track Chair Eberhard Wolff

In der Softwareentwicklung ist Veränderung allgegenwärtig. Dieser Track beleuchtet praktische Strategien zur Architektur von Systemen, die sich an veränderte Geschäftsanforderungen und technologische Fortschritte anpassen können. Wir setzen auf lose Kopplung, Modularität sowie soziotechnische Ansätze, um schnelle Änderungen zu ermöglichen und Risiken zu minimieren.

In diesem Zusammenhang stehen Softwarearchitekten verschiedenen Herausforderungen gegenüber, darunter:

  • Microservices, moderne Monolithen und mehr
  • Architekturgrundlagen wie modulare Designprinzipien
  • Soziotechnische Ansätze
  • Agile Architektur

Agility, Leadership & Social Integration – Nurture, Sustain, Impact

Track Chair Bettina Ruggeri

Agilität ist kein Projekt – sie ist ein lebendiges System. Um erfolgreich zu sein, braucht sie Menschen, die sie praktizieren, reflektieren und weiterentwickeln. Insbesondere in unsicheren Zeiten. Dieser Track richtet sich an alle, die Agilität leben – in Teams, in der Führung und im Arbeitsalltag.

Agilität ist ein lebendiges System. Es muss gefördert, aufrechterhalten und kontinuierlich gestärkt werden – insbesondere in Zeiten der Unsicherheit. Viele Organisationen haben agile Praktiken eingeführt, doch Rituale und Prozesse allein reichen nicht aus. Echte Agilität wird dadurch gelebt, dass sie praktiziert, reflektiert und kontinuierlich weiterentwickelt wird – von Einzelpersonen, Teams und Führungskräften gleichermaßen.

Anlässlich des 25-jährigen Jubiläums des Agilen Manifests und unter dem Motto „Embrace Change“ konzentriert sich dieser Track darauf, wie Agilität hilft, Veränderungen anzunehmen, zu gestalten und nachhaltig zu gestalten. Wir freuen uns deshalb auf ehrliche Geschichten, innovative Tools und mutige Fragen, die einladen zu reflektieren, uns herausfordern und voranbringen zu den folgenden Themen:

  • 25 Jahre Agiles Manifest – Was nun?
  • Soziale Integration und Psychologische Sicherheit
  • Führung, die Wandel ermöglicht
  • Agilität lebendig halten (über Rituale hinaus)
  • Tools und Mikrointerventionen
  • Innere Arbeit und Resilienz
  • Experimente, Movements und Kulturwandel

AI and the End of Business-as-Usual

Track Chair Marc Bless

Künstliche Intelligenz ist nicht nur ein weiteres Werkzeug. Sie verändert die Art und Weise, wie wir denken, entscheiden, gestalten und führen. Dieser Track untersucht, wie KI das „Business as usual“ beendet, indem sie die Art und Weise verändert, wie Software entwickelt wird, wie die Zusammenarbeit zwischen verschiedenen Rollen funktioniert und wie sich Organisationen weiterentwickeln. Wir befassen uns mit KI-nativer Produktentwicklung, agentenbasierten Engineering-Praktiken und der strategischen Anpassung an generative KI. Sie erfahren, wie sich agiles Denken, Führung und Leistungskennzahlen verändern, wenn Maschinen mitgestalten und Entwickler eher prompten als programmieren. Wir beleuchten auch, was Organisationen tun müssen, um Schritt zu halten, wenn KI das Tempo vorgibt: Was muss sich in Strukturen, Prozessen und Personalsystemen ändern, damit der Wert nicht in der Komplexität verloren geht?

Die Sessions verbinden praktische Einblicke mit kritischer Reflexion. Von Live-Coding bis hin zu Strategieplanung, von Edge-Deployment bis hin zu ethischen Blindspots. Dieser Track bringt echte Geschichten aus der Praxis der KI-Transition zu den folgenden Themen:

  • KI-native Produktentwicklung und Co-Creation
  • Agentische Engineering-Workflows
  • Strategische Anpassung an GenAI
  • Führung und organisatorische Neugestaltung für KI-Bereitschaft
  • Ethik und Verantwortung in KI-Ökosystemen
  • Geschichten aus der Praxis, wie KI-Teams, Tools und Technologien verändert


Frau mit VR-Brille

Frau mit VR-Brille

Interaktion mit Technik und Menschen ist auf der OOP wichtig.

(Bild: sigs.de)

Die OOP 2026 findet vom 10. bis 13. Februar 2026 im MOC München statt. Alle Informationen dazu finden sich auf der Konferenzseite.


(rme)



Source link

Entwicklung & Code

Developer-Häppchen fürs Wochenende – Kleinere News der Woche


Die beliebten Developer-Snapshots haben wir neu in leckere Häppchen verpackt. Inhaltlich bleibt alles beim Alten – ein kleiner Überblick über alles, was es zwar nicht in die News geschafft hat, wir aber dennoch für spannend halten:

Weiterlesen nach der Anzeige

  • Die Cloud Native Computing Foundation (CNCF) wirft einen Blick zurück und einen nach vorne: Kubernetes hat in diesem Jahr einige stabile Features hinzugewonnen, darunter Sidecar Containers in Version 1.33 und das Beschränken anonymer Anfragen auf spezifische Endpunkte in Version 1.34. Im kommenden Jahr sollen unter anderem User-Namespaces für HostNetwork-Pods, robuste Image-Pull-Autorisierung und Pod-Zertifikate für mTLS hinzukommen.
  • Microsoft hat verkündet, dass die C++-Code-Editierungswerkzeuge für GitHub Copilot nun als öffentliche Preview vorliegen. Sie sind in der neuesten Insider-Version von Visual Studio 2026 verfügbar und bieten dem KI-Copiloten neue Möglichkeiten wie das Visualisieren von Klassenvererbungshierarchien oder das Verstehen von Metadaten wie Typ, Deklaration und Scope.
  • Der State of HTML Report für 2025 ist erschienen und legt dieses Jahr einen Schwerpunkt auf die frei geschriebenen Antworten der Teilnehmerinnen und Teilnehmer, die sie „bei bestimmten Problembereichen“ abgegeben haben.
  • Für TypeScript veröffentlicht Google ein Agent Development Kit, mit dem Entwicklerinnen und Entwickler Agenten in TypeScript entwerfen und orchestrieren. Darüber hinaus bietet es Tools für Debugging, Testing und Deployment im Ökosystem von Google.


Aufmacher betterCode() API

Aufmacher betterCode() API

(Bild: avdyachenko/Shutterstock)

Call for Proposals: Die Veranstalter der heise-Konferenz betterCode() API suchen wieder Expertinnen und Experten, die technische Know-how-Vorträge, Berichte aus der Praxis oder auch eintägige Workshops abhalten möchten. Die Online-Konferenz findet am 12. Mai 2026 statt und schon jetzt gibt es günstige Blind-Bird-Tickets.

  • Kotlin 2.3 unterstützt nun Java 25 in der JVM, ist kompatibel zu Gradle 9, bietet einen Swift-Export, verbessert das Parsen von UUIDs und prüft den Code auf ungenutzte Returns.
  • Embarcadero hat Delphi 13 und das zugehörige RAD Studio mit C++-Builder angekündigt. Dieser basiert auf Clang 20 und unterstützt C++ 23. Für Delphi gibt es einen kurzen Ternary Operator mit ifthen …. Außerdem vervollständigt das RAD Studio die Unterstützung von Windows 64bit als Compiler-Ziel.

  • Next.js 16.1 bringt ein Update für Turbopack und einen experimentellen Bundle Analyzer. Mit diesem interaktiven Tool optimieren Entwicklerinnen und Entwickler ihren Code. Eine Vereinfachung gibt es zudem für den Debugger, der sich mit next dev --inspect aufrufen lässt.
  • Mit Version 18.7 integriert GitLab künstliche Intelligenz stärker in die Plattform, beispielsweise bei der Diagnose abgebrochener Pipelines oder beim statischen Testen. Die generelle Verfügbarkeit der Duo-Agenten-Plattform ist für den Januar mit Version 18.8 angekündigt.
  • LangGrant (vormals Windocks) hat den LEDGE MCP-Server vorgestellt, der helfen soll, die Entwicklung agentenbasierter KI zu beschleunigen. Die Plattform soll es ermöglichen, das Reasoning von LLMs über mehrere Datenbanken wie Oracle, SQL Server, Postgres oder Snowflake hinweg zu skalieren und mehrstufige Analysepläne auszuführen – ohne dass dabei Daten an das LLM gesendet werden müssen.

Solltest du ein schmackhaftes Thema vermissen, freuen wir uns über deine Mail.


(mai)



Source link

Weiterlesen

Entwicklung & Code

Von den Grenzen großer Sprachmodelle und der Unerreichbarkeit von AGI und ASI


Die rasante Entwicklung großer Sprachmodelle hat eine intensive Debatte über ihr Potenzial ausgelöst, künstliche allgemeine Intelligenz und letztlich künstliche Superintelligenz zu erreichen.

Weiterlesen nach der Anzeige


Michael Stal

Michael Stal

Prof. Dr. Michael Stal arbeitet seit 1991 bei Siemens Technology. Seine Forschungsschwerpunkte umfassen Softwarearchitekturen für große komplexe Systeme (Verteilte Systeme, Cloud Computing, IIoT), Eingebettte Systeme und Künstliche Intelligenz.

Er berät Geschäftsbereiche in Softwarearchitekturfragen und ist für die Architekturausbildung der Senior-Software-Architekten bei Siemens verantwortlich.

Obwohl diese Systeme bemerkenswerte Fähigkeiten in den Bereichen Sprachverarbeitung, Schlussfolgerungen und Wissenssynthese aufweisen, deuten grundlegende architektonische und theoretische Einschränkungen darauf hin, dass sie die Lücke zu echter allgemeiner Intelligenz nicht schließen können. Diese Analyse untersucht die zentralen technischen Hindernisse, die aktuelle LLM-Paradigmen daran hindern, AGI oder ASI zu erreichen.

Künstliche allgemeine Intelligenz (AGI – Artificial General Intelligence) ist eine hypothetische Form der künstlichen Intelligenz, die die kognitiven Fähigkeiten des Menschen in allen Bereichen des Wissens und der Schlussfolgerungen erreicht oder übertrifft. Im Gegensatz zu schmalen KI-Systemen, die für bestimmte Aufgaben entwickelt wurden, würde AGI eine flexible Intelligenz aufweisen, die in der Lage ist, Wissen in jedem Bereich mit der gleichen Leichtigkeit wie die menschliche Intelligenz zu lernen, zu verstehen und anzuwenden. Zu den Hauptmerkmalen von AGI gehören autonomes Lernen anhand minimaler Beispiele, Wissenstransfer zwischen unterschiedlichen Bereichen, kreative Problemlösung in neuartigen Situationen und die Fähigkeit, abstrakte Konzepte mit echtem Verständnis und nicht nur durch Mustererkennung zu verstehen und zu manipulieren.

Künstliche Superintelligenz (ASI – Artificial Superintelligence) geht über AGI hinaus und steht für eine Intelligenz, die die kognitiven Fähigkeiten des Menschen in allen Bereichen, einschließlich Kreativität, allgemeiner Weisheit und Problemlösung, bei weitem übertrifft. ASI würde die menschliche Intelligenz nicht nur erreichen, sondern um ein Vielfaches übertreffen und möglicherweise Erkenntnisse und Fähigkeiten erreichen, die für den Menschen unvorstellbar sind. Die Unterscheidung zwischen AGI und ASI ist entscheidend, da AGI eine allgemeine Intelligenz auf menschlichem Niveau darstellt, während ASI eine grundlegend andere Kategorie von Intelligenz impliziert.

Große Sprachmodelle sind in ihrer derzeitigen Form statistische Systeme, die auf der Grundlage umfangreicher Textkorpora trainiert werden, um das wahrscheinlichste nächste Token in einer Sequenz vorherzusagen. Diese Modelle lernen, Muster aus ihren Trainingsdaten zu komprimieren und zu reproduzieren, wodurch sie in der Lage sind, kohärente und kontextuell angemessene Antworten zu generieren. Ihre Funktionsweise unterscheidet sich jedoch grundlegend von der flexiblen, adaptiven Intelligenz, die AGI auszeichnet.

Weiterlesen nach der Anzeige

Die Transformer-Architektur, die den meisten aktuellen LLMs zugrunde liegt, bringt mehrere grundlegende Einschränkungen mit sich, die ihr Potenzial für allgemeine Intelligenz begrenzen. Der Aufmerksamkeitsmechanismus ist zwar leistungsstark für die Verarbeitung von Sequenzen, arbeitet jedoch mit festen Gewichtungsmatrizen, die während des Trainings gelernt wurden. Diese Gewichte kodieren statistische Beziehungen zwischen Token, können sich jedoch ohne erneutes Training nicht dynamisch an völlig neue Konzepte oder Domänen anpassen. Diese statische Natur steht in starkem Kontrast zur biologischen Intelligenz, die ihre neuronalen Verbindungen auf der Grundlage neuer Erfahrungen kontinuierlich anpasst.

Die Feedforward-Verarbeitung von Transformatoren schafft eine weitere bedeutende Einschränkung. Informationen fließen in einer Richtung durch die Netzwerkschichten, wodurch die für die menschliche Kognition charakteristische iterative, zyklische Verarbeitung verhindert wird. Das menschliche Denken beinhaltet kontinuierliche Rückkopplungsschleifen, in denen Konzepte höherer Ebene die Verarbeitung auf niedrigerer Ebene beeinflussen und umgekehrt. Dieser bidirektionale Fluss ermöglicht es dem Menschen, sein Verständnis durch Reflexion und Neukonzeption zu verfeinern – Fähigkeiten, die in aktuellen LLM-Architekturen noch fehlen.

Darüber hinaus führt der diskrete Tokenisierungsprozess, der die kontinuierliche menschliche Sprache in diskrete Token umwandelt, zu Informationsverlusten und schränkt die Fähigkeit des Modells ein, subtile Nuancen und kontextabhängige Bedeutungen zu verstehen. Die Verarbeitung der menschlichen Sprache erfolgt gleichzeitig auf mehreren Ebenen, von der phonetischen und morphologischen bis zur semantischen und pragmatischen Ebene, mit einer kontinuierlichen Integration über diese Ebenen hinweg. Der Engpass der Tokenisierung hindert LLMs daran, auf dieses gesamte Spektrum der Sprachverarbeitung zuzugreifen.

Das Ziel der Vorhersage des nächsten Tokens, das das LLM-Training antreibt, schafft grundlegende Einschränkungen in der Art und Weise, wie diese Systeme Informationen verstehen und verarbeiten. Dieses Trainingsparadigma optimiert eher die statistische Korrelation als das kausale Verständnis, was zu einem ausgeklügelten Musterabgleich statt zu echtem Verständnis führt. Dieser Ansatz ermöglicht zwar beeindruckende Leistungen bei vielen Sprachaufgaben, versäumt es jedoch, die für allgemeine Intelligenz wesentlichen Fähigkeiten des kausalen Denkens und der Weltmodellierung zu entwickeln.

Der im LLM-Training verwendete Ansatz des überwachten Lernens stützt sich auf statische Datensätze, die eine Momentaufnahme des menschlichen Wissens zu einem bestimmten Zeitpunkt darstellen. Dies steht im Gegensatz zum menschlichen Lernen, das aktive Erkundung, Hypothesenbildung und -prüfung sowie die kontinuierliche Integration neuer Erfahrungen in das vorhandene Wissen umfasst. Menschen entwickeln Verständnis durch Interaktion mit ihrer Umgebung und bilden und verfeinern mentale Modelle auf der Grundlage von Rückmeldungen aus ihren Handlungen. LLMs fehlt diese interaktive Lernfähigkeit, und sie können kein echtes Verständnis durch Erfahrungslernen entwickeln.

Die Skalierungshypothese, die besagt, dass größere Modelle, deren Training mit immer mehr Daten erfolgt, letztendlich AGI erreichen, steht vor mehreren theoretischen Herausforderungen. Die einfache Vergrößerung des Modells und des Datensatzes berücksichtigt zwar die Quantität, aber nicht die qualitativen Unterschiede zwischen Mustererkennung und Verständnis. Das Entstehen neuer Fähigkeiten in größeren Modellen spiegelt oft eher eine ausgefeiltere Mustererkennung wider als grundlegende Veränderungen in der Form von Intelligenz. Ohne die zugrunde liegenden architektonischen und trainingsbezogenen Einschränkungen zu beseitigen, kann die Skalierung allein die Lücke zwischen statistischer Verarbeitung und echter Intelligenz nicht schließen.



Source link

Weiterlesen

Entwicklung & Code

Neu in .NET 10.0 [2]: Support für 36 Monate


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Während die vorherige, im November 2024 erschienene Version 9.0 Standard-Term-Support (STS) für 24 Monate (ursprünglich sogar nur 18 Monate, wurde verlängert am 16.09.2025) besitzt und daher noch bis zum November 2026 mit Updates versorgt wird, bietet Microsoft Aktualisierungen und technische Hilfe für .NET 10.0 als Long-Term-Support (LTS) für die Dauer von 36 Monaten an, also bis November 2028.

Weiterlesen nach der Anzeige


Der Dotnet-Doktor – Holger Schwichtenberg

Der Dotnet-Doktor – Holger Schwichtenberg

Dr. Holger Schwichtenberg ist technischer Leiter des Expertennetzwerks www.IT-Visions.de, das mit 53 renommierten Experten zahlreiche mittlere und große Unternehmen durch Beratungen und Schulungen sowie bei der Softwareentwicklung unterstützt. Durch seine Auftritte auf zahlreichen nationalen und internationalen Fachkonferenzen sowie mehr als 90 Fachbücher und mehr als 1500 Fachartikel gehört Holger Schwichtenberg zu den bekanntesten Experten für .NET und Webtechniken in Deutschland.

Der Support für das Ende 2023 erschienene .NET 8.0 mit Long-Term-Support (LTS) läuft noch bis 10. November 2026. Alle anderen .NET-Versionen vor Version 9 sind bereits aus dem Support gelaufen.


Diagramm .NET-Support

Diagramm .NET-Support

Erscheinungstermine und Support-Zyklen für das moderne .NET (Abb. 1)

(Bild: Holger Schwichtenberg)

Für einige von Microsoft veröffentlichte .NET-NuGet-Pakete, die nicht Teil des .NET-SDKs sind, gilt eine andere Support-Richtlinie.

Das betrifft folgende Paketfamilien:

  • Extensions.*, z.B. Microsoft.Extensions.Http.Resilience und Microsoft.Extensions.Telemetry
  • AspNetCore.*, z.B. Microsoft.AspNetCore.Testing und Microsoft.AspNetCore.Diagnostics.Middleware

Für diese Pakete gilt:

Weiterlesen nach der Anzeige

  • Es kann jeden Monat ein neues Minor-Release geben (9.1, 9.2, 9.3 usw.).
  • Es gibt immer nur Support für die jeweils aktuelle Version.
  • Die Regeln des Semantic Versioning werden nicht streng befolgt von Microsoft.

Die Liste der betroffenen NuGet-Pakete findet man auf der .NET-Site.


Screenshot Release Cadence

Screenshot Release Cadence

Microsoft erläutert den abweichenden Support für die .NET Platform Extensions (Abb. 2).

(Bild: Microsoft)


(rme)



Source link

Weiterlesen

Beliebt