Connect with us

Entwicklung & Code

Event Modeling: Das Storyboard für Software


Adam Dymitruk hat Event Modeling erfunden. Er ist Gründer und CEO der AdapTech Group.

Weiterlesen nach der Anzeige


the next big thing – Golo Roden

the next big thing – Golo Roden

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.

Golo Roden: Adam, Du hast Event Modeling entwickelt und unterrichtest und verfeinerst diesen Ansatz nun seit Jahren. Du bist außerdem Gründer der AdapTech Group und hast mit unzähligen Teams an der Einführung dieses Ansatzes gearbeitet. Bevor wir in die Methode selbst einsteigen: Kannst Du kurz erzählen, welches Problem Du ursprünglich lösen wolltest? Gab es eine konkrete Frustration mit bestehenden Ansätzen, die Dich dazu gebracht hat, etwas Neues zu entwickeln?

Adam Dymitruk: Im Kern ging es um eine Sache, die Design-Lücke. In nahezu jeder anderen Ingenieursdisziplin, egal ob du eine Brücke oder ein Haus baust, hast du einen Bauplan. Du hast eine visuelle Darstellung, an der jeder erkennen kann, was genau gebaut wird. In der Software hingegen versuchen wir seit Jahrzehnten, komplexe Systeme mit nichts als Ticket-Stapeln zu bauen. Und schlimmer noch: mit unterschiedlichen Tickets für unterschiedliche Rollen.


Foto Adam Dymitruk

Foto Adam Dymitruk

Adam Dymitruk ist Gründer und CEO der AdapTech Group, eines kanadischen Beratungsunternehmens mit Fokus auf Event-getriebenen Systeme.

Ich habe überall die gleichen Fehlermuster gesehen. Agile brachte uns einen Backlog aus zusammenhanglosen Aufgaben, aber keine kohärente Vorstellung davon, wie Informationen tatsächlich über die Zeit durch das System fließen. Das aufwendige Design von RUP (Rational Unified Process) und UML (Unified Modeling Language) haben wir gegen gar kein Design eingetauscht. Gleichzeitig hat sich unsere Branche immer wieder in Abstraktionen verliebt, die naturgemäß subjektiv sind und sofort zum Kompromiss werden, sobald mehrere Menschen sie teilen müssen. Spezifikationen für traditionelle Systeme ignorierten die Vorteile einer minimalen, sinnvollen Kopplung über einen unveränderlichen Ledger aus Events, und traditionelle Datenbanken sind auf den Status Quo ausgelegt: sie zeigen dir, was da ist, aber niemals, wie es dorthin gekommen ist. Dieser Mangel an Kausalität macht es deutlich schwieriger, das System zu auditieren, zu skalieren oder zu erklären. Obendrein gab es die weitverbreitete Unfähigkeit, Aufwände in der Softwareentwicklung zu schätzen, und ich wusste, dass ich unseren Kunden verlässlichere Budgets und Zusagen machen konnte.

Mir wurde letztlich klar: Wenn wir das System als Storyboard darstellen könnten (wie ein Filmskript oder einen Screencast dessen, was kommen soll), könnten wir die Lücke zwischen Business und Technik mit einer universellen und menschenfreundlichen Notation schließen.

Das klingt nach einer faszinierenden Herausforderung. Mittlerweile hat Event Modeling erhebliche Verbreitung in der Event-Sourcing- und DDD-Community gefunden. Als Du es zum ersten Mal vorgestellt hast: Hast Du erwartet, dass es so breit Anklang findet, oder war es zunächst etwas, das Du für Deine eigenen Teams gebaut hast?

Weiterlesen nach der Anzeige

Dymitruk: Es war eher eine Art Geheimwaffe für uns bei AdapTech, bevor die globale Community darauf aufmerksam wurde. Ich hatte ursprünglich nicht vor, einen neuen Industriestandard zu schaffen. Ich wollte einfach nur Projekte, die kein Geld verbrennen, und Entwickler, die nicht an Scope Creep und unvorhergesehener Komplexität ausbrennen.

Breite Resonanz fand das Ganze, als ich 2018 den ursprünglichen Artikel veröffentlichte, um es von anderen Ansätzen abzugrenzen, denn ich nutzte die Notation, um Event Sourcing und andere Konzepte in verschiedenen Tech-Communities zu erklären. Auf Hacker News wurde er an diesem Tag zur Top-Story hochgevotet.

Wie sich zeigt, sind alle, unabhängig vom Tech-Stack, das Stille-Post-Spiel mit Anforderungen leid. Die Leute wollen das Gesamtbild sehen. Sie wollen das Filmskript ihres Systems sehen, bevor sie Millionen für die Verfilmung ausgeben.

Das ist ein ziemlich breites Publikum. Angenommen, jemand liest dies, der den Namen schon einmal gehört, Event Modeling aber noch nie ausprobiert hat. Wenn Du die Kernidee in zwei Minuten erklären müsstest, was würdest Du sagen?

Dymitruk: Wenn ich nur zwei Minuten habe, lasse ich den Tech-Speak weg und komme direkt zum Punkt: Event Modeling ist das Filmskript-Storyboard für dein System. Die meisten Softwareprojekte scheitern, weil jeder auf ein anderes Puzzleteil schaut. Entwickler schauen auf Code, Manager auf Jira-Tickets, und der CEO auf eine Präsentation. Event Modeling holt alle in einen Raum, wo sie gemeinsam auf denselben Blueprint schauen: einen, der anhand konkreter Beispiele zeigt, wie sich Information über die Zeit durch das System bewegt.

Stell dir dein System als Zeitleiste vor. Von links nach rechts bilden wir genau ab, was Schritt für Schritt passiert. Wir verwenden vier einfache Bausteine, mehr nicht:

  1. Der Screen (UI): Was sieht der Nutzer tatsächlich? Noch keine High-Fidelity-Designs, gerade genug, um die Information zu zeigen.
  2. Das Command (Blau): Die Absicht des Nutzers. „Ich möchte diesen Raum buchen.“ Das ist der Auslöser für eine Veränderung.
  3. Das Event (Orange): Die unveränderliche Tatsache. „Raum gebucht.“ Das ist die Geschichte deines Systems. Sobald es passiert ist, ändert es sich nie mehr.
  4. Die State View (Grün): Die Information, die der Nutzer sehen muss, um die nächste Entscheidung zu treffen oder um sich bestätigen zu lassen, dass das System getan hat, was er wollte.

Statt über User Stories zu streiten (die oft nur vage Wünsche sind), zeichnen wir die gesamte Reise als Storyboard. Wenn du den Fluss von einem Screen zu einem Command, zu einem Event und dann zurück zu einer View auf einem anderen Screen nicht zeichnen kannst, dann hast du keine Anforderung. Du hast eine Vermutung. Am Ende einer Session hast du keinen Stapel Tickets, du hast einen Blueprint. Er ist so klar, dass ein Entwickler genau weiß, was er bauen muss, und der Business-Owner genau weiß, wofür er bezahlt. Wir holen Software vom kreativen Schreiben zurück zum Engineering.

Mir gefällt das Bild eines Blueprints im Vergleich zu einem Stapel Tickets, weil es die ganze Idee viel greifbarer macht. Diese visuelle Zeitleiste, die Commands, Events und Views verbindet, war für mich immer das herausragende Merkmal von Event Modeling. Was macht dieses Format so wirkungsvoll, im Vergleich etwa zu einer Liste von User Stories oder einem klassischen Anforderungsdokument?

Dymitruk: Kontext. Mit einer Liste von User Stories schaust du auf einen Stapel Tickets. Es ist, als würde man dir 500 zufällige Frames aus einem Film geben und Dich bitten, die Geschichte zu erzählen. Du verstehst vielleicht, was in Frame 42 passiert, aber du hast keine Ahnung, wie wir dorthin gekommen sind oder wohin es als Nächstes geht.

Der Blueprint krempelt alles um, weil er dem einen Ding Rechnung trägt, dem Software nicht entkommen kann: der Zeit.

Er beendet das Stille-Post-Spiel, das man von traditionellen Anforderungen kennt. Ein Business-Analyst schreibt eine So-sollte-es-sein-Anforderung, ein Entwickler übersetzt das in ein Klassendiagramm, und ein Tester versucht zu erraten, was ursprünglich gemeint war. Mit dem Blueprint haben wir eine gemeinsame Sprache. Wir alle schauen auf dieselbe Zeitleiste. Wenn ein Stakeholder ein Raum-gebucht-Event sieht, aber feststellt, dass davor kein Zahlung-verarbeitet-Event steht, kann er auf die Lücke zeigen. Das geht mit einem 40-seitigen Word-Dokument oder einem Jira-Backlog nicht.

Er entlarvt auch die Magie. User Stories sind berüchtigt für ihr vages Geschwafel. In einer Story heißt es dann vielleicht: „Als Nutzer möchte ich eine personalisierte Empfehlung erhalten.“ Großartig. Wie? In einem Event Model musst du offenlegen, wie es funktioniert. Wenn du die Linie von den Daten zum Screen nicht ziehen kannst, existiert das Feature nicht. Das zwingt uns, früh mit der Realität umzugehen, statt zwei Wochen vor dem Launch fehlende Teile zu entdecken.

Der Blueprint ist außerdem im großen Maßstab begreifbar. Du kannst Dich vor ein sechs Meter langes Event Model an der Wand stellen (oder vor ein riesiges Miro-Board) und ein komplexes Banking-System in zehn Minuten verstehen. Du folgst einfach den Pfeilen. Versuch das mal mit einem Jira-Backlog. Du klickst drei Stunden lang auf „Nächste Seite“ und weißt immer noch nicht, wie die Zinsberechnung tatsächlich den Monatsauszug beeinflusst. Der Blueprint gibt dir räumliches Gedächtnis: Du erinnerst Dich daran, dass die Checkout-Logik dort drüben rechts ist, und das macht Navigation und mentales Modellieren mühelos.

Schließlich macht er Integration sichtbar. Wir bauen die Login-Story, dann die Profil-Story. Aber bei Software geht es darum, wie diese Dinge zusammenspielen. Der Blueprint zeigt die Integrationspunkte als First-Class Citizens. Wir sehen genau, wie ein Event im Versand-Slice eine View im Kundenservice-Slice beeinflusst.

Ich habe kürzlich darüber geschrieben, wie Event Sourcing eine gemeinsame Sprache zwischen technischen und nicht technischen Personen schafft. Wie verändert Event Modeling Deiner Erfahrung nach die Dynamik in einem Raum, wenn Entwickler und Domänenexperten zusammensitzen? Gibt es einen Moment, in dem Du typischerweise das Klick-Erlebnis siehst?

Dymitruk: Der Klick ist meist hörbar. Es ist dieser Moment in einem Workshop, in dem die Spannung im Raum einfach … verfliegt. Vor Event Modeling hattest du die Business-Seite auf der einen Seite des Tisches und Tech auf der anderen. Die Business-Leute sind frustriert, weil sie das Gefühl haben, ins Leere zu schreien, und die Entwickler sind frustriert, weil sie etwas bauen sollen, das noch nicht definiert wurde. Es läuft auf ein „Rate, was ich denke“ hinaus.

Der Klick passiert meist während der Storyboarding-Phase. Wir haben das chaotische Brainstorming mit den orangefarbenen Klebezetteln (Events) hinter uns und beginnen jetzt, sie auf der Zeitleiste auszurichten. Der Moment der Erkenntnis kommt, wenn ein Domänenexperte, vielleicht ein Versandleiter oder ein Buchhalter, auf den Bildschirm zeigt und sagt: „Moment, wenn das Event Bestellung versandt dort passiert, woher weiß der Kunde dann seine Tracking-Nummer? Wir haben dafür keinen Screen.“

Das ist der Klick. Zum ersten Mal ist die Business-Person nicht bloß ein Gast in einem technischen Meeting; sie ist die leitende Architektin. Sie erkennt, dass die orangefarbenen Klebezettel die Realität ihres Geschäfts sind, und dass der Blueprint das erste Mal ist, dass sie die Logik ihres eigenen Unternehmens in einer Form sehen, die für sie wirklich Sinn ergibt.

Von diesem Punkt an verschiebt sich die Dynamik grundlegend. Entwickler hören auf, „Mach dir keine Sorgen, wie das funktioniert“ zu sagen, und beginnen stattdessen: „Schauen wir mal auf die Zeitleiste.“ Das Gespräch verlagert sich von abstraktem Vertrauen zu empirischer Evidenz. Da wir alle auf dieselbe 2D-Karte von Information schauen, die sich durch die Zeit bewegt, gibt es keinen Spielraum mehr für Interpretation. Wenn ein Schritt fehlt, ist das ein physisches Loch an der Wand. Ich habe CEOs erlebt, die seit 20 Jahren keine Zeile Code mehr gelesen haben und ganz begeistert waren, weil sie das System endlich lesen konnten. Sie merken, dass sie die Logik selbst auditieren können, ohne einen Übersetzer zu brauchen.

Wenn alle im Raum erkennen, dass Events die letzte Quelle der Wahrheit sind, hören sie auf, über Klassen und Datenbanken zu streiten, und beginnen, über die Reise zu sprechen. Das ist der Moment, in dem du aufhörst, eine Entwicklungsbude zu sein, und anfängst, ein Engineering-Team zu sein.

Das klingt beeindruckend, und ich kann mir sehr gut vorstellen, wie sich dadurch das Gespräch verändert. Nicht-technische Stakeholder wirklich am System-Design zu beteiligen, ist eines der schwierigsten Probleme unserer Branche, und was Du beschreibst, klingt sehr vielversprechend. Kannst Du uns mehr darüber erzählen, wie sich das in der Praxis darstellt? Hast Du ein Beispiel, bei dem Event Modeling Menschen ins Gespräch gebracht hat, die normalerweise außen vor bleiben?

Dymitruk: Es ist ein klassisches Problem: Wir gehen in einen Raum und fangen an, über Encapsulation, Microservices und Aggregates zu reden, und die Business-Stakeholder (die Leute, die tatsächlich wissen, wie das Geld verdient wird) schalten einfach ab. Sie haben das Gefühl, in einer Sprache belehrt zu werden, auf die sie sich nie eingelassen haben.

Event Modeling löst das Problem mit einem Vokabular aus vier Begriffen: den Screens, Commands, Events und State Views, über die wir bereits gesprochen haben. Das war’s. Wenn du einen Klebezettel, eine Zeitleiste und einen Screen verstehen kannst, bist du Architekt. Wir reden nicht mehr über Klassen, sondern über Events (Tatsachen, die geschehen sind). Wir reden nicht mehr über API-Endpunkte, sondern über Commands (was der Nutzer tun möchte). Wenn du die Einstiegshürde so weit senkst, vereinfachst du nichts unzulässig, sondern erhöhst tatsächlich die Strenge, weil die Personen mit dem meisten Wissen endlich teilnehmen können.

Ich erlebe das oft bei Buchhaltern oder Compliance-Verantwortlichen. Das sind Menschen, die in Tech-Meetings traditionell extrem gelangweilt sind. Ich erinnere mich an eine Session für ein großes Logistikunternehmen, in der wir den Erstattungsprozess modelliert haben. Die Entwickler hatten ein komplexes Diagramm mit State Machines und Status-Flags. Der CFO saß im Raum und schaute verwirrt.

Wir sind zu einem Event Model gewechselt und haben die Zeitleiste gezeichnet: Zahlung empfangen (Event), dann Erstattung angefordert (Command), dann Erstattung ausgegeben (Event). Plötzlich stand der CFO auf, zeigte auf die Lücke zwischen Anfrage und Ausgabe und sagte: „Moment. Bei uns kannst du nicht einfach eine Erstattung ausgeben. Du brauchst erst einen Audit-Log-Eintrag und ein Steuerumkehr-Event, sonst verstoßen wir gegen das Gesetz.“

Darauf waren die Entwickler nicht einmal gekommen. Weil wir uns nicht hinter technischem Jargon versteckt haben, konnte die Person, die die rechtliche Realität des Geschäfts verstand, das Loch in der Zeitleiste sehen. Das ist die Stärke des Blueprints: Er macht den Domänenexperten zum Lead-Validator.

Wir Menschen sind zum Geschichtenerzählen geboren. Wir erzählen seit 50.000 Jahren Geschichten an Lagerfeuern; wir schreiben seit etwa 30 Jahren Java. Wenn du eine Zeitleiste zeigst, knüpfst du an die Art und Weise an, wie das menschliche Gehirn Informationen natürlich speichert. Das verlagert das Gespräch von „Wie programmieren wir das?“ zu „Stimmt diese Geschichte?“.



Source link

Entwicklung & Code

Sovereign Tech Agency fördert Maintainer für offene Standards


Die Sovereign Tech Agency der Bundesregierung hat ein neues Förderprogramm zur Unterstützung von Maintainern aufgelegt, die im Bereich offener Standards und Interoperabilität tätig sind und sich bei den Normierungsorganisationen IETF, W3C oder ISO einbringen wollen. Zehn Plätze stehen dafür zur Verfügung, mit einer monatlichen Vergütung von 4800 bis 5200 Euro für den Zeitaufwand der Normungsarbeit und Gremientreffen.

Weiterlesen nach der Anzeige

Darüber hinaus umfasst das Programm auch Schulung und Einarbeitung, etwa mit einem Online-Kurs zur Arbeitsweise von Standardisierungsgremien und ersten persönlichen Treffen bei einer der Organisationen. Ebenfalls soll es Mentorenbetreuung durch erfahrene Mitwirkende an der Normenarbeit geben und ein Netzwerk zum Austausch mit Gleichgesinnten. Außerdem soll es Unterstützung für die Anreise bei Präsenztreffen geben und Teilnahmegebühren sollen erstattet werden.

In die Gestaltung der Förderung seien Ergebnisse einer Befragung von Open-Source-Maintainern eingeflossen. Laut der hätten drei Viertel der Befragten angegeben, dass sie sich zwar aktiv auf Standards verlassen, aber sich kaum jemand leisten könne, langfristig an deren Entwicklung teilzunehmen. „Wir sind der Ansicht, dass eine sinnvolle Unterstützung für diejenigen, die offene Standards mitgestalten, längst überfällig ist“, erklärte die Sovereign Tech Agency dazu.

Von den Kandidatinnen und Kandidaten für das Programm wird erwartet, dass sie rund 10 Stunden pro Woche an Standards arbeiten und die Treffen einer der drei Organisationen besuchen. Wer aktiv ein Open-Source-Infrastruktur-Projekt mit Bezug zu den bei IETF, W3C und ISO relevanten Standards betreut oder plant, bei einer der drei Organisationen wesentliche Beiträge zu leisten, ist zur Bewerbung aufgerufen. Vorerfahrungen in den Standardisierungsprozessen setzt die Ausschreibung nicht voraus. Entscheidend seien Implementierungserfahrung und die Relevanz der Arbeit für die betreffenden Standards.

Bewerbungen nimmt die Sovereign Tech Agency bis zum 19. Mai an. Das Förderprogramm ist den Angaben nach zunächst als bis 2027 laufendes Pilotprojekt gedacht. Weitere Details zum Programm und zur Bewerbung finden sich in den FAQs.

Die Sovereign Tech Agency ist eine Tochtergesellschaft der Bundesagentur für Sprunginnovationen und widmet sich der Unterstützung von Open-Source-Technologie. Sie ging 2024 aus dem Sovereign Tech Fund hervor. Zuletzt unterstützte sie mit 614.000 Euro die Verbesserung des dezentralen Kurznachrichtendienstes Mastodon.

Weiterlesen nach der Anzeige


(axk)



Source link

Weiterlesen

Entwicklung & Code

Notepad++ erscheint als native macOS-Anwendung


Der beliebte Windows-Texteditor Notepad++ ist erstmals als native macOS-Anwendung verfügbar. Mitglieder der Open-Source-Community um den Entwickler Andrey Letov haben den Editor vollständig auf macOS portiert – ohne auf Kompatibilitätsschichten wie Wine, CrossOver oder Porting Kit zurückzugreifen. Die erste stabile Version 1.0.0 erschien Anfang April 2026, mittlerweile liegt der Editor in Version 1.0.4 vor.

Weiterlesen nach der Anzeige

Das Projekt unterscheidet sich grundlegend von früheren Versuchen, Notepad++ auf dem Mac nutzbar zu machen. Statt Windows-APIs zu emulieren, haben die Entwickler die gesamte Bedienoberfläche in Objective-C++ mit nativen macOS-Cocoa-APIs neu aufgebaut. Die Kern-Engine Scintilla, die auch der Windows-Version zugrunde liegt, blieb dabei identisch. Das Ergebnis ist ein Universal Binary, das sowohl auf Apple-Silicon-Macs (M1 bis M5) als auch auf Intel-Macs nativ läuft – ohne Rosetta-Übersetzungsschicht und ab macOS 11. Die Portierung der Windows-UI-Schicht auf Cocoa erforderte eine komplette Neuimplementierung sämtlicher Oberflächenelemente. Menüs, Dialoge und die Dateiauswahl folgen nun den macOS-Konventionen, ebenso die Tastaturkürzel. Der Editor unterstützt Syntax-Highlighting für mehr als 80 Programmiersprachen und bietet Funktionen wie Split-View-Editing, Makro-Aufzeichnung, reguläre Ausdrücke in der Suche sowie Lesezeichen. Die Oberfläche ist in 137 Sprachen lokalisiert. Die deutsche Lokalisierung erweckt aber stellenweise den Eindruck, als sei sie mit KI-Hilfe erstellt worden. Notepad++ für Windows hatte zuletzt mit einer Sicherheitslücke im Updater zu kämpfen, die das Ausführen von Schadcode ermöglichte – die macOS-Portierung baut die Architektur von Grund auf neu.

Dass es Jahrzehnte gedauert hat, bis Notepad++ nativ auf macOS verfügbar wurde, liegt auch am Originalautor Don Ho, der Notepad++ stets als Windows-Anwendung entwickelte und keine Mac-Version anbot. Erst die unabhängige Community-Initiative vom März 2026 machte die Portierung unter der GPLv3-Lizenz möglich. Das Projekt ist nicht mit dem offiziellen Notepad++-Team verbunden.

Der integrierte Plug-in-Admin ermöglicht den Zugriff auf eine wachsende Bibliothek portierter Erweiterungen. Allerdings sind noch nicht alle Windows-Plug-ins für macOS verfügbar – die Portierungen werden nach Angaben des Projekts täglich ergänzt. Einen konkreten Zeitplan für die vollständige Plug-in-Kompatibilität gibt es bislang nicht. Der Quellcode auf GitHub steht Entwicklern offen, die sich mit Pull Requests an der Weiterentwicklung beteiligen möchten.

In puncto Datenschutz setzt sich Notepad++ für Mac deutlich von manchen kommerziellen Editoren ab: Die Anwendung enthält keinerlei Telemetrie, Werbung oder Datenerfassung. Auch automatische Crash-Reports werden nicht versendet. Der einzige Netzwerkverkehr entsteht bei der Nutzung des Plug-in-Admin, der auf GitHub zugreift.

Im Vergleich zu etablierten macOS-Editoren wie VS Code, Sublime Text oder BBEdit positioniert sich Notepad++ als kostenlose, quelloffene Alternative ohne Telemetrie. Während VS Code auf Electron basiert, handelt es sich bei der Mac-Version von Notepad++ um eine echte native Cocoa-Anwendung. Laut der Projektdokumentation soll der Editor sofort starten und einen geringen Ressourcenverbrauch aufweisen.

Weiterlesen nach der Anzeige

Die Veröffentlichung reiht sich in einen breiteren Trend ein: Auch andere Anbieter bringen zunehmend native macOS-Versionen ihrer Entwicklertools heraus. So hat Google kürzlich eine native Gemini-App für macOS veröffentlicht. Für Entwicklerinnen und Entwickler, die bisher auf Windows-Alternativen oder Kompatibilitätsschichten angewiesen waren, schließt die Portierung eine langjährige Lücke.


(mki)



Source link

Weiterlesen

Entwicklung & Code

GitHub streicht kostenlose Modelle aus den Copilot-Tarifen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

GitHub stellt das Bezahlmodell für den KI-Assistenten Copilot ab dem 1. Juni 2026 auf verbrauchsbasierend um: Die monatlichen Kosten für die bisherigen Tarife bleiben gleich, aber GitHub rechnet AI Credits für die Nutzung von Tokens ab. Ein Credit entspricht dabei 0,01 US-Dollar und die Kosten variieren je nach Modell. Leistungsfähigere erfordern mehr Credits pro Token.

Weiterlesen nach der Anzeige

In die Kosten fallen hinein: Input-, Output- und Cache-Tokens, so wie sie in der API-Abrechnung des jeweiligen Modells erscheinen. Eine Million Output-Token kosten dabei zwischen 1,25 US-Dollar für GPT-5.4 nano und 30 Dollar für GPT-5.5. Claude Opus 4.7 kommt auf 25 Dollar, Gemini 3.1 Pro auf 12 Dollar.

Einen Fallback auf ein kostenloses, einfaches Modell wie bisher (GPT-5 mini, GPT-4.1 und GPT-4o) gibt es nicht mehr. Anwenderinnen und Anwender, die ihr Budget aufgebraucht haben, müssen ein Update kaufen. Für Reviews kommen die üblichen Minutenpreise für Actions hinzu.

Immer gratis bleiben jedoch Code-Vorschläge und auch den Free-Tarif will GitHub erhalten, allerdings ist noch nicht klar, zu welchen Bedingungen. Derzeit sind es 50 Premium-Anfragen und 2000 Code-Vorschläge.

Der Anbieter rechnet damit, dass in den Pro-Tarifen insbesondere Anwender von Token-aufwendiger Nutzung von agentic coding mit höheren Kosten rechnen müssen. Damit begründet GitHub auch die Umstellung: „Die Nutzung von Agenten wird zum Standard und bringt signifikant höhere Anforderungen an Rechen- und Inferenzleistung mit sich.“ Das bisherige Tarifmodell berechnete Premiumanfragen an teure Modelle unabhängig vom Umfang der Anfrage. Die Komplexität der Anfragen und des Kontexts nimmt mit dem Einsatz von Agenten jedoch erheblich zu.

Weiterlesen nach der Anzeige

Kunden der bisherigen monatlichen Tarife stellt GitHub automatisch um. Jährliche Verträge wird die Firma nicht verlängern und berechnet den Kunden während der restlichen Laufzeit einen Multiplikator für teurere Modelle. Ab Mai will GitHub auf der Abrechnungsseite in den Kundenkonten eine Übersicht zeigen, was die bisherige Nutzung nach der Umstellung kosten würde.

Als Zuckerl erhalten Business- und Enterprise-Kunden ein Addon in den ersten drei Monaten: Credits im Wert von 30 Dollar für Business- und 70 Dollar für Enterprise-Verträge („promotional included usage“).

Die vor einer Woche eingeführte Sperre für individuelle Neukunden wird laut GitHub mit den neuen Tarifen aufgehoben. Derzeit versuchen alle Modell-Anbieter, die Kosten zu optimieren. Zuletzt experimentierte Anthropic mit dem Ausschluss von Claude Code aus den Tarifen von Einzelanwendern.

In der Diskussion auf der FAQ-Seite kritisieren Anwender insbesondere den Wegfall der kostenlosen Modelle bei Überschreitung des Budgets. Viele sehen das als Hauptvorteil des bisherigen Copilot-Tarifs gegenüber der Konkurrenz.


(who)



Source link

Weiterlesen

Beliebt