Connect with us

Entwicklung & Code

Freies Web-Publishing: Ghost 6.0 ist da


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Ghost 6.0 erweitert die Open-Source-Publishing-Software unter anderem um native Web-Analysen und integriert ActivityPub, einen Standard zum Verbinden von sozialen Netzwerken. So lassen sich Ghost-Seiten direkt mit anderen Plattformen wie Mastodon, Bluesky, Threads, Flipboard, WordPress und mehr vernetzen. Anwender können Beiträge aus Ghost heraus finden und kommentieren sowie anderen Nutzern folgen, unabhängig von der eingesetzten Plattform. Die Ghost-Entwickler nutzen die per ActivityPub verbundenen Netzwerke in erster Linie als Verbreitungskanal für ihre Inhalte, so wie sie in vorigen Versionen bereits RSS-Feeds, APIs, Webhooks und klassische E-Mail-Newsletter angebunden hatten.

Das neue Analytics-Modul erfasst übliche Nutzungsdaten wie Seitenaufrufe, die Herkunft der Nutzer und deren Interaktion. Bislang mussten Ghost-Anwender hierfür auf Software von Drittanbietern zurückgreifen; die neuen nativen Web-Analysen basieren auf einer Zusammenarbeit mit Tinybird. Letztere bieten eine Plattform zur Echtzeit-Datenverarbeitung für Entwickler an. Unter der Haube kommt eine ClickHouse-Datenbank zum Einsatz, wobei es sich um ein spaltenorientiertes Open-Source-Datenbankmanagementsystem (DBMS) handelt, das speziell fürs Online Analytical Processing (OLAP) ausgelegt ist. Ghost betont, dass das Analytics-Modul datenschutzfreundlich sei und ohne Cookies auskommt.

Außerdem haben die Entwickler im Vergleich zur Vorgängerversion die Sprachunterstützung erweitert, die jetzt über 60 unterschiedliche Sprachen umfasst. Bislang waren alle Web-Interfaces – zum Beispiel das Login-Portal, die Suche oder Teile der Newsletter-Funktion – auf Englisch, unabhängig von der Sprache der veröffentlichten Inhalte. Jetzt können Anwender all diese Komponenten automatisch in die von ihnen eingestellte Sprache übersetzen lassen. Hierfür kommt keine KI zum Einsatz, vielmehr hat die Ghost-Community alle Textbausteine übertragen. Entsprechend bittet das Ghost-Projekt weiter um Mithilfe bei den Übersetzungen.

Die Newsletter-Funktion hat Ghost ebenfalls deutlich erweitert: Neu sind individuelle Design-Einstellungen, damit Farben und Stil der E-Mails besser zur eigenen Marke passen. Werbung lässt sich jetzt mit den Conditional Cards so steuern, dass Anzeigen ausschließlich zur korrekten Zeit beziehungsweise für die gewünschten Nutzer ausgespielt werden. Die neuen Premium-Previews zeigen regulären Abonnenten eine Vorschau auf kostenpflichtige Inhalte an. Das Feature unterscheidet automatisch zwischen den Empfängergruppen.

Newsletter können auf Wunsch jetzt die neuesten Blog-Beiträge anzeigen. Zur Interaktion mit den Empfängern ist nun eine Feedback-Funktion und ein Link zum Kommentieren der Inhalte mit an Bord. Zudem ist jetzt ein Spam-Schutz integriert, damit sich Ghost-Webseiten besser vor Sign-up-Fakes absichern lassen. Bei Zustellungsproblemen soll ein neues automatisches Troubleshooting weiterhelfen. Hat das automatische List Cleaning für einen Nutzer den Newsletter deaktiviert, kann dieser ihn künftig mit einem Klick wieder abonnieren.

Seit Version 5.0 wurde auch der Editor grunderneuert, er bietet nun eine native Bildbearbeitung und einen Verlauf der Posts, die sich so einfacher wiederherstellen lassen. Startseiten können Ghost-Nutzer stärker bearbeiten, indem sie standardmäßig Titel und Bild deaktivieren und sie anschließend über dynamische Karten nach Belieben neu aufbauen. Zudem kann man jetzt verschachtelte Listen anlegen. Über einen Ankündigungsbalken lassen sich mit wenigen Klicks beliebige Inhalte – zum Beispiel Blog-Beiträge oder Angebote für Abonnenten – am oberen Rand der Seite platzieren.

Optional können Verantwortliche eine Kommentarfunktion für Anwender aktivieren, Benachrichtigungen und Moderationswerkzeuge sind enthalten. Über eine native Suche können Nutzer außerdem das Post-Archiv durchsuchen. Viele dieser Features hatte das Ghost-Projekt bereits in den vergangenen Jahren zwischen den Major Releases freigeschaltet, da die Vorgängerversion 5.0 schon Mitte 2022 erschien.

Ghost betont, dass das Projekt Open Source bleibt und Nutzer die Publishing-Plattform weiterhin selbst betreiben können. Allerdings bietet die kommerzielle Pro-Version neben dem SaaS-Hosting und dem Support auch exklusive Funktionen. Die Preise von Ghost Pro haben sich mit Version 6.0 ebenfalls geändert: Sie steigen für die günstigeren Lizenzen; wer viele Abonnenten hat, kann sich auf niedrigere Preise einstellen.

Interessant für den Selbstbetrieb: Ghost 6.0 bringt ebenfalls eine Preview der kommenden Umstellung auf Docker Compose für Installation und Betrieb. Der Wechsel soll mit Version 7.0 geschehen. Das offizielle Set-up setzt nun auf Ubuntu 24, Node.js 22 und MySQL8; die Software lässt sich auch mit anderen Systemen betreiben, getestet wurde das jedoch nicht. Für Entwickler gibt es jetzt eine VS-Code-Erweiterung, die für die Theme-Erstellung gedacht ist. Zudem verabschiedet sich Ghost von einigen Altlasten, denn die Unterstützung für Node.js 18 und 20 wurde entfernt, dasselbe gilt für Google AMP.

Alle Änderungen in der Version 6.0 und seit dem Vorgänger 5.0 finden sich im Changelog. Auf GitHub gibt es außerdem eine Anleitung für den Selbstbetrieb.


(fo)



Source link

Entwicklung & Code

programmier.bar: Hackathons – von der Idee zum Prototyp


Die Begriffe Coding Jam, Game Jam und Hackathon sind unterschiedliche Namen für ein Format – aber alle mit einem Ziel: Mit maximalem Fokus in kürzester Zeit kreative Ideen konzipieren, entwickeln und testen.

In dieser Folge sprechen Dennis Becker, Dave Koschitzki und Jan Gregor Emge-Triebel über ihre Erfahrungen mit solchen Events. Sie verraten, welche ihrer Projekte den Sprung in die Öffentlichkeit geschafft haben und welche besser in der Schublade geblieben sind.

Sie diskutieren, warum regelmäßige Game Jams und Hackathons nicht nur für Spaß sorgen, sondern echte Innovation in ein Team und eine Firma bringen. Außerdem gibt es in dieser Folge Insights aus der Praxis, wie Lotum, das Unternehmen hinter dem programmier.bar-Podcast, teamübergreifende Coding-Events organisiert – und was andere Unternehmen davon mitnehmen können.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Inhalt geladen.

Die aktuelle Ausgabe des Podcasts steht auch im Blog der programmier.bar bereit: „Hackathons & Game Jams„. Fragen und Anregungen gerne per Mail oder via Mastodon, Bluesky, LinkedIn oder Instagram.


(mai)





Source link

Weiterlesen

Entwicklung & Code

Preisanstieg bei KI-Coding-Tools: The Free Lunch Is Over


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Dienste wie Cursor, GitHub Copilot, Anthropic Claude Code oder Googles Gemini CLI helfen Entwicklerinnen und Entwicklern dabei, Code schneller zu schreiben, zu debuggen und Aufgaben zu automatisieren. Doch in den letzten Monaten hat sich ein klarer Trend abgezeichnet: Die Anbieter drehen an der Preisschraube. Großzügige Flatrates weichen zunehmend nutzungsbasierten Modellen und strengeren Limits. Für Poweruser entstehen teils erhebliche Mehrkosten.


Rainer Stropek

Rainer Stropek

Rainer Stropek ist IT-Unternehmer, Softwareentwickler, Trainer, Autor und Vortragender im Microsoft-Umfeld. Er ist seit 2010 MVP für Microsoft Azure und entwickelt mit seinem Team die Software Time Cockpit.

Dieser Artikel beleuchtet die aktuellen Entwicklungen bei den Preismodellen der genannten Tools, die Reaktionen der Community und die Frage, was das für Developer und Unternehmen bedeutet.

Der Editor Cursor vom gleichnamigen Start-up galt lange als einer der besten KI-Assistenzeditoren mit einem fairen, planbaren Preismodell. Bis vor Kurzem war im Pro-Abonnement für 20 US-Dollar im Monat ein Kontingent von 500 KI-Anfragen enthalten, weitere Requests waren gegen Aufpreis erhältlich. Dieses einfache Modell hat Cursor jedoch vor einigen Monaten ziemlich abrupt umgestellt und damit viele vor den Kopf gestoßen.

Ohne große Vorankündigung schaffte Cursor die feste Request-Grenze ab und versprach stattdessen „unbegrenzte Nutzung“ mit dynamischen Rate Limits. Was nach einer guten Nachricht klang, entpuppte sich schnell als Verschleierung einer massiven Kürzung. Aus den ehemals 500 enthaltenen Anfragen wurden plötzlich nur noch etwa 225 zum selben Preis.

Die unbegrenzte Nutzung galt zudem nur, wenn man dem System die automatische Modellwahl überließ. Wer gezielt ein bestimmtes Modell wie Claude Sonnet 4 auswählte, musste jeden Aufruf aus einem begrenzten Guthaben bezahlen. Die Community empfand dieses Vorgehen als Vertrauensbruch und sprach offen von Irreführung. In Reddit-Diskussionen fand sich der Vorwurf, Cursor habe „unlimited“ versprochen, aber stillschweigend stark limitiert.

Viele bemängelten außerdem, dass Cursor unter den neuen Rate Limits deutlich schlechtere Ergebnisse lieferte. Unter anderem hieß es in einem Beitrag, dass der KI-Assistent im begrenzten Modus oft mitten in der Aufgabe stoppte oder nur noch Teilaufgaben erledigte und dadurch mehrere Nachfragen erforderte. Benutzer haben den Verdacht geäußert, dass Cursor absichtlich die Ausgabe rationiert, damit man das inbegriffene Guthaben nicht zu schnell verbraucht. Wechselt man hingegen in die echte nutzungsbasierte Abrechnung, arbeitet das Modell plötzlich wieder wie gewohnt, allerdings zu entsprechend höheren Kosten. Das hat bei zahlenden Kundinnen und Kunden für viel Unmut gesorgt.

Besonders Poweruser von Cursor waren frustriert. Wer das Tool intensiv einsetzte, stieß deutlich früher an die Grenzen. Neben den Nutzungsgrenzen war auch die Agentenfunktion ein Grund dafür. Dieser Modus zerlegt komplexe Aufgaben in Teilschritte, führt aber auch dazu, dass ein einzelner Befehl Dutzende von API Requests im Hintergrund auslöst und massenhaft Token verbraucht. „Cursor hat mit seinem Agent die Formel geändert, sodass riesige Mengen Credits verbraucht werden“ berichtet ein Anwender auf Reddit. Diese Änderung führte dazu, dass manche Nutzer ihr Monatskontingent in wenigen Tagen verbrauchten.

Als Reaktion auf die Engpässe bot Cursor zwar neue, teurere Abo-Stufen für Vielnutzer an, kommunizierte dies aber kaum transparent. Plötzlich tauchte ein Pro+-Plan für 60 US-Dollar (dreifaches Limit) und ein Ultra-Plan für 200 US-Dollar (zwanzigfache Limits) auf. Dass Bestandskunden mehr zahlen sollten, um wieder auf das ursprünglich Gebotene zu kommen, stieß verständlicherweise vielen sauer auf. Der Begriff Enshittification für Plattformen, die im Laufe der Zeit ihre Leistungen verschlechtern, um Profit zu steigern, liegt nahe.

Cursor hat inzwischen eingeräumt, dass die Preisumstellung nicht gut gelaufen ist. Auf X erklärten die Gründer, man habe das Feedback gehört und das Ziel verfehlt. Fakt ist, dass das Vertrauen vieler früherer Fans erschüttert wurde. Zahlreiche Nutzerinnen und Nutzer sind zu Alternativen abgewandert oder ziehen dies in Betracht.

GitHub Copilot galt lange Zeit als „All you can eat“-Service für zehn US-Dollar im Monat. Im Abo waren unbegrenzt Codevervollständigungen und Chatantworten inklusive. Viele wunderten sich anfangs, wie Microsoft das Angebot wirtschaftlich gestalten will. Und tatsächlich kam im Juni 2025 die Wende: GitHub führte ein Limit für Premium Requests ein, das preislich in etwa dem entspricht, was vorher als unbegrenzt galt. Seit dem 18. Juni 2025 hat jeder zahlende Copilot-Kunde pro Monat ein Kontingent von Premiumanfragen, dessen Umfang vom konkreten Preisplan abhängt. Alles darüber hinaus kostet extra.

Unter Premium Requests versteht GitHub alle Anfragen an fortgeschrittene Modelle und Features außerhalb der GPT-Modellreihe von OpenAI. Dazu gehört insbesondere die Nutzung des für Coding besonders beliebten Modells Claude Sonnet innerhalb von Copilot. „Wollen Sie Claude oder Agent nutzen? Zählt als Premium“, fasste ein Nutzer das Vorgehen sarkastisch zusammen.

Das normale Coden mit den Basismodellen (GPT-4.1 und GPT-4o) bleibt zwar weiterhin unbegrenzt, doch alle anspruchsvolleren KI-Funktionen zählen zum Limit des jeweiligen Preisplans. Beim Überschreiten der Grenze fallen für jede weitere Anfrage 0,04 US-Dollar an, oder Copilot stellt die teuren Dienste ein, wenn man kein zusätzliches Budget freigibt. Microsoft hat dafür eigens ein Budgetmanagement in GitHub integriert: Team-Admins können ein monatliches Kostenlimit setzen und optional festlegen, dass Copilot nach Erreichen des Budgets automatisch stoppt. Standardmäßig ist das Zusatzbudget auf 0 US-Dollar eingestellt, sodass man ohne aktives Opt-in nicht mehr ausgeben kann als den Preis für das Basis-Abo.

Für Poweruser gibt es zudem einen neuen Copilot-Pro+-Plan für 39 US-Dollar im Monat, der 300 statt 1.500 Premium Requests enthält. Auch Business- und Enterprise-Kunden haben höhere Kontingente entsprechend ihrer Lizenz, müssen aber ebenfalls für Mehrverbrauch zahlen.

Viele Bestandskunden fühlen sich vor den Kopf gestoßen. Insbesondere die Kommunikation von Microsoft steht in der Kritik. Lange Zeit wurde Copilot Pro als „unbegrenzt“ beworben. Die plötzliche Einführung einer 300er-Grenze empfinden etliche zahlende Nutzerinnen und Nutzer daher als Lockangebot mit anschließendem Wechsel der Bedingungen. Der oben zitierte sarkastische Reddit-Beitrag zum Premium-Modell erhielt viel Zuspruch. Dabei bemängeln User auch, dass GitHub zum Rollout der Limits kaum Transparenz bot. So gab es anfangs keine verlässliche Möglichkeit, den eigenen Verbrauch einzusehen. Dass viele lediglich die Meldung „No usage found“ erhielten, wenn sie ihre Statistiken abrufen wollten, hat das Misstrauen verstärkt. In den offiziellen GitHub-Foren häuften sich Kommentare wie „Es fühlt sich an, als hätte man Pro nur beschnitten, um Pro+ attraktiver zu machen“.

Für Profi-Anwenderinnen und Anwender bedeutet die Änderung vor allem mehr Planungsaufwand und gegebenenfalls höhere Kosten. GitHub wirbt zwar damit, dass alle bezahlten Pläne weiterhin unbegrenzte Vervollständigungen und Chat enthalten, aber wer das volle Potenzial von Copilot ausschöpfen will, beispielsweise mit den Claude-Modellen im Agent Mode, kommt mit 300 Anfragen pro Monat, also knapp 15 Anfragen pro Arbeitstag, nicht weit. viele Entwickler stoßen nun regelmäßig an dieses Limit.

Microsoft ermöglicht mit dem Budgetfeature zumindest, Kosten bewusst zu kontrollieren. Unternehmen können die Copilot-Nutzung so überwachen. Doch letztlich führt kein Weg daran vorbei, für intensivere Nutzung tiefer in die Tasche zu greifen, entweder durch den Wechsel auf teurere Pläne oder durch das Pay-as-you-go-Modell.

Die Stimmung in der Copilot-Entwicklergemeinschaft ist geteilt. Manchen ist klar, dass die KI-Flatrate wirtschaftlich nicht haltbar war. Andere hingegen sind frustriert über die Verschlechterung des Angebots. Auffällig ist, dass Microsoft die Einführung der Limits aktiver kommuniziert hat als Cursor oder Anthropic. Es gab Blogbeiträge, Seiten in der Dokumentation und Hinweise in den FAQs. Dennoch blieb für viele unklar, was genau als Premium zählt. Aus der Dokumentation geht beispielsweise nicht klar hervor, dass der Agent Mode von Copilot intern oft viele einzelne Requests, sogenannte Tool Calls ausführt, und wie sich diese Aufrufe auf das Kontingent von Premium Requests auswirken. Für die Poweruser markieren die Änderungen am Preisplan von GitHub Copilot das Ende der sorglosen Copilot-Nutzung.



Source link

Weiterlesen

Entwicklung & Code

Docker: Sicherheitsalptraum MCP – sechs Lücken identifiziert


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Containerplattform Docker warnt vor Sicherheitsrisiken, die sich durch die Nutzung von MCP-Quellen ergeben und Angreifern leichten Zugriff auf Dateien, Datenbanken, Netzwerk und Secrets eröffnen. Außerdem können die Täter weitreichend Befehle absetzen und schädlichen Code einschleusen.

Der Blogbeitrag kritisiert das von Anthropic letztes Jahr eingeführte und inzwischen weitverbreitete Model Context Protokol (MCP) als auf Komfort und nicht auf Sicherheit angelegt. „Es ist zu einem Sicherheitsalptraum geworden, der Unternehmen dem Risiko von Datenverlust, Kompromittierung der Systeme und Angriffen auf die Lieferkette aussetzt.“ Dabei betont der Text, dass diese Annahmen nicht auf Spekulation beruhen, sondern auf der „Analyse tausender MCP-Server, die systematische Schwachstellen in sechs kritischen Angriffsvektoren aufgedeckt hat“. Als Schutz empfiehlt Docker unter anderem den hauseigenen Katalog gehärteter MCP-Images.

Tatsächlich untermauert der Blogeintrag seine Annahmen mit vielen Hinweisen auf Studien von Sicherheitsfirmen, die MCP untersucht haben. Als erstes Problem nennt Docker schadhafte OAuth-Prozesse, die bösartigen Code in Clients einschleusen können. Laut der zitierten Studie sind 43 Prozent der analysierten Server davon betroffen. Ein Beispiel war ein inzwischen behobenes Problem im viel genutzten Paket mcp-remote, mit dem sich Clients bei entfernten MCP-Servern anmelden können.

Als weitere Probleme nennt Docker das Einschleusen und Ausführen von Befehlen, uneingeschränkter Netzzugriff, Zugriff auf das Dateisystem, den Missbrauch von Tools sowie das Aufdecken von Secrets. Diese finden sich unter Umständen in unsauber implementierten Umgebungsvariablen, Logfiles oder Prozesslisten.

Anwenderinnen und Anwender sollten MCP-Quellen immer genau prüfen und auch im Betrieb überwachen, welche Rechte sie einfordern und auf welche Ressourcen sie zugreifen. Bei offenen Quellen lässt sich beispielsweise nach Stichwörtern wie eval() oder exec() suchen. Die Server sollten ferner keine Credentials als Umgebungsvariablen benötigen.


Schloss mit Code

Schloss mit Code

(Bild: Titima Ongkantong/Shutterstock)

Am 30. September und 1. Oktober findet die heise devSec 2025 in Regensburg statt. Auf der von iX, heise Security und dpunkt.verlag ausgerichteten Konferenz stehen in Themen wie Threat Modeling, Software Supply Chain, OAuth, ASPM, Kubernetes und der Einfluss von GenAI auf Security im Programm.

Der Autor des Blogbeitrags hat angekündigt, weitere Artikel zum Thema zu veröffentlichen.


(who)



Source link

Weiterlesen

Beliebt