Connect with us

Entwicklung & Code

OpenAI veröffentlicht neue offene Modelle


OpenAI hat am Dienstagabend mit gpt-oss-120B und gpt-oss-20B zwei Open-Weight-Reasoning-Modelle veröffentlicht. Bereits im März hatte OpenAI-Chef Sam Altman die ersten Open-Weight-Modelle seit GPT-2 in Aussicht gestellt. Im Juli wurde die Veröffentlichung dann aus Sicherheitsbedenken aber um unbestimmte Zeit verschoben. Anders als geschlossene Modelle wie GPT-4 oder o4-mini enthalten offene Modelle auch die trainierten Parameter, was Dritten den Betrieb auf eigener Infrastruktur ermöglicht.

Nach Angaben von OpenAI erreicht gpt-oss-120B in zentralen Benchmarks die Leistung von OpenAIs Reasoning-Modell o4-mini, laufe dabei aber auf nur einer einzigen 80 -GB-GPU. gpt-oss-20B liefere indessen starke Reasoning-Fähigkeiten auf einem 16 GB-Edge-Gerät. Reasoning-Modelle sind speziell darauf trainiert, komplexe logische Schlussfolgerungen zu ziehen, mehrstufige Probleme zu lösen und ihre Denkprozesse explizit darzulegen.

Offene Modelle sind auch für den Einsatz in Hochsicherheitsumgebungen interessant, da sie lokal betrieben werden können. Allerdings sind auch bei den Modellen selbst die Sicherheitsanforderungen höher, da diese nach Freigabe – anders als geschlossen betriebene Modelle – nicht zurückgenommen werden können. OpenAI-Chef Sam Altman hatte im Juli offenbar noch Bedenken und erklärte, es seien zusätzliche Sicherheitstests notwendig. Im Zuge der jetzigen Veröffentlichung erklärte das Unternehmen, dass die Modelle mit einem neuen Sicherheitsstandard entwickelt worden seien.

Dieses “Worst-Case-Fine-Tuning”-Protokoll simuliere böswillige Nutzung in den Bereichen Biologie und Cybersicherheit, dürfte also darauf abzielen, zu verhindern, dass das Modell für den Waffenbau oder Cyberattacken missbraucht wird. Externe Experten hätten die Methodik überprüft und OpenAI macht zudem Evaluierungscode, Prompts und Bewertungsrichtlinien öffentlich.

Zusammen mit der Veröffentlichung der neuen Modelle wurden auch Entwicklungshandbücher und Tools bereitgestellt, um die Modelle für die eigenen Bedürfnisse anzupassen und Schutzmechanismen zu implementieren. Sie werden unter der Apache-2.0-Lizenz veröffentlicht und können unter anderem in Hugging Face, vLLM, Ollama und llamaa.cpp integriert werden.

OpenAI-Chef Altman erklärte anlässlich der Veröffentlichung, dass die Welt “künftig auf einem offenen KI-Stack aufbauen kann – entwickelt in den USA, geprägt von demokratischen Werten, kostenlos zugänglich und zum breiten Nutzen aller.” Die Aussage kann als Anspielung auf chinesische Open-Weight-Modelle verstanden werden, die sich nach ihrer Veröffentlichung großer Beliebtheit erfreuten, aber zugleich Kritiker auf den Plan riefen. So sei das Trainingsmaterial darauf abgestimmt, Fragen im Sinne der chinesischen Regierung zu beantworten. Historische Ereignisse wie auf dem Tian’anmen-Platz verschweige die KI.


(mki)



Source link

Entwicklung & Code

programmier.bar: Hackathons – von der Idee zum Prototyp


Die Begriffe Coding Jam, Game Jam und Hackathon sind unterschiedliche Namen für ein Format – aber alle mit einem Ziel: Mit maximalem Fokus in kürzester Zeit kreative Ideen konzipieren, entwickeln und testen.

In dieser Folge sprechen Dennis Becker, Dave Koschitzki und Jan Gregor Emge-Triebel über ihre Erfahrungen mit solchen Events. Sie verraten, welche ihrer Projekte den Sprung in die Öffentlichkeit geschafft haben und welche besser in der Schublade geblieben sind.

Sie diskutieren, warum regelmäßige Game Jams und Hackathons nicht nur für Spaß sorgen, sondern echte Innovation in ein Team und eine Firma bringen. Außerdem gibt es in dieser Folge Insights aus der Praxis, wie Lotum, das Unternehmen hinter dem programmier.bar-Podcast, teamübergreifende Coding-Events organisiert – und was andere Unternehmen davon mitnehmen können.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Inhalt geladen.

Die aktuelle Ausgabe des Podcasts steht auch im Blog der programmier.bar bereit: „Hackathons & Game Jams„. Fragen und Anregungen gerne per Mail oder via Mastodon, Bluesky, LinkedIn oder Instagram.


(mai)





Source link

Weiterlesen

Entwicklung & Code

Preisanstieg bei KI-Coding-Tools: The Free Lunch Is Over


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Dienste wie Cursor, GitHub Copilot, Anthropic Claude Code oder Googles Gemini CLI helfen Entwicklerinnen und Entwicklern dabei, Code schneller zu schreiben, zu debuggen und Aufgaben zu automatisieren. Doch in den letzten Monaten hat sich ein klarer Trend abgezeichnet: Die Anbieter drehen an der Preisschraube. Großzügige Flatrates weichen zunehmend nutzungsbasierten Modellen und strengeren Limits. Für Poweruser entstehen teils erhebliche Mehrkosten.


Rainer Stropek

Rainer Stropek

Rainer Stropek ist IT-Unternehmer, Softwareentwickler, Trainer, Autor und Vortragender im Microsoft-Umfeld. Er ist seit 2010 MVP für Microsoft Azure und entwickelt mit seinem Team die Software Time Cockpit.

Dieser Artikel beleuchtet die aktuellen Entwicklungen bei den Preismodellen der genannten Tools, die Reaktionen der Community und die Frage, was das für Developer und Unternehmen bedeutet.

Der Editor Cursor vom gleichnamigen Start-up galt lange als einer der besten KI-Assistenzeditoren mit einem fairen, planbaren Preismodell. Bis vor Kurzem war im Pro-Abonnement für 20 US-Dollar im Monat ein Kontingent von 500 KI-Anfragen enthalten, weitere Requests waren gegen Aufpreis erhältlich. Dieses einfache Modell hat Cursor jedoch vor einigen Monaten ziemlich abrupt umgestellt und damit viele vor den Kopf gestoßen.

Ohne große Vorankündigung schaffte Cursor die feste Request-Grenze ab und versprach stattdessen „unbegrenzte Nutzung“ mit dynamischen Rate Limits. Was nach einer guten Nachricht klang, entpuppte sich schnell als Verschleierung einer massiven Kürzung. Aus den ehemals 500 enthaltenen Anfragen wurden plötzlich nur noch etwa 225 zum selben Preis.

Die unbegrenzte Nutzung galt zudem nur, wenn man dem System die automatische Modellwahl überließ. Wer gezielt ein bestimmtes Modell wie Claude Sonnet 4 auswählte, musste jeden Aufruf aus einem begrenzten Guthaben bezahlen. Die Community empfand dieses Vorgehen als Vertrauensbruch und sprach offen von Irreführung. In Reddit-Diskussionen fand sich der Vorwurf, Cursor habe „unlimited“ versprochen, aber stillschweigend stark limitiert.

Viele bemängelten außerdem, dass Cursor unter den neuen Rate Limits deutlich schlechtere Ergebnisse lieferte. Unter anderem hieß es in einem Beitrag, dass der KI-Assistent im begrenzten Modus oft mitten in der Aufgabe stoppte oder nur noch Teilaufgaben erledigte und dadurch mehrere Nachfragen erforderte. Benutzer haben den Verdacht geäußert, dass Cursor absichtlich die Ausgabe rationiert, damit man das inbegriffene Guthaben nicht zu schnell verbraucht. Wechselt man hingegen in die echte nutzungsbasierte Abrechnung, arbeitet das Modell plötzlich wieder wie gewohnt, allerdings zu entsprechend höheren Kosten. Das hat bei zahlenden Kundinnen und Kunden für viel Unmut gesorgt.

Besonders Poweruser von Cursor waren frustriert. Wer das Tool intensiv einsetzte, stieß deutlich früher an die Grenzen. Neben den Nutzungsgrenzen war auch die Agentenfunktion ein Grund dafür. Dieser Modus zerlegt komplexe Aufgaben in Teilschritte, führt aber auch dazu, dass ein einzelner Befehl Dutzende von API Requests im Hintergrund auslöst und massenhaft Token verbraucht. „Cursor hat mit seinem Agent die Formel geändert, sodass riesige Mengen Credits verbraucht werden“ berichtet ein Anwender auf Reddit. Diese Änderung führte dazu, dass manche Nutzer ihr Monatskontingent in wenigen Tagen verbrauchten.

Als Reaktion auf die Engpässe bot Cursor zwar neue, teurere Abo-Stufen für Vielnutzer an, kommunizierte dies aber kaum transparent. Plötzlich tauchte ein Pro+-Plan für 60 US-Dollar (dreifaches Limit) und ein Ultra-Plan für 200 US-Dollar (zwanzigfache Limits) auf. Dass Bestandskunden mehr zahlen sollten, um wieder auf das ursprünglich Gebotene zu kommen, stieß verständlicherweise vielen sauer auf. Der Begriff Enshittification für Plattformen, die im Laufe der Zeit ihre Leistungen verschlechtern, um Profit zu steigern, liegt nahe.

Cursor hat inzwischen eingeräumt, dass die Preisumstellung nicht gut gelaufen ist. Auf X erklärten die Gründer, man habe das Feedback gehört und das Ziel verfehlt. Fakt ist, dass das Vertrauen vieler früherer Fans erschüttert wurde. Zahlreiche Nutzerinnen und Nutzer sind zu Alternativen abgewandert oder ziehen dies in Betracht.

GitHub Copilot galt lange Zeit als „All you can eat“-Service für zehn US-Dollar im Monat. Im Abo waren unbegrenzt Codevervollständigungen und Chatantworten inklusive. Viele wunderten sich anfangs, wie Microsoft das Angebot wirtschaftlich gestalten will. Und tatsächlich kam im Juni 2025 die Wende: GitHub führte ein Limit für Premium Requests ein, das preislich in etwa dem entspricht, was vorher als unbegrenzt galt. Seit dem 18. Juni 2025 hat jeder zahlende Copilot-Kunde pro Monat ein Kontingent von Premiumanfragen, dessen Umfang vom konkreten Preisplan abhängt. Alles darüber hinaus kostet extra.

Unter Premium Requests versteht GitHub alle Anfragen an fortgeschrittene Modelle und Features außerhalb der GPT-Modellreihe von OpenAI. Dazu gehört insbesondere die Nutzung des für Coding besonders beliebten Modells Claude Sonnet innerhalb von Copilot. „Wollen Sie Claude oder Agent nutzen? Zählt als Premium“, fasste ein Nutzer das Vorgehen sarkastisch zusammen.

Das normale Coden mit den Basismodellen (GPT-4.1 und GPT-4o) bleibt zwar weiterhin unbegrenzt, doch alle anspruchsvolleren KI-Funktionen zählen zum Limit des jeweiligen Preisplans. Beim Überschreiten der Grenze fallen für jede weitere Anfrage 0,04 US-Dollar an, oder Copilot stellt die teuren Dienste ein, wenn man kein zusätzliches Budget freigibt. Microsoft hat dafür eigens ein Budgetmanagement in GitHub integriert: Team-Admins können ein monatliches Kostenlimit setzen und optional festlegen, dass Copilot nach Erreichen des Budgets automatisch stoppt. Standardmäßig ist das Zusatzbudget auf 0 US-Dollar eingestellt, sodass man ohne aktives Opt-in nicht mehr ausgeben kann als den Preis für das Basis-Abo.

Für Poweruser gibt es zudem einen neuen Copilot-Pro+-Plan für 39 US-Dollar im Monat, der 300 statt 1.500 Premium Requests enthält. Auch Business- und Enterprise-Kunden haben höhere Kontingente entsprechend ihrer Lizenz, müssen aber ebenfalls für Mehrverbrauch zahlen.

Viele Bestandskunden fühlen sich vor den Kopf gestoßen. Insbesondere die Kommunikation von Microsoft steht in der Kritik. Lange Zeit wurde Copilot Pro als „unbegrenzt“ beworben. Die plötzliche Einführung einer 300er-Grenze empfinden etliche zahlende Nutzerinnen und Nutzer daher als Lockangebot mit anschließendem Wechsel der Bedingungen. Der oben zitierte sarkastische Reddit-Beitrag zum Premium-Modell erhielt viel Zuspruch. Dabei bemängeln User auch, dass GitHub zum Rollout der Limits kaum Transparenz bot. So gab es anfangs keine verlässliche Möglichkeit, den eigenen Verbrauch einzusehen. Dass viele lediglich die Meldung „No usage found“ erhielten, wenn sie ihre Statistiken abrufen wollten, hat das Misstrauen verstärkt. In den offiziellen GitHub-Foren häuften sich Kommentare wie „Es fühlt sich an, als hätte man Pro nur beschnitten, um Pro+ attraktiver zu machen“.

Für Profi-Anwenderinnen und Anwender bedeutet die Änderung vor allem mehr Planungsaufwand und gegebenenfalls höhere Kosten. GitHub wirbt zwar damit, dass alle bezahlten Pläne weiterhin unbegrenzte Vervollständigungen und Chat enthalten, aber wer das volle Potenzial von Copilot ausschöpfen will, beispielsweise mit den Claude-Modellen im Agent Mode, kommt mit 300 Anfragen pro Monat, also knapp 15 Anfragen pro Arbeitstag, nicht weit. viele Entwickler stoßen nun regelmäßig an dieses Limit.

Microsoft ermöglicht mit dem Budgetfeature zumindest, Kosten bewusst zu kontrollieren. Unternehmen können die Copilot-Nutzung so überwachen. Doch letztlich führt kein Weg daran vorbei, für intensivere Nutzung tiefer in die Tasche zu greifen, entweder durch den Wechsel auf teurere Pläne oder durch das Pay-as-you-go-Modell.

Die Stimmung in der Copilot-Entwicklergemeinschaft ist geteilt. Manchen ist klar, dass die KI-Flatrate wirtschaftlich nicht haltbar war. Andere hingegen sind frustriert über die Verschlechterung des Angebots. Auffällig ist, dass Microsoft die Einführung der Limits aktiver kommuniziert hat als Cursor oder Anthropic. Es gab Blogbeiträge, Seiten in der Dokumentation und Hinweise in den FAQs. Dennoch blieb für viele unklar, was genau als Premium zählt. Aus der Dokumentation geht beispielsweise nicht klar hervor, dass der Agent Mode von Copilot intern oft viele einzelne Requests, sogenannte Tool Calls ausführt, und wie sich diese Aufrufe auf das Kontingent von Premium Requests auswirken. Für die Poweruser markieren die Änderungen am Preisplan von GitHub Copilot das Ende der sorglosen Copilot-Nutzung.



Source link

Weiterlesen

Entwicklung & Code

Docker: Sicherheitsalptraum MCP – sechs Lücken identifiziert


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Containerplattform Docker warnt vor Sicherheitsrisiken, die sich durch die Nutzung von MCP-Quellen ergeben und Angreifern leichten Zugriff auf Dateien, Datenbanken, Netzwerk und Secrets eröffnen. Außerdem können die Täter weitreichend Befehle absetzen und schädlichen Code einschleusen.

Der Blogbeitrag kritisiert das von Anthropic letztes Jahr eingeführte und inzwischen weitverbreitete Model Context Protokol (MCP) als auf Komfort und nicht auf Sicherheit angelegt. „Es ist zu einem Sicherheitsalptraum geworden, der Unternehmen dem Risiko von Datenverlust, Kompromittierung der Systeme und Angriffen auf die Lieferkette aussetzt.“ Dabei betont der Text, dass diese Annahmen nicht auf Spekulation beruhen, sondern auf der „Analyse tausender MCP-Server, die systematische Schwachstellen in sechs kritischen Angriffsvektoren aufgedeckt hat“. Als Schutz empfiehlt Docker unter anderem den hauseigenen Katalog gehärteter MCP-Images.

Tatsächlich untermauert der Blogeintrag seine Annahmen mit vielen Hinweisen auf Studien von Sicherheitsfirmen, die MCP untersucht haben. Als erstes Problem nennt Docker schadhafte OAuth-Prozesse, die bösartigen Code in Clients einschleusen können. Laut der zitierten Studie sind 43 Prozent der analysierten Server davon betroffen. Ein Beispiel war ein inzwischen behobenes Problem im viel genutzten Paket mcp-remote, mit dem sich Clients bei entfernten MCP-Servern anmelden können.

Als weitere Probleme nennt Docker das Einschleusen und Ausführen von Befehlen, uneingeschränkter Netzzugriff, Zugriff auf das Dateisystem, den Missbrauch von Tools sowie das Aufdecken von Secrets. Diese finden sich unter Umständen in unsauber implementierten Umgebungsvariablen, Logfiles oder Prozesslisten.

Anwenderinnen und Anwender sollten MCP-Quellen immer genau prüfen und auch im Betrieb überwachen, welche Rechte sie einfordern und auf welche Ressourcen sie zugreifen. Bei offenen Quellen lässt sich beispielsweise nach Stichwörtern wie eval() oder exec() suchen. Die Server sollten ferner keine Credentials als Umgebungsvariablen benötigen.


Schloss mit Code

Schloss mit Code

(Bild: Titima Ongkantong/Shutterstock)

Am 30. September und 1. Oktober findet die heise devSec 2025 in Regensburg statt. Auf der von iX, heise Security und dpunkt.verlag ausgerichteten Konferenz stehen in Themen wie Threat Modeling, Software Supply Chain, OAuth, ASPM, Kubernetes und der Einfluss von GenAI auf Security im Programm.

Der Autor des Blogbeitrags hat angekündigt, weitere Artikel zum Thema zu veröffentlichen.


(who)



Source link

Weiterlesen

Beliebt