Entwicklung & Code
Cursor 2.0 bringt eigenes Coding-Modell und Multi-Agent-Interface
Mit Version 2.0 erweitert die KI-gestützte Entwicklungsumgebung Cursor ihr Funktionsspektrum deutlich. Die IDE setzt auf sogenannte agentische Entwicklung, bei der mehrere spezialisierte KI-Agenten gemeinsam Code schreiben, prüfen und testen. Neben einem neuen Interface für die parallele Arbeit mit solchen Agenten stellt das Unternehmen mit Composer auch sein erstes eigenes Coding-Modell vor.
Weiterlesen nach der Anzeige
Eigenes Modell für agentenbasiertes Programmieren
Composer ist laut Cursor rund viermal schneller als Modelle mit vergleichbarer künstlicher Intelligenz und auf geringe Latenzzeiten bei codierenden Agenten optimiert. Die meisten Anfragen beantwortet das Modell offenbar in unter 30 Sekunden. Testnutzer hätten vor allem die schnelle Interaktion und die Zuverlässigkeit bei mehrstufigen Aufgaben hervorgehoben.
Das Modell nutzt Werkzeuge wie semantische Codebase-Suche, um größere Codebasen besser zu verstehen und darin zielgerichtet zu arbeiten – eine Stärke, die besonders bei der Integration verschiedener Agenten zum Tragen kommen soll.
Fokus auf Agenten statt Dateien
Das neue Interface stellt Agenten ins Zentrum des Workflows. Entwicklerinnen und Entwickler sollen damit stärker ergebnisorientiert arbeiten können, während die Agenten die Umsetzung übernehmen. Wer dennoch direkt im Code arbeiten will, kann jederzeit zu einer klassischeren IDE-Ansicht wechseln.
Cursor 2.0 erlaubt es außerdem, mehrere Agenten parallel auf separaten Git-Worktrees oder entfernten Maschinen laufen zu lassen. Dadurch können mehrere Modelle unabhängig an derselben Aufgabe arbeiten – das beste Ergebnis wird dann ausgewählt. Laut Cursor führt dieses Verfahren bei komplexeren Aufgaben zu einer spürbaren Qualitätssteigerung.
Weiterlesen nach der Anzeige

Das neue Multi-Agent-Interface von Cursor 2.0 rückt KI-Agenten in den Mittelpunkt und erlaubt paralleles Arbeiten an Aufgaben, ohne dass sie sich gegenseitig stören.
(Bild: Cursor)
Anpassungen beim Review und Testing
Das Entwicklerteam hinter Cursor adressiert mit dem Update auch zwei Engpässe aus der bisherigen Nutzung von KI-Agenten: Code-Reviews und Tests. Version 2.0 soll das Überprüfen von Änderungen durch neue Vergleichsansichten und ein integriertes Browser-Tool zum Testen des generierten Codes optimieren. Damit soll die KI ihre Ergebnisse automatisch validieren und verbessern können.
Cursor 2.0 steht ab sofort über die Download-Seite zum Herunterladen zur Verfügung. Eine vollständige Liste aller Neuerungen findet sich im Changelog.
(mdo)
Entwicklung & Code
Neue Features im App Store: Mehr Freiheiten für Entwickler
App-Entwickler, die in Apples App Stores Software verkaufen, können ab sofort mehrere Einreichungen gleichzeitig vom App Review prüfen lassen. Dies teilte der iPhone-Hersteller mit. Mit zusätzlichen Custom Product Pages und der Umstellung auf einheitliche Offer Codes kündigte Apple noch weitere Verbesserungen für Entwickler an.
Weiterlesen nach der Anzeige
Bislang war es bei Einreichungen so, dass jeweils pro App immer nur eine gleichzeitig vorgenommen werden konnte. Mit der Änderung ist es möglich, zusätzliche Inhalte unabhängig von bestehenden Einreichungen in die Prüfung zu geben. Damit können Entwickler zum Beispiel In-App-Events einreichen, während noch eine neue App-Version im Review ist. Früher mussten sie immer erst einmal die bestehende Prüfung abwarten. Die Verbesserung soll zum Beispiel auch helfen, kritische Bugfixes getrennt von Custom Product Pages einzureichen.
Zahl der Custom Product Pages verdoppelt
Die maßgeschneiderten Landing Pages, von Apple Custom Product Page genannt, werden in ihrer Zahl von 35 auf 70 verdoppelt. Diese Seiten können zum Beispiel für die Bewerbung von Apps genutzt werden. Wer über den jeweiligen Link geht, bekommt dann zum Beispiel eine App-Store-Seite angezeigt, die andere Schwerpunkte setzt, als die allgemeine Info-Seite zur App im App Store. Wer möchte, kann die speziellen Landing Pages auch anzeigen lassen, wenn Nutzer des App Stores nach bestimmten Keywords suchen. Neu ist auch, dass jetzt Schlüsselwörter (Keywords) jeder einzelnen Custom Product Page zugeordnet werden können.
Offer Codes, die den kostenlosen oder vergünstigten Abruf einer App oder ihrer Inhalte ermöglichen, unterstützen jetzt alle Arten von In-App-Kauf. Sie sind damit für Verbrauchsgüter, Nicht-Verbrauchsgüter und Abonnements verwendbar, die sich nicht erneuern. Eine erweiterte Unterstützung wird für automatisch erneuernde Abonnements angeboten. Diese können so konfiguriert werden, dass sie nach einer Werbephase nicht automatisch verlängert werden. Apple teilte zugleich mit, dass die bisherigen Promo Codes für In-App-Käufe abgeschafft werden. Ab dem 26. März 2026 können keine neuen mehr erstellt werden. Bestehende behalten bis zum Ablauf ihre Gültigkeit. Für kostenlose App-Downloads bleiben Promo Codes bestehen.
Apple hat in der Vergangenheit immer wieder an Verbesserungen des App Review gefeilt. In den Anfangstagen waren vor allem lange Wartezeiten bei Prüfungen ein Ärgernis. Vor 2015 mussten Entwickler oft über eine Woche, manchmal sogar über zwei Wochen lang warten. Mit der Übernahme der App-Store-Leitung durch den früheren Marketingchef und heutigen Fellow Phil Schiller nahm das App Review Tempo auf. Im Mai 2016 betrug die durchschnittliche Wartezeit nur noch 1,95 Tage, zwischen den Jahren 2020 und 2024 lag sie statistisch bei durchschnittlich 11 Stunden.
(mki)
Entwicklung & Code
Microsoft veröffentlicht Azure MCP Server v1.0 für KI-Agenten
Microsoft hat die stabile Version 1.0.0 des Azure MCP Server veröffentlicht. Er implementiert das Model Context Protocol (MCP) und dient als Schnittstelle zwischen KI-Agenten und Azure-Diensten. So können Entwickler Cloud-Ressourcen über natürliche Sprache oder Code abfragen, verwalten und automatisieren. Das komplette Projekt stellt Microsoft als Open Source zur Verfügung.
Weiterlesen nach der Anzeige
KI-Agenten mit Azure kombiniert
Das Model Context Protocol ist ein offener Standard, der eine einheitliche Kommunikation zwischen den von KI-Agenten verwendeten LLMs und Backend-Systemen ermöglicht – unabhängig vom jeweiligen Agent-Framework. Der Azure MCP-Server unterstützt in Version 1.0.0 mehr als 47 Azure-Dienste, darunter Azure AI Foundry, Azure AI Search, Event Hubs, Service Bus, PostgreSQL, Kusto, Function Apps, Storage und Log Analytics.
Insgesamt stehen 170 Befehle zur Verfügung, die Microsoft zu strukturierten Funktionen zusammengeführt hat. Dabei gibt es drei Betriebsmodi: Der Standard-Namespace-Modus gruppiert Werkzeuge nach logischen Bereichen, alternativ lassen sich alle Tools aktivieren oder nur einzelne Funktionen freischalten. Dies soll insbesondere das Onboarding und Testen vereinfachen.
Für den DevOps-Einsatz stellt Microsoft ein Docker-Image über die eigene Container-Registry bereit. Damit lässt sich der Azure MCP Server in CI/CD-Pipelines integrieren. Die Unterstützung für gängige Entwicklungsumgebungen wie Visual Studio Code, Visual Studio und IntelliJ ist über entsprechende Erweiterungen vorgesehen.
Sicherheit und Performance im Fokus
Weiterlesen nach der Anzeige
Bei sicherheitskritischen Operationen setzt der Azure MCP Server auf verpflichtende Bestätigungen durch den Nutzer. Alle Interaktionen erfolgen innerhalb der Azure-Sicherheits- und Governance-Mechanismen. Microsoft hat zudem die Performance durch .NET Ahead-of-Time-Kompilierung (AOT) optimiert, was zu kürzeren Startzeiten und geringerem Ressourcenverbrauch führen soll.
Die vollständige Dokumentation und der Quellcode sind über das offizielle GitHub-Repository verfügbar. Für die nächsten Updates plant Microsoft laut Ankündigung eine engere Integration mit Azure-Werkzeugen und erweiterte Unterstützung für Container-Workloads.
(fo)
Entwicklung & Code
OpenAI bringt neues Open-Weight-Reasoning-Modell heraus
Eigentlich gibt es sogar zwei gpt-oss-safeguard-Modelle – nämlich in den Größen 120b und 20b. Beides sind Open-Weight-Reasoning-Modelle von OpenAI und dafür gedacht, in Unternehmen eingesetzt zu werden. Fokus bei der Entwicklung lag auf der möglichen Durchsetzung von Sicherheitsmaßnahmen – daher auch der Name. Unternehmen haben ganz unterschiedliche Anforderungen an das, was ein Modell kann, beziehungsweise, wo die Grenzen der darauf aufbauenden Anwendungen liegen.
Weiterlesen nach der Anzeige
Zudem können die Modelle an die eigene Infrastruktur angepasst werden. Sie stehen unter Apache 2.0-Lizenz. Sie sind bei Hugging Face verfügbar. Wie üblich bei KI handelt es sich um eine Preview.
Dass die Modelle spezialisiert sind auf Sicherheitsmaßnahmen, bedeutet, dass sie besonders gut Richtlinien befolgen können. Dafür nutzt das jeweilige Modell Schlussfolgerungen – also die Reasoning-Fähigkeit. Richtlinien, die Entwickler selbst festlegen können, werden laut OpenAI bereits zum Zeitpunkt der Inferenz interpretiert. Zudem können die Gedankenketten des Modells eingesehen und überprüft werden. Das soll dabei helfen, zu verstehen, wie Modelle zu Entscheidungen gekommen sind. Darauf aufbauend lassen sich dann wiederum weitere Maßnahmen ergreifen. Da die Modelle beim Verarbeiten einer Anfrage die vorgegebenen Richtlinien abarbeiten, ist es besser möglich, iterativ weitere Richtlinien festzulegen, wenn der Bedarf entsteht. Andere Modelle, so schreibt es OpenAI, die Richtlinien bereits im Training lernten, könnten nicht so gut auf neue Anforderungen reagieren.
Da im Blogbeitrag von OpenAI auch steht, dass die neuen Modelle Anwendung finden, wenn Latenz nicht so wichtig sei wie qualitativ hochwertige Reaktionen, dürfte der Reasoning-Prozess das Antworten etwas verlangsamen.
Bei der Entwicklung von gpt-oss-safeguard hat OpenAI mit ROOST zusammengearbeitet. Das ist eine Community, die sich dem Aufbau einer robusten, offenen und sicheren KI-Infrastruktur verschrieben hat.
Sicherheitsmaßnahmen für geschlossene Modelle
Wer OpenAIs geschlossene Modelle nutzt, kann beispielsweise über die Realtime-API auf ein integriertes Moderationssystem zugreifen. Entwickler können hier die Ausgabe abbrechen, sobald das Gespräch in eine unerwünschte Richtung geht. Freilich kommen alle gpt-Modelle mit bereits eingebauten Richtlinien und Leitplanken daher.
Weiterlesen nach der Anzeige
Zuletzt hatte OpenAI weitere Sicherheitsmaßnahmen für ChatGPT eingeführt. Dabei geht es um den Schutz von Personen mit mentalen Gesundheitsproblemen.
(emw)
-
UX/UI & Webdesignvor 2 MonatenDer ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 2 MonatenAdobe Firefly Boards › PAGE online
-
Social Mediavor 2 MonatenRelatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
UX/UI & Webdesignvor 2 WochenIllustrierte Reise nach New York City › PAGE online
-
Entwicklung & Codevor 2 MonatenPosit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 MonatenEventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 1 MonatFake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Apps & Mobile Entwicklungvor 2 MonatenGalaxy Tab S10 Lite: Günstiger Einstieg in Samsungs Premium-Tablets
