Connect with us

Entwicklung & Code

Neu in .NET 10.0 [20]: Einheitliche Reihenfolge der Kommandozeilenparameter


Bis .NET 9.0 bestanden die meisten Befehle im .NET Software Development Kit aus einem Substantiv oder Adjektiv gefolgt von einem Verb, beispielsweise dotnet new list, dotnet workload install, dotnet nuget add.

Weiterlesen nach der Anzeige


Der Dotnet-Doktor – Holger Schwichtenberg

Der Dotnet-Doktor – Holger Schwichtenberg

Dr. Holger Schwichtenberg ist technischer Leiter des Expertennetzwerks www.IT-Visions.de, das mit 53 renommierten Experten zahlreiche mittlere und große Unternehmen durch Beratungen und Schulungen sowie bei der Softwareentwicklung unterstützt. Durch seine Auftritte auf zahlreichen nationalen und internationalen Fachkonferenzen sowie mehr als 90 Fachbücher und mehr als 1500 Fachartikel gehört Holger Schwichtenberg zu den bekanntesten Experten für .NET und Webtechniken in Deutschland.

Es gab aber auch einige Befehle, bei denen am Anfang ein Verb stand, darunter dotnet list package, dotnet add reference und dotnet remove package. Die Reihenfolge hat Microsoft nun vereinheitlicht zu folgenden neuen Befehlen:

Die alten Kommandozeilenbefehle mit dem vorne stehenden Verb sind weiterhin vorhanden, sodass hier kein Breaking Change entsteht.


Screenshot

Screenshot

Neben der neuen Parameterreihenfolge ist die alte weiterhin möglich (Abb. 1).


(rme)



Source link

Entwicklung & Code

Mythos von Anthropic: Schwachstellen-KI wirft neue Sicherheitsfragen auf


Das vor gut zwei Wochen vorgestellte KI-Werkzeug des US-Unternehmens Anthropic zum Aufspüren von Software-Schwachstellen bereitet den Verantwortlichen in mehreren deutschen Behörden Kopfzerbrechen. Denn zu der Sorge, das wirkmächtige KI-Modell Claude Mythos Preview könne in die falschen Hände geraten, gesellt sich inzwischen auch die Befürchtung, Schwachstellen als Zugang für die Aufklärung verschlüsselter Kommunikation – etwa von Terroristen – könnten in Zukunft womöglich nur noch ausgewählten Behörden in den USA zur Verfügung stehen. Offiziell äußern sich die Verantwortlichen vorsichtig zu den mit Mythos verbundenen Herausforderungen und Risiken.

Weiterlesen nach der Anzeige

„Es ist zunächst eine gute Entwicklung, wenn Schwachstellen schneller gefunden und geschlossen werden können“, teilt der Leiter der Abteilung Cybercrime beim Bundeskriminalamt (BKA), Carsten Meywirth, auf Anfrage mit. Die Erfahrung zeige jedoch, dass sich cyberkriminelle Vorgehensweisen und Angriffsvektoren sehr schnell an den Stand der Technik anpassten. Diese Dynamik lasse sich nicht einseitig aufhalten.

Meywirth betont: „Cybersicherheit bleibt deshalb auch in Zukunft eine Gemeinschaftsaufgabe im steten Zusammenspiel von Software-Herstellern, Anwendern, privaten Sicherheitsdienstleistern und Behörden.“ Als Zentralstelle der deutschen Polizei fördere das BKA dabei die nationale und internationale Zusammenarbeit, auch mit dem privaten Sektor.

Mythos gelang es laut Anthropic, zum Teil über Jahrzehnte unentdeckt gebliebene Sicherheitslücken in verschiedener Software zu finden. In den falschen Händen könnte das KI-Modell deshalb zur Entwicklung gefährlicher Cyberwaffen führen. Anthropic hat keine Pläne, Mythos zu veröffentlichen – und gewährt bisher nur einen Zugang für ausgewählte Unternehmen und Organisationen, damit sie Schwachstellen in ihrer Software schließen können.

Wie heikel das Thema ist, zeigt eine Antwort des Bundesfinanzministeriums auf die Frage, wie das Ministerium mit der Entwicklung des neuen potenziell gefährlichen KI-Modells umgehe. Das Informationstechnikzentrum Bund, der zentrale IT-Dienstleister der Bundesverwaltung, analysiere aktiv die Lage mit Blick auf Softwareschwachstellen. Zugleich bat das Finanzministerium um Verständnis, dass „zu den Details vorgenommener Schwachstellenanalysen“ und damit zusammenhängender Prozesse „aus Gründen der Sensibilität des Themas öffentlich keine weitergehenden Auskünfte gegeben werden können“.

Weiterlesen nach der Anzeige

Die Präsidentin des Bundesamts für Sicherheit in der Informationstechnik (BSI), Claudia Plattner, hatte bereits kurz nach der Vorstellung von Claude Mythos Preview erklärt, das BSI nehme die Ankündigungen von Anthropic sehr ernst und erwarte „Umwälzungen im Umgang mit Sicherheitslücken und in der Schwachstellenlandschaft insgesamt“.

Konsequent zu Ende gedacht, könnte es mittelfristig keine unbekannten klassischen Software-Schwachstellen mehr geben. „Dies würde eine Verschiebung der Angriffsvektoren und einen Paradigmenwechsel mit Blick auf die Cyberbedrohungslage zur Folge haben.“ Zudem stelle sich die Frage, ob und wenn ja wie lange derart wirkmächtige Werkzeuge auf dem freien Markt verfügbar sein werden. „Daraus wiederum ergeben sich Fragen nationaler und europäischer Sicherheit und Souveränität.“


(mho)



Source link

Weiterlesen

Entwicklung & Code

OpenAI stellt GPT-5.5 vor: Mehr Agent, weniger Chatbot


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Ist denn schon wieder Donnerstag? OpenAI hat sein nächstes Sprachmodell vorgestellt: GPT-5.5 versteht sich weniger als Chatbot und stärker als eigenständig arbeitender KI-Agent. Wie das Unternehmen mitteilt, soll das Modell Aufgaben selbstständig planen, Werkzeuge nutzen, Zwischenergebnisse prüfen und über längere Zeiträume konsistent arbeiten. GPT-5.5 löst damit den erst Anfang März erschienenen Vorgänger GPT-5.4 als Flaggschiff-Modell ab.

Weiterlesen nach der Anzeige

Die Schwerpunkte liegen auf Softwareentwicklung, Recherche, Datenanalyse und Bedienung von Software über Schnittstellen hinweg. Trotz höherer Leistungsfähigkeit soll die Antwortgeschwindigkeit pro Token identisch mit GPT-5.4 bleiben, heißt es im OpenAI-Blog. OpenAI nennt als Grund Optimierungen in der gesamten Infrastruktur, darunter KI-gestützte Lastverteilung – technische Details zur konkreten Umsetzung bleibt das Unternehmen allerdings schuldig. Zudem soll GPT-5.5 für dieselben Aufgaben deutlich weniger Tokens verbrauchen als sein Vorgänger.

Besonders stark präsentiert sich das Modell laut OpenAI beim sogenannten agentischen Coding, also der eigenständigen Bearbeitung komplexer Entwicklungsaufgaben inklusive Planung, Debugging und Tool-Nutzung. Auf der Ankündigungsseite für GPT-5.5 zeigt OpenAI mehrere Ergebnisse, etwa einen Erdbebentracker, zwei einfache 3D-Spiele und eine interaktive Visualisierung einer Mondmission:

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Inhalt geladen.

Auf Terminal-Bench 2.0, einem Benchmark für mehrstufige Kommandozeilen-Workflows, erreicht GPT-5.5 eine Genauigkeit von 82,7 Prozent. Damit liegt es vor Claude Opus 4.7 (69,4 Prozent) und Gemini 3.1 Pro (68,5 Prozent). Auf dem Artificial Analysis Coding Index soll GPT-5.5 die gleiche Leistung wie Konkurrenzmodelle zu den halben Kosten liefern.


Tabelle mit Benchmarkergebnissen

Tabelle mit Benchmarkergebnissen

Dankenswerterweise listet OpenAI alle Benchmarks mit Vergleich zu den hauseigenen Vorgängern sowie Opus 4.7 und Gemini 3.1 Pro übersichtlich in einer Tabelle auf.

(Bild: OpenAI)

Auch bei der Desktop-Steuerung über Screenshots – OpenAI spricht von „Computer Use“ – zeigt sich ein Fortschritt: Im Benchmark OSWorld-Verified kommt GPT-5.5 auf 78,7 Prozent und liegt damit knapp vor Claude Opus 4.7 mit 78,0 Prozent. Anthropic hat sein jüngstes Modell Opus 4.7 erst eine Woche vor GPT-5.5 freigegeben und dabei vorwiegend die verbesserte Anweisungsbefolgung betont.

Weiterlesen nach der Anzeige

Bei genauerem Blick auf die von OpenAI veröffentlichten Leistungsdaten fällt auf, dass die Vergleichbarkeit eingeschränkt ist. Mehrere Benchmarks enthalten keine Werte für Konkurrenzmodelle. Beim internen Expert-SWE etwa tritt GPT-5.5 ausschließlich gegen den eigenen Vorgänger an – externe Referenzwerte fehlen komplett. Auch bei Toolathlon und CyberGym sind die Tabellen lückenhaft.

Wo externe Modelle einbezogen werden, ergibt sich ein differenzierteres Bild. Beim Wissensarbeits-Benchmark GDPval erreicht GPT-5.5 mit 84,9 Prozent zwar den Spitzenwert, liegt aber nur knapp vor GPT-5.4 (83,0 Prozent) und Claude Opus 4.7 (80,3 Prozent). Bei BrowseComp, einem Test für mehrstufige Web-Recherche, überholt Gemini 3.1 Pro mit 85,9 Prozent sogar das Basismodell GPT-5.5 (84,4 Prozent) – erst die Pro-Variante zieht mit 90,1 Prozent davon. Für eine belastbare Einordnung der tatsächlichen Leistung bleiben unabhängige Tests abzuwarten.

GPT-5.5 reiht sich in eine Serie schneller Veröffentlichungen ein, mit der OpenAI zuletzt das Modellangebot ausdifferenziert hat. Erst vergangene Woche stellte das Unternehmen ein verbessertes Bildmodell mit Thinking-Modus vor. Wenige Tage zuvor war GPT-Rosalind erschienen, ein auf Biologieforschung spezialisiertes Modell. Und bereits Mitte April hat OpenAI mit GPT-5.4-Cyber eine Variante mit gelockerten Sicherheitsbeschränkungen für verifizierte Sicherheitsforscher angekündigt.

Beim Thema Sicherheit betont OpenAI für GPT-5.5 die bisher umfangreichsten Schutzmaßnahmen. Vor dem Release habe es gezielt erweiterte Cybersecurity- und Biologie-Fähigkeiten getestet, internes und externes Redteaming durchgeführt sowie Feedback von rund 200 Early-Access-Partnern eingeholt. Ausgewählte Nutzer erhalten über ein „Trusted Access“-Programm erweiterten Zugriff auf sicherheitsrelevante Funktionen – ein Konzept, das OpenAI bereits bei GPT-5.4-Cyber etabliert hatte.

GPT-5.5 steht zunächst für Plus-, Pro-, Business- und Enterprise-Nutzer in ChatGPT und Codex zur Verfügung. Die Pro-Variante GPT-5.5 Pro ist auf Pro-, Business- und Enterprise-Konten beschränkt. Eine allgemeine API-Freigabe hat OpenAI angekündigt, aber dafür noch keinen Termin genannt. Zur Preisgestaltung in Europa und zur DSGVO-Konformität äußert sich das Unternehmen bislang nicht.

Lesen Sie auch


(vza)



Source link

Weiterlesen

Entwicklung & Code

KI-Automatisierung in Rust: OpenFang 0.6.0 ist da


Mit Version 0.6.0 erweitert das Open-Source-Projekt OpenFang sein Framework für Agenten und Automatisierung um drei zentrale Funktionen: Cron-Jobs mit mehreren Zielen (Fan-out), konfigurierbare Skill-Templates und eine zentrale Registry für Slash-Befehle. Das Release soll die Orchestrierung über verschiedene Ausgabekanäle hinweg vereinheitlichen, abweichende Konfigurationen reduzieren und den Betrieb durch konsistente APIs sowie eine durchgängige Anbindung an Dashboard und TUI vereinfachen.

Weiterlesen nach der Anzeige

OpenFang ist ein in Rust geschriebenes Framework für KI-gestützte Automatisierung und agentenartige Workflows. Es kombiniert einen Scheduler mit der Möglichkeit, Ergebnisse über Kanäle wie Chat-Dienste, E-Mail oder Webhooks zu verteilen, und lässt sich per CLI, Web-Oberfläche und API steuern. Anders als Projekte wie OpenClaw, die vor allem die Laufzeitlogik von Agenten und deren Tool-Nutzung in den Mittelpunkt stellen, konzentriert sich OpenFang auf die Orchestrierung und den operativen Betrieb solcher Fähigkeiten. Beide Ansätze überschneiden sich beim Konzept der „Skills“, setzen aber unterschiedliche Schwerpunkte.

Im Zentrum der Neuerungen steht die Möglichkeit, Cron-Jobs mit mehreren Zielsystemen zu verknüpfen. Ein einzelner Job kann seine Ergebnisse parallel an verschiedene Empfänger ausliefern – etwa an über 40 Chat-Kanäle wie Slack, Telegram oder Teams, an Webhooks, in lokale Dateien oder per E-Mail. Die Konfiguration erfolgt deklarativ in einer einzigen Jobdefinition.

Schlägt die Auslieferung an ein Ziel fehl, protokolliert OpenFang den Fehler, ohne den gesamten Job abzubrechen. Ein typischer Anwendungsfall im Produktivbetrieb sind automatisierte Reports, die gleichzeitig an einen Slack-Channel, ein internes BI-System per Webhook und ein revisionssicheres Logfile gehen. Verwalten lassen sich die Jobs über die Scheduler-Oberfläche im Dashboard oder per API.

Ferner können Entwickler Skills nun als Templates mit konfigurierbaren Variablen definieren. Die Variablen beschreibt das Frontmatter von SKILL.md. Zur Laufzeit löst OpenFang sie aus mehreren Quellen auf: zuerst aus der zentralen Konfigurationsdatei config.toml, dann aus Umgebungsvariablen, schließlich aus Default-Werten. Fehlen Pflichtparameter, bricht die Ausführung mit einem Fehler ab. Sensible Daten wie Tokens oder Schlüssel maskiert das Framework automatisch im erzeugten Prompt.

Weiterlesen nach der Anzeige

Damit lässt sich derselbe Skill mehrfach mit unterschiedlichen Parametern einsetzen – etwa, um identische Logik auf verschiedene Slack-Kanäle oder Datenquellen anzuwenden. Konfigurieren lässt sich das wahlweise über die Web-Oberfläche oder direkt in der Konfigurationsdatei.

Die dritte größere Neuerung ist eine zentrale Registry für Slash-Befehle. Alle verfügbaren Kommandos liegen nun an einer Stelle und tragen Metadaten wie Kategorien, Aliase und unterstützte Oberflächen. Daraus generiert OpenFang automatisch Hilfetexte und Autovervollständigung; eine API stellt die Befehle zudem für das Dashboard bereit. Damit verhalten sich einmal definierte Befehle einheitlich über alle Oberflächen hinweg – also CLI, Web-UI und Chat-Integrationen wie Discord oder Slack.

Ergänzend bringt das Release mehrere neue API-Endpunkte mit, darunter Schnittstellen zum Abfragen der Befehle, zum Verwalten von Schedules samt Zielen und Protokollen sowie für CRUD-Operationen auf Skill-Konfigurationen.

Zu den weiteren Verbesserungen zählt ein atomarer Schreibmechanismus für die zentrale Konfigurationsdatei, der Datenverlust bei Abstürzen verhindern soll. Außerdem lassen sich Konfigurationsänderungen jetzt zur Laufzeit übernehmen, ohne den Dienst neu zu starten. Details zur neuen OpenFang-Version finden sich in den Release Notes auf GitHub.


(fo)



Source link

Weiterlesen

Beliebt