Connect with us

Entwicklung & Code

OpenAI bringt neues Open-Weight-Reasoning-Modell heraus


Eigentlich gibt es sogar zwei gpt-oss-safeguard-Modelle – nämlich in den Größen 120b und 20b. Beides sind Open-Weight-Reasoning-Modelle von OpenAI und dafür gedacht, in Unternehmen eingesetzt zu werden. Fokus bei der Entwicklung lag auf der möglichen Durchsetzung von Sicherheitsmaßnahmen – daher auch der Name. Unternehmen haben ganz unterschiedliche Anforderungen an das, was ein Modell kann, beziehungsweise, wo die Grenzen der darauf aufbauenden Anwendungen liegen.

Weiterlesen nach der Anzeige

Zudem können die Modelle an die eigene Infrastruktur angepasst werden. Sie stehen unter Apache 2.0-Lizenz. Sie sind bei Hugging Face verfügbar. Wie üblich bei KI handelt es sich um eine Preview.

Dass die Modelle spezialisiert sind auf Sicherheitsmaßnahmen, bedeutet, dass sie besonders gut Richtlinien befolgen können. Dafür nutzt das jeweilige Modell Schlussfolgerungen – also die Reasoning-Fähigkeit. Richtlinien, die Entwickler selbst festlegen können, werden laut OpenAI bereits zum Zeitpunkt der Inferenz interpretiert. Zudem können die Gedankenketten des Modells eingesehen und überprüft werden. Das soll dabei helfen, zu verstehen, wie Modelle zu Entscheidungen gekommen sind. Darauf aufbauend lassen sich dann wiederum weitere Maßnahmen ergreifen. Da die Modelle beim Verarbeiten einer Anfrage die vorgegebenen Richtlinien abarbeiten, ist es besser möglich, iterativ weitere Richtlinien festzulegen, wenn der Bedarf entsteht. Andere Modelle, so schreibt es OpenAI, die Richtlinien bereits im Training lernten, könnten nicht so gut auf neue Anforderungen reagieren.

Da im Blogbeitrag von OpenAI auch steht, dass die neuen Modelle Anwendung finden, wenn Latenz nicht so wichtig sei wie qualitativ hochwertige Reaktionen, dürfte der Reasoning-Prozess das Antworten etwas verlangsamen.

Bei der Entwicklung von gpt-oss-safeguard hat OpenAI mit ROOST zusammengearbeitet. Das ist eine Community, die sich dem Aufbau einer robusten, offenen und sicheren KI-Infrastruktur verschrieben hat.

Wer OpenAIs geschlossene Modelle nutzt, kann beispielsweise über die Realtime-API auf ein integriertes Moderationssystem zugreifen. Entwickler können hier die Ausgabe abbrechen, sobald das Gespräch in eine unerwünschte Richtung geht. Freilich kommen alle gpt-Modelle mit bereits eingebauten Richtlinien und Leitplanken daher.

Weiterlesen nach der Anzeige

Zuletzt hatte OpenAI weitere Sicherheitsmaßnahmen für ChatGPT eingeführt. Dabei geht es um den Schutz von Personen mit mentalen Gesundheitsproblemen.


(emw)



Source link

Entwicklung & Code

Infrastructure-as-Code: formae bietet Multi-Cloud-Support und Entwickler-SDK


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Platform Engineering Labs hat Version 0.80.0 seiner Infrastructure-as-Code-Plattform formae vorgelegt und führt damit Multi-Cloud-Support ein. Neben AWS unterstützt die Open-Source-Plattform nun auch Google Cloud Platform (GCP), Microsoft Azure, Oracle Cloud Infrastructure (OCI) sowie OVHcloud im Beta-Status. Neu ist zudem ein Plug-in-SDK, über das Entwicklerinnen und Entwickler das Infrastruktur-Tooling individuell erweitern können.

Weiterlesen nach der Anzeige

Seit Oktober 2025 tritt formae als Alternative zu etablierten IaC-Werkzeugen wie Terraform an. Im Unterschied zu den etablierten Tools verfolgt formae einen neuen Ansatz, der verspricht, bestehende Cloud-Infrastrukturen automatisch zu erkennen und in Code zu überführen. Auch das Problem der State-Dateien, die zu Inkonsistenzen zwischen dem geplanten und dem tatsächlichen Zustand der Infrastruktur führen können, soll formae lösen.

Mit dem neu eingeführten Multi-Cloud-Support reagiert Platform Engineering Labs laut Ankündigung auf die Bedürfnisse vieler Infrastruktur-Teams, die sich in der Praxis nicht allein auf einen Cloud-Provider verlassen.


CloudLand 2026 – das Cloud Native Festival

CloudLand 2026 – das Cloud Native Festival

(Bild: cloudland.org)

Vom 19. bis 22. Mai 2026 finden Interessierte beim Cloud Native Festival CloudLand ein prall gefülltes Line-up mit mehr als 200 Highlights – darunter die beiden neuen Themenbereiche „Open Source“ und „Platform Engineering“. Besucherinnen und Besucher erwartet eine bunte Mischung überwiegend interaktiver Sessions, Hands-ons und Workshops, begleitet von einem umfassenden Rahmenprogramm, das zum aktiven Mitmachen einlädt.

Tickets für das Festival und Unterkünfte im Heide Park Soltau lassen sich über die Festival-Homepage buchen.

Individuellen Anforderungen von Anwenderinnen und Anwendern öffnet sich formae durch das neue Plug-in-SDK. Das bei traditionellen IaC-Werkzeugen häufig zeitaufwendige Entwickeln von Providern soll mit dem neuen SDK in der Regel in wenigen Stunden möglich sein, wobei auch Schema-Garantien und konsistentes Verhalten über verschiedene Umgebungen hinweg erhalten bleiben.

„Wir wollten, dass sich das Erweitern von formae wie echte Softwareentwicklung anfühlt, nicht wie ein Kampf mit einem Provider-Framework“, erklärt Zachary Schneider, Mitgründer und CTO von Platform Engineering Labs. Dazu biete das Plug-in-SDK Entwicklern eine übersichtliche Oberfläche, die den Fokus gezielt auf das zu unterstützende System lenke.

Weiterlesen nach der Anzeige

Die Plattform behält ihren technischen Ansatz bei: formae erkennt Infrastruktur-Ressourcen automatisch und überführt Änderungen in eine einheitliche Quelle, ohne dass explizites State-Management oder komplexe Migrationen erforderlich sein sollen. Laut Platform Engineering Labs arbeitet die Software zudem reibungslos mit KI-Coding-Assistenten zusammen, sodass Erweiterungen gegen eine stabile, Schema-sichere Schnittstelle erstellt werden könnten.

Die Neuerungen sollen vor allem ein Problem adressieren, das viele Anwender von etablierten IaC-Werkzeugen kennen dürften: Deren bestehende Ökosysteme und Marktplätze liefern nützliche Ergebnisse, solange eine benötigte Integration bereits existiert. Weicht der eigene Bedarf davon ab oder entspricht die Qualität nicht den Anforderungen, bleiben den Teams laut Platform Engineering Labs oft nur Workarounds – etwa das Warten auf Updates, das Anpassen der eigenen Infrastruktur an verfügbare Lösungen oder die Pflege von Forks.

formae steht in Version 0.80.0 auf GitHub derzeit unter der FSL-Lizenz (Functional Source License) zur Verfügung. Details zum SDK bietet die Entwickler-Dokumentation. Wer darüber hinaus Hilfe aus der Community benötigt, findet diese auf Discord.


(map)



Source link

Weiterlesen

Entwicklung & Code

Studie zu Softwareentwicklung: KI erhöht Wertschöpfung um Milliarden US-Dollar


In der US-Softwarebranche wird Python-Code inzwischen zu fast 30 Prozent von KI geschrieben. Zu diesem Ergebnis kommt eine Analyse des Complexity Science Hub (CSH) in Wien in Zusammenarbeit mit der Universität Utrecht. Sie berücksichtigt den Zeitraum von Anfang 2019 bis Ende 2024. Europa folgt bei der Nutzung auf dem zweiten Platz.

Weiterlesen nach der Anzeige

Die in der Fachzeitschrift Science veröffentlichte Studie zeigt, dass es regional große Unterschiede bei der Akzeptanz von KI-geschriebenem Python-Code gibt. Am höchsten ist sie in den USA mit einem Anteil von 29 Prozent. Im Jahr 2022 lag der Wert dort noch bei rund fünf Prozent. Frankreich erreicht einen Anteil von 24 Prozent, gefolgt von Deutschland mit 23 Prozent und Indien mit 20 Prozent. Russland (15 %) und China (12 %) lagen am Ende der Studie hingegen noch deutlich zurück.

Die Datenbasis für die Studie wurde ebenfalls mithilfe von KI ermittelt. Dazu kam ein speziell trainiertes KI-Modell zum Einsatz, das mehr als 30 Millionen Python-Codeblöcke von rund 160.000 Entwicklern auf GitHub analysierte. Dabei prüfte das KI-Modell, ob die Python-Beiträge beispielsweise über ChatGPT oder GitHub Copilot erstellt wurden.


Links: Der Anteil KI-generierter Python-Funktionen ist im Zeitraum von 2019 bis 2024 rasant gewachsen; rechts: Generative KI geht mit gesteigerter Produktivität einher (GitHub-Commits), allerdings nur bei erfahrenen Entwicklern, während Berufseinsteiger kaum von KI profitieren.

Links: Der Anteil KI-generierter Python-Funktionen ist im Zeitraum von 2019 bis 2024 rasant gewachsen; rechts: Generative KI geht mit gesteigerter Produktivität einher (GitHub-Commits), allerdings nur bei erfahrenen Entwicklern, während Berufseinsteiger kaum von KI profitieren.

Links: Der Anteil KI-generierter Python-Funktionen ist im Zeitraum von 2019 bis 2024 rasant gewachsen; rechts: Generative KI geht mit gesteigerter Produktivität einher (GitHub-Commits), allerdings nur bei erfahrenen Entwicklern, während Berufseinsteiger kaum von KI profitieren.

(Bild: Complexity Science Hub Vienna (CSH))

Zwischen Frauen und Männern ließen sich in der Studie keine Unterschiede hinsichtlich der KI-Nutzung feststellen. Eine große Rolle spielt dagegen die Erfahrung. Während weniger erfahrene Programmiererinnen und Programmierer generative KI in 37 Prozent ihres Codes nutzten, betrug der Anteil bei der erfahrenen Klientel nur 27 Prozent. Geholfen hat es ersteren kaum, denn Produktivitätssteigerungen ließen sich nur bei letzteren feststellen. Die genaue Einordnung ist allerdings schwierig, weil Entwicklerinnen und Entwickler KI-Tools auf sehr unterschiedliche Weise verwenden.

Laut dem CSH hat der Einsatz generativer KI die Produktivität von Programmierern bis Ende 2024 um 3,6 Prozent gesteigert. Was nach wenig klingt, bedeute aber eine erhebliche Wertschöpfung. So würden in den USA jährlich schätzungsweise 637 Milliarden bis 1,06 Billionen US-Dollar in Programmieraufgaben investiert. Eine Produktivitätssteigerung von 3,6 Prozent entspreche daher einem zusätzlichen Wert zwischen 23 und 38 Milliarden US-Dollar pro Jahr. Die Studie schränkt jedoch ein, dass dieser Wert die Messungen von Python-Code verallgemeinert.

Weiterlesen nach der Anzeige


(who)



Source link

Weiterlesen

Entwicklung & Code

Typesense 30.0: Open-Source-Suchmaschine mit globalen Kuratierungsregeln


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Entwickler der Open-Source-Suchmaschine Typesense haben Version 30.0 veröffentlicht. Das Update bringt grundlegende API-Änderungen für Synonyme und Kuratierungsregeln (Curation Rules) sowie neue Features wie Maximale Marginale Relevanz (Maximum Marginal Relevance, MMR) zur Diversifizierung von Suchergebnissen. Die bisher sammlungsspezifischen Synonyme und Kuratierungsregeln sind nun globale Ressourcen, die zwischen Sammlungen (Collections) geteilt werden können.

Weiterlesen nach der Anzeige

Administratoren müssen vor dem Update auf Version 30.0 einen Snapshot anlegen, da die neue Version eine automatische Migration durchführt. Dabei werden bestehende sammlungsspezifische Synonyme und Überschreibungen (Overrides) in globale Synonym-Sets und Kuratierungs-Sets überführt. Die API-Endpunkte ändern sich dabei von /collections/{collection}/synonyms/* zu /synonym_sets/* und von /collections/{collection}/overrides/* zu /curation_sets/*. Bestehende Suchanfragen funktionieren nach der Migration weiter, für Lese- und Schreibzugriffe auf die neuen Sets müssen Entwickler ihre Anwendungen jedoch an die neuen Endpunkte anpassen.

Ein zentrales neues Feature ist die Diversifizierung von Suchergebnissen per MMR. Der Algorithmus diversifiziert die obersten 250 Treffer basierend auf einer vordefinierten Ähnlichkeitsmetrik (Similarity-Metric). Die MMR-Formel berücksichtigt dabei sowohl die Relevanz eines Dokuments zur Suchanfrage als auch dessen Ähnlichkeit zu bereits ausgewählten Ergebnissen. Der Lambda-Parameter steuert die Balance zwischen Relevanz und Diversität, wobei der Standardwert 0,5 beträgt. Administratoren können MMR über Curation Sets mit verschiedenen Ähnlichkeitsmetriken wie Jaccard für Arrays oder Vector Distance für Embeddings konfigurieren.

Die globale Struktur von Synonymen und Kuratierungsregeln reduziert Redundanzen, da diese Ressourcen nicht mehr für jede Sammlung separat angelegt werden müssen. Dies führt zu geringerem Speicherbedarf und potenziell besseren Cache-Hits bei der Wiederverwendung. Synonym-Sets unterstützen sowohl One-way- als auch Multi-way-Synonyme und können sprachspezifisch konfiguriert werden. In Kuratierungsregeln lassen sich nun auch Synonyme und Stemming verwenden, außerdem unterstützen sie MMR-Diversifizierung sowie dynamisches Filtern und Sortieren.

Version 30.0 erweitert die JOIN-Features deutlich. Der facet_by-Parameter unterstützt nun referenzierte Felder aus verknüpften Sammlungen, etwa facet_by=$Customers(product_price). Entwickler können mit include_fields die Anzahl verknüpfter Dokumente abrufen sowie Sortierung und Limits auf verknüpfte Felder anwenden. Neu ist auch die cascade_delete: false-Option, die verhindert, dass referenzierte Dokumente automatisch gelöscht werden, wenn alle Referenzen entfernt wurden. Diese Option erfordert async_reference: true im Schema.

Weiterlesen nach der Anzeige

Für die Suche in natürlicher Sprache (Natural Language Search) und Auto-Embedding unterstützt Typesense 30.0 nun OpenAI-Modelle von Azure sowie GCP Service Account Authentication. Dies ermöglicht die Integration in Cloud-Umgebungen mit Azure- und Google-Cloud-Modellen. Für die vektorbasierte Bildsuche stehen neue CLIP Multilingual Models zur Verfügung, die mehrsprachige Ähnlichkeitssuche (Similarity) in Bildern ermöglichen. Der neue IPv6-Support erlaubt Binding und Serving über IPv6-Adressen, was die Integration in moderne Dual-Stack- und IPv6-only-Netzwerke erleichtert.

Zu den Verbesserungen gehören ein truncate-Parameter für String-Felder zur besseren Suche mit einem exakten Treffer (Exact Match) bei langen Strings sowie group_max_candidates für exakte found-Werte bei group_by-Operationen. Die Synonym-Matching-Logik wurde verbessert und sortiert Ergebnisse nun nach Match-Qualität. Ein Transliterator-Pool beschleunigt die Tokenisierung für kyrillische und chinesische Zeichen. Die Vereinigungssuche (Union Search) unterstützt nun group_by, pinned_hits und ein remove_duplicates-Flag.

Version 30.0 behebt zahlreiche Fehler, darunter Probleme mit Analytik-IDs bei unterschiedlichen filter_by– und analytics_tag-Parametern sowie feldspezifische Token-Separatoren im Highlighting. Pagination-Parameter werden nun korrekt an die Vereinigungssuche übergeben, und Deadlocks bei asynchronen Referenzen wurden beseitigt. Das Highlighting wurde so angepasst, dass bei Phrasensuchen (Phrase Queries) nur noch exakte Treffer markiert werden und bei der Suche in natürlicher Sprache die tatsächliche Abfrage (Query) hervorgehoben wird.

Details zur neuen Version finden sich in den Release Notes auf GitHub.


(fo)



Source link

Weiterlesen

Beliebt