Connect with us

Entwicklung & Code

Infrastructure-as-Code: formae bietet Multi-Cloud-Support und Entwickler-SDK


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Platform Engineering Labs hat Version 0.80.0 seiner Infrastructure-as-Code-Plattform formae vorgelegt und führt damit Multi-Cloud-Support ein. Neben AWS unterstützt die Open-Source-Plattform nun auch Google Cloud Platform (GCP), Microsoft Azure, Oracle Cloud Infrastructure (OCI) sowie OVHcloud im Beta-Status. Neu ist zudem ein Plug-in-SDK, über das Entwicklerinnen und Entwickler das Infrastruktur-Tooling individuell erweitern können.

Weiterlesen nach der Anzeige

Seit Oktober 2025 tritt formae als Alternative zu etablierten IaC-Werkzeugen wie Terraform an. Im Unterschied zu den etablierten Tools verfolgt formae einen neuen Ansatz, der verspricht, bestehende Cloud-Infrastrukturen automatisch zu erkennen und in Code zu überführen. Auch das Problem der State-Dateien, die zu Inkonsistenzen zwischen dem geplanten und dem tatsächlichen Zustand der Infrastruktur führen können, soll formae lösen.

Mit dem neu eingeführten Multi-Cloud-Support reagiert Platform Engineering Labs laut Ankündigung auf die Bedürfnisse vieler Infrastruktur-Teams, die sich in der Praxis nicht allein auf einen Cloud-Provider verlassen.


CloudLand 2026 – das Cloud Native Festival

CloudLand 2026 – das Cloud Native Festival

(Bild: cloudland.org)

Vom 19. bis 22. Mai 2026 finden Interessierte beim Cloud Native Festival CloudLand ein prall gefülltes Line-up mit mehr als 200 Highlights – darunter die beiden neuen Themenbereiche „Open Source“ und „Platform Engineering“. Besucherinnen und Besucher erwartet eine bunte Mischung überwiegend interaktiver Sessions, Hands-ons und Workshops, begleitet von einem umfassenden Rahmenprogramm, das zum aktiven Mitmachen einlädt.

Tickets für das Festival und Unterkünfte im Heide Park Soltau lassen sich über die Festival-Homepage buchen.

Individuellen Anforderungen von Anwenderinnen und Anwendern öffnet sich formae durch das neue Plug-in-SDK. Das bei traditionellen IaC-Werkzeugen häufig zeitaufwendige Entwickeln von Providern soll mit dem neuen SDK in der Regel in wenigen Stunden möglich sein, wobei auch Schema-Garantien und konsistentes Verhalten über verschiedene Umgebungen hinweg erhalten bleiben.

„Wir wollten, dass sich das Erweitern von formae wie echte Softwareentwicklung anfühlt, nicht wie ein Kampf mit einem Provider-Framework“, erklärt Zachary Schneider, Mitgründer und CTO von Platform Engineering Labs. Dazu biete das Plug-in-SDK Entwicklern eine übersichtliche Oberfläche, die den Fokus gezielt auf das zu unterstützende System lenke.

Weiterlesen nach der Anzeige

Die Plattform behält ihren technischen Ansatz bei: formae erkennt Infrastruktur-Ressourcen automatisch und überführt Änderungen in eine einheitliche Quelle, ohne dass explizites State-Management oder komplexe Migrationen erforderlich sein sollen. Laut Platform Engineering Labs arbeitet die Software zudem reibungslos mit KI-Coding-Assistenten zusammen, sodass Erweiterungen gegen eine stabile, Schema-sichere Schnittstelle erstellt werden könnten.

Die Neuerungen sollen vor allem ein Problem adressieren, das viele Anwender von etablierten IaC-Werkzeugen kennen dürften: Deren bestehende Ökosysteme und Marktplätze liefern nützliche Ergebnisse, solange eine benötigte Integration bereits existiert. Weicht der eigene Bedarf davon ab oder entspricht die Qualität nicht den Anforderungen, bleiben den Teams laut Platform Engineering Labs oft nur Workarounds – etwa das Warten auf Updates, das Anpassen der eigenen Infrastruktur an verfügbare Lösungen oder die Pflege von Forks.

formae steht in Version 0.80.0 auf GitHub derzeit unter der FSL-Lizenz (Functional Source License) zur Verfügung. Details zum SDK bietet die Entwickler-Dokumentation. Wer darüber hinaus Hilfe aus der Community benötigt, findet diese auf Discord.


(map)



Source link

Entwicklung & Code

Google-DeepMind-Chef: Der nächste Einstein könnte eine KI sein


Es ist das ewige Versprechen der Branche und das Feigenblatt, um bis dahin das Verbrennen von Milliarden Dollar und Unmengen an Energie zu rechtfertigen: die Suche nach der AGI. Die Artificial General Intelligence (Künstliche allgemeine Intelligenz) gilt als heiliger Gral der KI-Forscher. Wenn die Software lernt, ohne menschliche Hilfe zu lernen, sollen undenkbare Fortschritte möglich sein. Manch einer hat auch Angst, dass sich die KI dann gegen den Menschen wendet. Aber in zunehmendem Maße halten Menschen diese Zukunftsvision für eine Fata Morgana und den Weg dorthin noch für sehr weit.

Weiterlesen nach der Anzeige

Demis Hassabis, Chef von Googles KI-Sparte DeepMind, hält die AGI für erreichbar. Aber erst in fünf bis zehn Jahren. In einem Interview mit Alex Kantrowitz von Big Technology ließ er kein gutes Haar an seinem Mitbewerber OpenAI und dessen Chef Sam Altman. Man dürfe AGI nicht als Marketingbegriff verwenden, mahnt er. Die allgemeine künstliche Intelligenz sei ein System, das alle kognitiven Fähigkeiten zeigen kann, die Menschen haben, sagt er: „Und ich meine alle.“

Aber wo ist der Nutzen für die Menschheit? Den würde diese Form von KI erst haben, wenn sie der Menschheit zu neuen Durchbrüchen verhilft, erklärt Hassabis. Es sei nicht damit getan, eine mathematische Gleichung oder eine Vermutung zu lösen. Bahnbrechende Vermutungen sind gefragt, ein neuer Einstein. Oder im künstlerischen Bereich ein Picasso oder ein Mozart. Und zwar mit Fähigkeiten und einer Schlagzahl, wie sie bei Menschen kaum oder gar nicht möglich wäre.

Und obwohl er die Ansicht vertritt, dass die Fähigkeiten heutiger KI-Modelle noch gar nicht alle erkannt und ausgeschöpft sind, zeigt sich Hassabis überzeugt, dass diese noch weit von einer AGI entfernt sind. Heutige KI habe ein „Goldfischgehirn“. Sie kann das Internet durchsuchen, aber dieses Wissen ändere das Modell nicht und sei nach der Sitzung wieder vergessen. Eine Superintelligenz würde sogar noch weitergehen, sie könnte andere Systeme wie Wettersatelliten integrieren oder in 14 Dimensionen denken – Dinge, zu denen kein Mensch fähig wäre.

Weiterlesen nach der Anzeige

KI brauche auf dem Weg zur AGI noch mehrere Durchbrüche: Neben kontinuierlichem Lernen seien das effizientere Kontextfenster und langfristige Planung. Während das menschliche Gehirn mit selektiver Aufmerksamkeit nur das Wichtige verarbeitet, behandelt KI alle Informationen im Kontext gleich. Dies ist ineffizient und teuer.

In dem Bühnengespräch in Davos ging Hassabis auch auf die Frage ein, ob Google wie OpenAI plane, in seinem Chatbot Werbung zu integrieren. Viel Lob verteilte Hassabis für Start-up Anthropic, in das Google bereits Milliarden Dollar investiert hat. Deren Entwicklungs-Tool Claude Code sei sehr gelungen. Google selbst will die Fähigkeiten seines KI-Modells Gemini mit der neu veröffentlichten IDE Antigravity besser zur Geltung bringen.

Konkret äußerte sich Hassabis zu Smart Glasses: Google arbeitet mit Partnern wie Warby Parker, Gentle Monster und Samsung an einer neuen Generation KI-gestützter Brillen, die „vielleicht bis zum Sommer“ auf den Markt kommen sollen. Anders als beim gescheiterten Google Glass vor gut zehn Jahren seien nun sowohl die Form ausgereift als auch – entscheidend – die „Killer-App“ vorhanden: ein universeller digitaler Assistent, der freihändig im Alltag hilft. Hassabis selbst arbeitet persönlich an dem Projekt mit.


(mki)



Source link

Weiterlesen

Entwicklung & Code

Studie zu Softwareentwicklung: KI erhöht Wertschöpfung um Milliarden US-Dollar


In der US-Softwarebranche wird Python-Code inzwischen zu fast 30 Prozent von KI geschrieben. Zu diesem Ergebnis kommt eine Analyse des Complexity Science Hub (CSH) in Wien in Zusammenarbeit mit der Universität Utrecht. Sie berücksichtigt den Zeitraum von Anfang 2019 bis Ende 2024. Europa folgt bei der Nutzung auf dem zweiten Platz.

Weiterlesen nach der Anzeige

Die in der Fachzeitschrift Science veröffentlichte Studie zeigt, dass es regional große Unterschiede bei der Akzeptanz von KI-geschriebenem Python-Code gibt. Am höchsten ist sie in den USA mit einem Anteil von 29 Prozent. Im Jahr 2022 lag der Wert dort noch bei rund fünf Prozent. Frankreich erreicht einen Anteil von 24 Prozent, gefolgt von Deutschland mit 23 Prozent und Indien mit 20 Prozent. Russland (15 %) und China (12 %) lagen am Ende der Studie hingegen noch deutlich zurück.

Die Datenbasis für die Studie wurde ebenfalls mithilfe von KI ermittelt. Dazu kam ein speziell trainiertes KI-Modell zum Einsatz, das mehr als 30 Millionen Python-Codeblöcke von rund 160.000 Entwicklern auf GitHub analysierte. Dabei prüfte das KI-Modell, ob die Python-Beiträge beispielsweise über ChatGPT oder GitHub Copilot erstellt wurden.


Links: Der Anteil KI-generierter Python-Funktionen ist im Zeitraum von 2019 bis 2024 rasant gewachsen; rechts: Generative KI geht mit gesteigerter Produktivität einher (GitHub-Commits), allerdings nur bei erfahrenen Entwicklern, während Berufseinsteiger kaum von KI profitieren.

Links: Der Anteil KI-generierter Python-Funktionen ist im Zeitraum von 2019 bis 2024 rasant gewachsen; rechts: Generative KI geht mit gesteigerter Produktivität einher (GitHub-Commits), allerdings nur bei erfahrenen Entwicklern, während Berufseinsteiger kaum von KI profitieren.

Links: Der Anteil KI-generierter Python-Funktionen ist im Zeitraum von 2019 bis 2024 rasant gewachsen; rechts: Generative KI geht mit gesteigerter Produktivität einher (GitHub-Commits), allerdings nur bei erfahrenen Entwicklern, während Berufseinsteiger kaum von KI profitieren.

(Bild: Complexity Science Hub Vienna (CSH))

Zwischen Frauen und Männern ließen sich in der Studie keine Unterschiede hinsichtlich der KI-Nutzung feststellen. Eine große Rolle spielt dagegen die Erfahrung. Während weniger erfahrene Programmiererinnen und Programmierer generative KI in 37 Prozent ihres Codes nutzten, betrug der Anteil bei der erfahrenen Klientel nur 27 Prozent. Geholfen hat es ersteren kaum, denn Produktivitätssteigerungen ließen sich nur bei letzteren feststellen. Die genaue Einordnung ist allerdings schwierig, weil Entwicklerinnen und Entwickler KI-Tools auf sehr unterschiedliche Weise verwenden.

Laut dem CSH hat der Einsatz generativer KI die Produktivität von Programmierern bis Ende 2024 um 3,6 Prozent gesteigert. Was nach wenig klingt, bedeute aber eine erhebliche Wertschöpfung. So würden in den USA jährlich schätzungsweise 637 Milliarden bis 1,06 Billionen US-Dollar in Programmieraufgaben investiert. Eine Produktivitätssteigerung von 3,6 Prozent entspreche daher einem zusätzlichen Wert zwischen 23 und 38 Milliarden US-Dollar pro Jahr. Die Studie schränkt jedoch ein, dass dieser Wert die Messungen von Python-Code verallgemeinert.

Weiterlesen nach der Anzeige


(who)



Source link

Weiterlesen

Entwicklung & Code

Typesense 30.0: Open-Source-Suchmaschine mit globalen Kuratierungsregeln


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Entwickler der Open-Source-Suchmaschine Typesense haben Version 30.0 veröffentlicht. Das Update bringt grundlegende API-Änderungen für Synonyme und Kuratierungsregeln (Curation Rules) sowie neue Features wie Maximale Marginale Relevanz (Maximum Marginal Relevance, MMR) zur Diversifizierung von Suchergebnissen. Die bisher sammlungsspezifischen Synonyme und Kuratierungsregeln sind nun globale Ressourcen, die zwischen Sammlungen (Collections) geteilt werden können.

Weiterlesen nach der Anzeige

Administratoren müssen vor dem Update auf Version 30.0 einen Snapshot anlegen, da die neue Version eine automatische Migration durchführt. Dabei werden bestehende sammlungsspezifische Synonyme und Überschreibungen (Overrides) in globale Synonym-Sets und Kuratierungs-Sets überführt. Die API-Endpunkte ändern sich dabei von /collections/{collection}/synonyms/* zu /synonym_sets/* und von /collections/{collection}/overrides/* zu /curation_sets/*. Bestehende Suchanfragen funktionieren nach der Migration weiter, für Lese- und Schreibzugriffe auf die neuen Sets müssen Entwickler ihre Anwendungen jedoch an die neuen Endpunkte anpassen.

Ein zentrales neues Feature ist die Diversifizierung von Suchergebnissen per MMR. Der Algorithmus diversifiziert die obersten 250 Treffer basierend auf einer vordefinierten Ähnlichkeitsmetrik (Similarity-Metric). Die MMR-Formel berücksichtigt dabei sowohl die Relevanz eines Dokuments zur Suchanfrage als auch dessen Ähnlichkeit zu bereits ausgewählten Ergebnissen. Der Lambda-Parameter steuert die Balance zwischen Relevanz und Diversität, wobei der Standardwert 0,5 beträgt. Administratoren können MMR über Curation Sets mit verschiedenen Ähnlichkeitsmetriken wie Jaccard für Arrays oder Vector Distance für Embeddings konfigurieren.

Die globale Struktur von Synonymen und Kuratierungsregeln reduziert Redundanzen, da diese Ressourcen nicht mehr für jede Sammlung separat angelegt werden müssen. Dies führt zu geringerem Speicherbedarf und potenziell besseren Cache-Hits bei der Wiederverwendung. Synonym-Sets unterstützen sowohl One-way- als auch Multi-way-Synonyme und können sprachspezifisch konfiguriert werden. In Kuratierungsregeln lassen sich nun auch Synonyme und Stemming verwenden, außerdem unterstützen sie MMR-Diversifizierung sowie dynamisches Filtern und Sortieren.

Version 30.0 erweitert die JOIN-Features deutlich. Der facet_by-Parameter unterstützt nun referenzierte Felder aus verknüpften Sammlungen, etwa facet_by=$Customers(product_price). Entwickler können mit include_fields die Anzahl verknüpfter Dokumente abrufen sowie Sortierung und Limits auf verknüpfte Felder anwenden. Neu ist auch die cascade_delete: false-Option, die verhindert, dass referenzierte Dokumente automatisch gelöscht werden, wenn alle Referenzen entfernt wurden. Diese Option erfordert async_reference: true im Schema.

Weiterlesen nach der Anzeige

Für die Suche in natürlicher Sprache (Natural Language Search) und Auto-Embedding unterstützt Typesense 30.0 nun OpenAI-Modelle von Azure sowie GCP Service Account Authentication. Dies ermöglicht die Integration in Cloud-Umgebungen mit Azure- und Google-Cloud-Modellen. Für die vektorbasierte Bildsuche stehen neue CLIP Multilingual Models zur Verfügung, die mehrsprachige Ähnlichkeitssuche (Similarity) in Bildern ermöglichen. Der neue IPv6-Support erlaubt Binding und Serving über IPv6-Adressen, was die Integration in moderne Dual-Stack- und IPv6-only-Netzwerke erleichtert.

Zu den Verbesserungen gehören ein truncate-Parameter für String-Felder zur besseren Suche mit einem exakten Treffer (Exact Match) bei langen Strings sowie group_max_candidates für exakte found-Werte bei group_by-Operationen. Die Synonym-Matching-Logik wurde verbessert und sortiert Ergebnisse nun nach Match-Qualität. Ein Transliterator-Pool beschleunigt die Tokenisierung für kyrillische und chinesische Zeichen. Die Vereinigungssuche (Union Search) unterstützt nun group_by, pinned_hits und ein remove_duplicates-Flag.

Version 30.0 behebt zahlreiche Fehler, darunter Probleme mit Analytik-IDs bei unterschiedlichen filter_by– und analytics_tag-Parametern sowie feldspezifische Token-Separatoren im Highlighting. Pagination-Parameter werden nun korrekt an die Vereinigungssuche übergeben, und Deadlocks bei asynchronen Referenzen wurden beseitigt. Das Highlighting wurde so angepasst, dass bei Phrasensuchen (Phrase Queries) nur noch exakte Treffer markiert werden und bei der Suche in natürlicher Sprache die tatsächliche Abfrage (Query) hervorgehoben wird.

Details zur neuen Version finden sich in den Release Notes auf GitHub.


(fo)



Source link

Weiterlesen

Beliebt