Entwicklung & Code
CMake 4.3 bringt Common Package Specification und Build-Profiling
Kitware hat Version 4.3 seines weit verbreiteten Build-Systems CMake veröffentlicht. Die wichtigste Neuerung ist die Unterstützung der Common Package Specification (CPS) – ein JSON-basiertes Format, das Softwarepakete herstellerneutral beschreibt. Daneben führt das Release ein Instrumentation-Framework ein, mit dem Entwickler Timing-Daten und Systemdiagnosen während des gesamten Build-Prozesses erfassen können.
Weiterlesen nach der Anzeige
Das Build-System CMake gilt als De-facto-Standard für C- und C++-Projekte und wird sowohl in zahlreichen Open-Source- als auch in kommerziellen Projekten eingesetzt. Bisher konnten Paketbeschreibungen nur in der CMake-eigenen Sprache ausgetauscht werden. Die CPS-Spezifikation liegt aktuell in Version 0.14.1 vor und soll die Interoperabilität zwischen verschiedenen Build-Systemen verbessern, indem Paketbeschreibungen in einem Format ausgetauscht werden können, das laut Ankündigung von Kitware nicht an die CMake-eigene Sprache gebunden ist.
Common Package Specification: Paketbeschreibungen jenseits der CMake-Syntax
Die Common Package Specification beschreibt Binärpakete – also Bibliotheken, Header und Tools – in einem maschinenlesbaren JSON-Format, das unabhängig vom jeweiligen Build-System funktioniert. CPS-Dateien enthalten Informationen zu Interface-Targets, unterstützten Konfigurationen pro Architektur, Versionskompatibilität und Lizenzangaben. Damit können Build-Systeme wie CMake, aber auch Paketmanager wie Conan, dieselben Paketbeschreibungen nutzen, ohne sie in ein proprietäres Format übersetzen zu müssen.
Konkret hat Kitware in CMake 4.3 drei zentrale Integrationspunkte geschaffen: Der Befehl find_package() durchsucht nun auch CPS-Pakete und kann diese importieren. Die Befehle install() und export() erhielten ein neues Subcommand PACKAGE_INFO, mit dem sich CPS-Beschreibungen erzeugen lassen. Zudem versteht der project()-Befehl jetzt die Optionen COMPAT_VERSION und SPDX_LICENSE, die bei der CPS-Erzeugung automatisch übernommen werden. Experimentelle CPS-Unterstützung gab es bereits in früheren 4.x-Versionen – mit CMake 4.3 gilt das Feature laut den Release Notes nun als stabil.
Instrumentation: Build-Prozesse durchleuchten
Wer wissen will, wo die Build-Zeit tatsächlich verrinnt, bekommt mit cmake-instrumentation(7) ein neues Werkzeug an die Hand. Das Framework sammelt während aller Phasen – Konfiguration, Generierung, Kompilierung, Test und Installation – granulare Daten zu Laufzeiten, Exit-Codes und Systemmetriken wie CPU-Auslastung und Speicherverbrauch. Die Messwerte landen in indexierten Snippet-Dateien im Build-Verzeichnis und lassen sich über Callbacks weiterverarbeiten.
Weiterlesen nach der Anzeige
Besonders praktisch für die Analyse: CMake 4.3 kann die Instrumentierungsdaten im Google Trace Event Format ausgeben. Damit lassen sich Build-Abläufe in gängigen Trace-Viewern wie Perfetto visualisieren – Engpässe in der Kompilierung oder bei der Link-Phase werden so auf einen Blick sichtbar. Zusätzlich fließen die Daten in CDash-Submissions ein, sodass Teams ihre Build-Performance auch im CI/CD-Betrieb überwachen können. Die Aktivierung erfolgt wahlweise über den neuen Befehl cmake_instrumentation() oder über JSON-basierte Query-Dateien auf Projekt- oder Nutzerebene.
Weitere Neuerungen im Überblick
Neben den beiden Highlights bringt CMake 4.3 zahlreiche weitere Verbesserungen mit. Die Archiv-Operationen über cmake -E tar und file(ARCHIVE_CREATE) unterstützen nun Multithreading über ein neues --cmake-tar-threads-Flag, zusätzliche Kompressionsmethoden wie LZMA und PPMd für das 7zip-Format sowie konfigurierbare Kompressionslevel. Das neue Kommandozeilenwerkzeug cmake -E bin2c wandelt Binärdateien in C-Header um.
Für GPU-Entwickler relevant: HIP-Code lässt sich jetzt für SPIR-V-Ziele kompilieren, etwa über das chipStar-Projekt. Auf der Kommandozeile gibt cmake --version =json-v1 detaillierte Versionsinformationen im JSON-Format aus, und cmake --build erlaubt es nun, Build-Verzeichnis und Preset gemeinsam anzugeben. Neue Generator-Expressions $ erweitern die Möglichkeiten für String-Operationen in Build-Skripten. Die Preset-Dateien unterstützen Schema-Version 11, und die File-Based API wurde auf Codemodel-Version 2.10 aktualisiert.
Neue Variablen CMAKE_ und CMAKE_ ermöglichen sprachspezifische Linker-Flags für alle Target-Typen. Einen vollständigen Überblick sämtlicher Änderungen in CMake 4.3 liefern die Release Notes. Die neue Version steht auf der offiziellen Download-Seite als Binärpaket für Windows, macOS und Linux zum Download bereit.
(map)
Entwicklung & Code
IntelliJ IDEA 2025.3.4 unterstützt Java 26 vollständig
Das Update der Entwicklungsumgebung IntelliJ IDEA 2025.3.4 von JetBrains unterstützt nun das am 17. März veröffentlichte Java 26 vollständig. Außerdem spendiert die Firma dem Agenten-Framework Koog eine Java-API.
Weiterlesen nach der Anzeige
Entwicklerinnen und Entwickler können nach dem Update mit allen zehn der großen Neuerungen von Java 26 arbeiten, mit den fünf stabilen, wie HTTP/3, und den fünf Previews, wie Pattern Matching mit Primitives.
Um Preview-Funktionen freizuschalten, stellt man die Sprachstufe in der IDE auf „Language level to 26 (Preview) – Primitive types in patterns (Fourth preview)“. Dann blendet IntelliJ alle Hilfen auch für diese Sprachstufe an, einschließlich Inspections and Quick-fixes ein. Bei den Preview-Funktionen zeigt das Tool zusätzlich einen Warnhinweis, da Anwender sie möglicherweise nicht in Code für die Produktion einsetzen möchten.
JetBrains unterstützt auch noch unreife Incubator-Funktionen von Java 26 wie die Verctor API. Zur Nutzung ist ein spezieller Schalter erforderlich: --add-modules jdk.incubator.vector.
Darüber hinaus gibt es kleinere Bugfixes und Verbesserungen in der IDE. Beispielsweise beseitigt das Update einen Fehler, der falsche HTTP-Requests auslöst; und der Tab für Dependencies in der Funktion Analyze Cyclic Dependencies öffnet sich nun richtig. Im DB-Explorer lassen sich jetzt Knoten von Abfragedateien verstecken und beim Language Server für Astro gibt es Verbesserungen im automatischen Vervollständigen.
Für den Einsatz von Java 26 ist das entsprechende JDK erforderlich. Das lässt sich direkt in IntelliJ oder mithilfe von Tools wie SDKMAN laden. Ebenfalls zum Download steht ein neuer Build von Project Valhalla. Das Update von IntelliJ lässt sich innerhalb der IDE mit der Toolbox installieren, über Ubuntu-Snaps oder von der Webseite laden.
Weiterlesen nach der Anzeige
Koog und Kotlin
Neu von JetBrains ist zudem eine Java-API für das Agenten-Framework Koog, die Zugriff auf alle Funktionen des ursprünglich rein für Kotlin entwickelten Frameworks bietet: Planung und Organisation von agentischen Workflows, alle größeren Modelle, Spring Boot oder Observability.
Ebenfalls ein Update gibt es für die Programmiersprache Kotlin 2.3.30, das ein neues Modell für die Nutzung der C-Bibliotheken bietet und kompatibel zu Gradle 9.3 ist.
(who)
Entwicklung & Code
Intel stellt Notebook-Topmodell Core Ultra 9 290HX Plus vor
Intel stellt die beiden Mobilprozessoren Core Ultra 9 290HX Plus und Core Ultra 7 270HX Plus vor. Sie gehören wie schon die Plus-Modelle für Desktop-PCs zur Baureihe Arrow Lake Refresh. Die Neuauflage für Notebooks ist nur logisch: Die HX-Prozessoren nutzen die gleichen Chips wie die Desktop-CPUs, Intel kann die Optimierungen also einfach übernehmen. Sie sind für High-End-Notebooks und mobile Workstations gedacht, für die es keine neueren Panther-Lake-Modelle gibt.
Weiterlesen nach der Anzeige
Die Notebook-Typen erhalten zwei Verbesserungen: Die Datenverbindung zwischen den Chiplets (Die-to-Die-Taktfrequenz) steigt von 2,1 auf 3,0 GHz. Zudem bietet Intel ein Binary Optimization Tool an, das in bestimmten Spielen und Anwendungen den Code für die Plus-Prozessoren optimiert. Der Hersteller sieht die Optimierungen ausschließlich für den Arrow Lake Refresh vor.

Intel
)
Etwas schneller
Intel zeigt Vergleichs-Benchmarks in 32 Spielen, die in Full-HD-Auflösung (1920 × 1080 Pixel) und hohen Grafikeinstellungen entstanden sind. Der Core Ultra 9 290HX Plus soll durchschnittlich acht Prozent schneller sein als das bisherige Topmodell Core Ultra 9 285HX. In 12 der 32 Spiele bringt das Binary Optimization Tool Vorteile. In Anwendungen nennt Intel einen Vorteil von sieben Prozent.

Intel
)
Die Produktseiten der neuen Prozessoren zeigen noch Unterschiede bei den Taktfrequenzen: Zwar können die Effizienzkerne in der Spitze minimal höher takten, jedoch sinkt der Basistakt der E-Kerne um 300 MHz auf 1,8 GHz. Bei den Performance-Kernen sinkt der Basistakt minimal, der maximale Turbo bleibt gleich. Der Core Ultra 9 290HX Plus schafft bis zu 5,5 GHz, der Core Ultra 7 270HX Plus 5,3 GHz.
Notebook-Hersteller können ab sofort Geräte mit dem Core Ultra 9 290HX Plus und Core Ultra 7 270HX Plus vorstellen. Zahlreiche Hersteller stellen bestehende Designs um.
Weiterlesen nach der Anzeige
Kein Desktop-290K-Plus
Für Desktop-PCs kommt derweil kein Core Ultra 9 290K Plus, weil Intel da weniger Spielraum für Verbesserungen hat. Schon der bereits erhältliche Core Ultra 9 285K hat mit dem 200S Boost eine erhöhte Die-to-Die-Taktfrequenz. Das Binary Optimization Tool allein rechtfertigt offenbar keine Neuauflage.
(mma)
Entwicklung & Code
KI beschleunigt Code, verzögert aber Tests
Generative KI hat die Produktivität beim Programmieren deutlich erhöht. Eine Studie von GitHub Research zeigt, dass Entwickler Programmieraufgaben in kontrollierten Experimenten mit KI-Assistenz rund 55 Prozent schneller erledigen als ohne Unterstützung. Doch der Geschwindigkeitsgewinn beim Schreiben von Code mittels KI-Systemen bedeutet nicht automatisch, dass Softwareprojekte insgesamt schneller vorankommen. Eine Untersuchung des Forschungsinstituts METR (Model Evaluation and Threat Research) zeigt, dass erfahrene Entwickler bei Arbeiten in vertrauten Code-Umgebungen mit KI-Werkzeugen im Schnitt 19 Prozent länger benötigen – vor allem wegen zusätzlicher Prüf- und Korrekturschritte. Ein Grund: Sie müssen sich bei Fehlern erst in den von der KI erzeugten Code einarbeiten.
Weiterlesen nach der Anzeige
Da Testen, Debugging und Verifikation schon in der herkömmlichen Softwareentwicklung rund die Hälfte des Zeitaufwands ausmachen, schlagen Verzögerungen bei diesen Arbeiten besonders stark auf die Projektlaufzeit durch. Mit KI-Werkzeugen beim Programmieren verschiebt sich der Engpass: Das Erzeugen von Code wird einfacher und schneller – der Nachweis, dass er korrekt funktioniert und freigegeben werden kann, bleibt aufwendig. Das wiegt umso schwerer, weil die Kosten für Fehler mit jeder späteren Projektphase steigen. Eine vielzitierte Analyse des IBM Systems Sciences Institute beziffert den Unterschied: Während der Implementierung ist die Behebung eines Fehlers sechsmal teurer als in der Designphase. Beim Testen steigt der Faktor auf 15, in der Produktion auf bis zu 100. Gerade in komplexen Unternehmenssystemen wird das zum Problem. Moderne Anwendungen bestehen aus vielen Services, Programmierschnittstellen (APIs) und Datenquellen. Eine Änderung an einer Stelle kann unerwartete Nebenwirkungen an vielen anderen auslösen. Je schneller KI-Werkzeuge neuen Code produzieren, desto häufiger entstehen solche Wechselwirkungen – und damit zusätzliche Fehlerquellen.
Wenn Tests probabilistisch werden
Um diesen Engpass abzumildern, kommen zunehmend KI-Systeme auf den Markt, die neue oder geänderte Programme schneller testen sollen. Das führt jedoch zu einem grundlegenden Wandel in der Testmethodik. Klassisches Softwaretesten folgt einem deterministischen Modell: gleicher Input, gleiches Programm, identischer Output. Genau darauf beruhen Testläufe, bei denen Funktionen mit definierten Parametern aufgerufen werden und exakt die erwarteten Ergebnisse liefern müssen. Doch bei KI-Systemen gilt dieses Prinzip nur noch eingeschränkt. Große Sprachmodelle und andere generative Verfahren arbeiten auf Basis statistischer Wahrscheinlichkeiten und liefern Ergebnisse innerhalb einer Bandbreite möglicher Antworten. Die Qualität eines Systems lässt sich deshalb nicht mehr allein mit Ja-Nein-Tests überprüfen. Entscheidend ist, ob sich das Verhalten innerhalb akzeptabler Grenzen bewegt. Damit verschiebt sich auch der Fokus der Qualitätssicherung (QA). Statt vollständiger Testabdeckung rückt ein risikobasierter Ansatz in den Vordergrund: Kritische Funktionen und Schnittstellen prüfen Teams intensiver, weniger relevante Teile mit geringerer Tiefe. Ziel ist nicht mathematische Vollständigkeit, sondern eine belastbare Einschätzung des Restrisikos.
Zu den Anbietern KI-gestützter Werkzeuge gehören Keysight Eggplant, SmartBear, OpenText und Tricentis. Letzterer hat kürzlich eine „Agentic Quality Engineering Platform“ vorgestellt – eine Plattform, auf der autonom agierende KI-Agenten Qualitätssicherungsaufgaben übernehmen. Sie unterstützt unter anderem die SAP-GUI und Web-Anwendungen. Hierzu nutzt die Plattform generative KI, um Testfälle zu erzeugen, bestehende Tests zu priorisieren und Ergebnisse großer Testläufe zusammenzufassen. Technisch geht es dabei weniger um „KI testet Software“ als um die Unterstützung typischer QA-Arbeitsschritte: Änderungen im Code analysieren, relevante Tests auswählen, Fehlermeldungen gruppieren oder umfangreiche Logdateien verdichten. Der Ansatz zielt auf einen der zeitaufwendigsten Schritte im Testprozess: die Auswertung großer Mengen von Testergebnissen. In Continuous-Integration-Umgebungen laufen oft mehrere tausend Tests pro Commit, deren Resultate Entwickler anschließend interpretieren müssen. KI-Werkzeuge können helfen, Muster schneller zu erkennen und Fehlerursachen besser einzugrenzen. Der Nutzen verschiebt sich damit vom Generieren einzelner Tests hin zur Organisation und Auswertung ganzer Testlandschaften.
Was KI beim Testen nicht löst
Trotz dieser Entwicklungen bleibt der Einsatz KI-basierter Tests begrenzt. Viele Aspekte der Softwarequalität lassen sich nicht aus Testläufen ableiten. Dazu gehören Sicherheitsprobleme, strukturelle Code-Schwächen oder die Vermeidung technischer Schulden – also aufgeschobener Wartungs- und Modernisierungsarbeiten, die langfristig den Entwicklungsaufwand erhöhen. Solche Fragen betreffen die Architektur einer Anwendung und nicht nur ihr Laufzeitverhalten. Statische Codeanalyse (Static Analysis), die den Quellcode ohne Ausführung auf Fehler und Schwachstellen untersucht, Security Audits und klassische Code Reviews bleiben daher notwendig. Generative KI kann hier allenfalls Hinweise liefern, ersetzt aber keine systematische Analyse. Besonders bei sicherheitskritischen Anwendungen ist automatisches KI-Testing kein ausreichender Qualitätsnachweis.
Weiterlesen nach der Anzeige
Diese Grenzen führen zu einem Grundprinzip moderner Entwicklungsprozesse: Der Mensch bleibt Teil der Entscheidungskette. Automatisierte Tests können Hinweise liefern und große Datenmengen auswerten, doch die Freigabe eines Releases bleibt eine Risikoabwägung. In vielen Unternehmen entscheiden deshalb weiterhin Entwickler- oder QA-Teams darüber, ob eine neue Softwareversion in Produktion gehen darf. KI kann diesen Prozess beschleunigen, indem sie Informationen verdichtet und Routineaufgaben übernimmt. Die Verantwortung für die Freigabe bleibt jedoch beim Menschen. Wie riskant eine unzureichende Kontrolle ist, zeigten jüngst durch KI-Tools verursachte Ausfälle bei Amazon, nach denen der Konzern strengere Prüfmechanismen einführte.
Fazit
Generative KI beschleunigt das Schreiben von Code erheblich, erhöht aber zugleich den Aufwand für dessen Verifikation. Mehr generierter Code bedeutet mehr Varianten, mehr Integrationspunkte und damit mehr potenzielle Fehlerrisiken. KI kann beim Erzeugen von Testfällen und bei der Analyse großer Testläufe helfen, löst aber nicht alle Qualitätsprobleme. Fragen der Sicherheit, Architektur und technischer Schulden bleiben Aufgaben von Entwicklern und Review-Prozessen. Entscheidend bleibt: Ob eine Softwareversion in Produktion gehen darf, ist eine menschliche Entscheidung.
Lesen Sie auch
(fo)
-
Künstliche Intelligenzvor 3 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 1 MonatCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 4 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 2 MonatenAumovio: neue Displaykonzepte und Zentralrechner mit NXP‑Prozessor
-
Künstliche Intelligenzvor 3 MonatenÜber 220 m³ Fläche: Neuer Satellit von AST SpaceMobile ist noch größer
