Connect with us

Entwicklung & Code

Red Hat OpenShift: Souveräne KI, Migration und Virtualisierung


Weiterlesen nach der Anzeige

Red Hat hat mehrere neue Funktionen für OpenShift angekündigt. Ein Schwerpunkt liegt auf souveränen KI- und Cloud-Diensten. Dafür setzt Red Hat auf einen Service-Provisioning-Ansatz, über den Partner und Kunden unter anderem virtuelle Maschinen, Cluster, GPU-Ressourcen und Inferenzdienste innerhalb kontrollierter Betriebsgrenzen bereitstellen können.

Im Vordergrund steht das Betriebsmodell: Wer betreibt die Plattform, wo verbleiben Daten und Telemetrie, und wie entstehen Compliance-Nachweise? Damit Code, Betriebsdaten und Workloads innerhalb definierter Grenzen bleiben, verweist Red Hat unter anderem auf hardwaregestützte Confidential Containers, vertrauliche Hosts, Trusted-Supply-Chain-Funktionen sowie OpenShift Dev Spaces.

Darüber hinaus plant Red Hat für Europa eine regionale Bereitstellung von RHEL-Software- und Update-Streams, damit Kunden und Partner Red Hat Enterprise Linux lokal beziehen können. Das soll die Resilienz kritischer Softwarelieferketten erhöhen und überregionale Abhängigkeiten reduzieren. Zudem verweist Red Hat auf seinen Confirmed Sovereign Support in der EU, also ein Supportmodell mit regional kontrollierten Eskalations- und Betriebsprozessen.

Mit Bare Metal as a Service will Red Hat künftig auch physische Server über OpenShift verwalten. Damit entwickelt sich OpenShift weiter in Richtung einer allgemeinen Infrastrukturplattform – nicht nur für Cloud-native Anwendungen, sondern auch für klassische Workloads und Hardware in einem einheitlichen Betriebsmodell.

Für Entwickler wurde der Red Hat Desktop angekündigt. Die Umgebung soll Linux-, Windows- und Mac-Clients mit Red-Hat-Plattformen verbinden und sichere Entwicklungsprozesse vom lokalen Rechner bis in produktive OpenShift- und KI-Umgebungen unterstützen. Als Grundlage dient Podman Desktop, ergänzt um einen Katalog gehärteter Images. Entwickler sollen geprüfte Images damit leichter lokal nutzen und anschließend auf OpenShift bereitstellen können.

Hinzu kommen eine Trusted Software Factory und Trusted Libraries. Die Factory basiert auf CNCF-Technologien und Red-Hat-Best-Practices für Software-Lieferketten. Sie soll Unternehmen helfen, Build-Prozesse mit Provenance, Attestierung und nachvollziehbaren Artefakten aufzubauen. Trusted Libraries liefern kuratierte und kontinuierlich gepflegte Bibliotheken. Diese werden laut Red Hat in einer SLSA-Level-3-Infrastruktur gebaut und enthalten vollständige Provenance- und Attestation-Informationen.

Weiterlesen nach der Anzeige

Der neue Migration Advisor soll dabei helfen, vorhandene Virtualisierungsumgebungen zu bewerten, bevor die Workloads auf OpenShift verschoben werden. Das Werkzeug basiert auf den Erfahrungen aus dem Virtualization Migration Assessment. Kunden können damit ihre Umgebung passiv analysieren und erhalten frühzeitig Hinweise zu Aufwand, Risiken und Migrationspfaden.

Die OpenShift Virtualization wird um eine Funktion zur Live-Migration virtueller Maschinen zwischen Kubernetes-Clustern ergänzt. Außerdem sollen neue Right-Sizing-Funktionen helfen, Speicher- und Rechenressourcen besser auszunutzen. „Die meisten Kunden wollen die vorhandene Infrastruktur dichter auslasten, statt sofort neue Systeme zu beschaffen, OpenShift soll deshalb künftig stärker anzeigen, wo virtuelle Maschinen überdimensioniert sind und wo sich Clusterkapazitäten effizienter nutzen lassen“, sagt Mike Barrett, Vice President and General Manager of Red Hat Hybrid Platforms, über die Hintergründe der neuen Features.

Virtualisierung ist für Red Hat inzwischen ein wichtiger Geschäftsbereich. Auf dem Summit wurde ein Wachstum von 417 Prozent bei virtuellen Maschinen mit OpenShift Virtualization im Zeitraum 2025/2026 genannt. Barrett sprach zudem von 70 Prozent mehr Kundenkonten in diesem Bereich. Diese Zahlen zeigen, dass das Angebot im Markt gut ankommt – besonders dort, wo Unternehmen nach Alternativen oder Ergänzungen zur klassischen Virtualisierung suchen.


(fo)



Source link

Entwicklung & Code

Software Testing: Der Blaue Engel für Software


In diesem Interview sprechen Richard Seidl und Anita Schüttler über den Blauen Engel für Software. Das Umweltlabel, bekannt von Papierprodukten, gibt es jetzt auch für Software und soll Ressourceneffizienz fördern. Wie Unternehmen an die begehrte Auszeichnung kommen, warum sie mehr ist als ein grüner Stempel und welche Herausforderungen hinter dem Zertifizierungsprozess stecken, wird offen diskutiert. Anita Schüttler teilt mit, wie ihre eigene Software zertifiziert wurde, welche Kosten und Aufwände damit verbunden sind und warum das Umweltzeichen sogar Marketingvorteile bringt.

Weiterlesen nach der Anzeige

Anita Schüttler ist Informatikerin und Expertin für digitale Nachhaltigkeit, Green Software und Circular Economy. Als Head of IT Sustainability bei neuland, Bremen, berät und unterstützt sie Unternehmen dabei, die Umweltauswirkungen ihrer digitalen Produkte zu verstehen und zu reduzieren. Sie ist zudem Co-Vorsitzende des Bundesverband Green Software, Auditorin für den Blauen Engel für Software und ein Champion der Green Software Foundation.

Bei diesem Format dreht sich alles um Softwarequalität: Ob Testautomatisierung, Qualität in agilen Projekten, Testdaten oder Testteams – Richard Seidl und seine Gäste schauen sich Dinge an, die mehr Qualität in die Softwareentwicklung bringen.

Die aktuelle Ausgabe ist auch auf Richard Seidls Blog verfügbar: „Der Blaue Engel für Software erklärt – Anita Schüttler“.


(mai)



Source link

Weiterlesen

Entwicklung & Code

C++-Entwickler nutzen KI häufiger, bleiben aber skeptisch


C++-Programmiererinnen und -Programmierer setzen immer häufiger KI-Assistenten für ihre Projekte ein. Das hat die Standard C++ Foundation in ihrer jüngsten Umfrage festgestellt. Deutlich wurde aber auch: Das Misstrauen gegenüber künstlicher Intelligenz ist immer noch hoch.

Weiterlesen nach der Anzeige

Als Grund dafür geben 77,5 Prozent der Befragten an, dass KI fehlerhaften Output liefert, während knapp 70 Prozent den von künstlicher Intelligenz generierten Antworten generell kein Vertrauen entgegenbringen. Für rund 51 Prozent der Teilnehmenden leistet KI hinsichtlich Kontextverständnis zu wenig. Bedenken bezüglich Datensicherheit melden 49,5 Prozent an und für 37,4 Prozent ist der Einsatz von KI vor allem eine Kostenfrage.

Dennoch werden KI-Assistenten im C++-Umfeld deutlich häufiger eingesetzt als letztes Jahr, auch wenn in sämtlichen von der Umfrage berücksichtigten Programmier-Aufgabenbereichen weiterhin die „Nein“-Sager dominieren.


Umfrage: Der Einsatz von KI im C++-Programmierumfeld

Umfrage: Der Einsatz von KI im C++-Programmierumfeld

Die meisten Umfrage-Teilnehmer sprechen sich gegen den Einsatz von KI im C++-Umfeld aus.

(Bild: Standard C++ Foundation)

Beim Schreiben von Code greifen nun jedoch 39,1 Prozent der Befragten ein- bis mehrmals pro Woche zum KI-Tool, während es 2025 noch 30,9 Prozent waren. Beim Schreiben von Tests sind es 32,2 statt vormals 20 Prozent, beim Debugging steigt der Anteil auf 23,2 Prozent (2025: 11,5 %) und beim Ermitteln von Performance-Problemen hat sich der Anteil mit etwa 14 Prozent ebenfalls mehr als verdoppelt (2025: 6,0 %).

Mit 53,4 Prozent der Nennungen landet GitHub Copilot auf Platz eins der am häufigsten verwendeten codespezifischen KI-Assistenten. Es folgen Claude Code mit 44,2 Prozent und OpenAI Codex mit 14,3 Prozent. Unter den nicht-codespezifischen KI-Tools führen ChatGPT mit 53,4 Prozent und Google Gemini mit 39 Prozent. Kaum genutzt werden dort Grok (6,3 %) und Perplexity (4,2 %).

Weiterlesen nach der Anzeige

Laut Umfrage ordnen sich die meisten C++-Projekte den Kategorien Entwicklertools (26,1 %), Hardware/IoT (24,7 %), Gaming (23,5 %) sowie Utility-Apps (21,6 %) zu. Umgesetzt werden sie überwiegend mit CMake, das 81,9 Prozent der Befragten als bevorzugtes Build-Tool nennen. Ebenfalls hoch im Kurs stehen Ninja mit 46,2 Prozent, MSBuild mit 33,5 Prozent und Make/nmake mit 30,7 Prozent.

Bei den IDEs greifen rund 40 Prozent der Befragten zu Visual Studio Code, das mit dem Februar-Update neue Features für die KI-Agenten-Konfiguration erhielt. Als Compiler kommt überwiegend GCC zum Einsatz (53,1 %).

Danach gefragt, was sie an C++ ändern würden, nennen viele Teilnehmer unter anderem ein standardisiertes Paket- und Abhängigkeitsmanagement, kürzere Build-Zeiten, die Unterstützung von ABI- und Kompatibilitätsbrüchen sowie mehr Sicherheit durch strengere Defaults.

Die Umfrage der Standard C++ Foundation startete am 21. April dieses Jahres. Sie lief eine Woche lang und sammelte Feedback von 1434 Teilnehmerinnen und Teilnehmern, was einem Anstieg von 38 Prozent gegenüber 2025 entspricht (1036 Personen). Davon attestieren sich 80,6 Prozent eine C++-Programmiererfahrung von mindestens sechs Jahren. Mehr als zehn Jahre Erfahrung geben 60,5 Prozent an und bei fast 33 Prozent der Teilnehmer sind es mehr als 20 Jahre. Auf der Webseite der gemeinnützigen Stiftung steht die vollständige Umfrage mit vielen weiteren Details zum Download bereit.


(mro)



Source link

Weiterlesen

Entwicklung & Code

OpenAI: Neue Audio-Modelle für Echtzeit-KI-Support


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Künstliche Intelligenz wird in Zukunft immer häufiger am anderen Ende der Leitung sein, wenn Menschen eine Supporthotline anrufen oder in einer App Unterstützung suchen. Mit drei neuen Audio-Modellen, die per Entwicklerschnittstelle (API) zur Verfügung stehen, will OpenAI jetzt deren Qualität auf eine neue Stufe stellen. Konkret hat das US-amerikanische KI-Unternehmen die Modelle GPT-Realtime-2, GPT-Realtime-Translate und GPT-Realtime-Whisper vorgestellt.

Weiterlesen nach der Anzeige

Wie die Namen schon erahnen lassen, geht es um einen Dreiklang an Funktionen: GPT-Realtime-2 soll Echtzeit-Gespräche zwischen Maschine und Mensch ermöglichen, GPT-Realtime-Translate kommt in der Mensch-zu-Mensch-Kommunikation als Übersetzer und GPT-Realtime-Whisper zur Transkribierung von Mensch zu Maschine zum Einsatz. GPT-Realtime-2 ist überdies das erste Sprachmodell mit GPT-5-Reasoning in Echtzeit. OpenAI hat zuletzt auch GPT-5.5 als agentisches Arbeitsmodell vorgestellt, das Aufgaben selbstständig planen und über längere Zeiträume konsistent bearbeiten soll.

In Praxisvideos zur Ankündigung zeigt OpenAI die Modelle im Einsatz. Ein Augenmerk liegt darauf, dass sich die KI besser in die menschliche Kommunikation einfügt. Da ist zum Beispiel eine Situation, wo jemand ein Mensch-KI-Gespräch unterbricht und die KI angewiesen wird, für den Moment abzuwarten. Auch die Rückmeldungen der KI kommen menschlicher daher: sei es, wie Zahlen- und Buchstabenfolgen ausgesprochen werden oder bei der Live-Übersetzung, dass die KI jeweils abwartet, bis sie genug gehört hat, um sinnhaft übersetzen zu können. Zudem sollen Probleme besser kommuniziert werden, anstatt die Kommunikation einfach stillschweigend scheitern zu lassen.

Das Kontextfenster von GPT-Realtime-2 wurde gegenüber dem Vorgängermodell GPT-Realtime-1.5 von 32.000 auf 128.000 Token erweitert. Reasoning-Stufen sind einstellbar: von minimal bis sehr hoch, im Standard ist es auf niedrig eingestellt. Auch sind parallele Aufrufe von Tools möglich, sodass das Modell im laufenden Gespräch parallel mehrere externe Dienste abfragen kann. OpenAI wirbt zudem mit einem deutlich besseren Abschneiden bei Benchmarks, etwa bei Big Bench Audio von 81,4 auf 96,6 Prozent im Vergleich zu GPT-Realtime-1.5. Beim allgemeinen Release der Realtime API im vergangenen Jahr hatte das Vorgängermodell diesen Benchmark gegenüber der Beta-Version bereits von rund 65 auf über 82 Prozent verbessert.

GPT-Realtime-Translate unterstützt über 70 Eingangssprachen und kann in 13 Sprachen übersetzen. Die Deutsche Telekom testet das Modell laut OpenAI bereits, um es im mehrsprachigen Kundensupport einzusetzen. Die Kosten für Entwickler betragen 0,034 US-Dollar pro Minute Nutzung.

Weiterlesen nach der Anzeige

GPT-Realtime-Whisper soll Live-Transkription mit sehr niedriger Latenz ermöglichen. Typische Einsatzbereiche sind Untertitel in Meetings oder bei Streams, Kundensupport, medizinische Anwendungen und der Handel. Die Kosten betragen 0,017 US-Dollar pro Minute.

Alle drei Modelle stehen ab sofort über die Realtime API zur Verfügung. Die neuen Modelle reihen sich in OpenAIs jüngste Strategie spezialisierter KI-Modelle ein: Neben der Sprachverarbeitung hat das Unternehmen zuletzt auch GPT-Rosalind für die Biologieforschung vorgestellt, das auf Wirkstoffentdeckung und Genomik zugeschnitten ist. Die Nutzung von GPT-Realtime-2 kostet für den Input 32 US-Dollar pro Million Token (0,40 US-Dollar für gecachte Token) sowie 64 US-Dollar pro Million Token im Output. Damit bleiben die Preise gegenüber dem Vorgängermodell unverändert. Für europäische Entwickler relevant: Die Realtime API unterstützt EU Data Residency, sodass Anfragen und Antworten in der EU verarbeitet und nicht auf OpenAIs Servern gespeichert werden – allerdings mit einem Vorbehalt: Das Tracing, also die Nachverfolgung von API-Aufrufen zu Debugging-Zwecken, ist derzeit noch nicht EU-Data-Residency-konform.


(mki)



Source link

Weiterlesen

Beliebt