Connect with us

Entwicklung & Code

KI-Ära erzwingt Reformen: GitLab strukturiert um


GitLab verordnet sich selbst eine strukturelle und strategische Neuausrichtung. Sie soll bis zum 1. Juni 2026 abgeschlossen sein und vier Maßnahmenblöcke umfassen: eine Reduktion der Länderpräsenz, den Abbau mehrerer Managementebenen, eine Umorganisation der Forschungs- und Entwicklungsteams sowie neue Arbeitsprozesse, die den Schwerpunkt auf KI legen. Offen bleibt, wie groß der Stellenabbau wird.

Weiterlesen nach der Anzeige

Diese Maßnahmen kündigte GitLab-CEO Bill Staples am 11. Mai in einem Blogbeitrag auf GitLab an. Darin bezeichnet er die agentische Ära als größte Chance in der Unternehmensgeschichte von GitLab, was entsprechende strukturelle und strategische Entscheidungen und Anpassungen erfordere.

Die bisherige Organisationsform, im Blogbeitrag auch als „GitLab Act 1“ bezeichnet, sei für diese neue Phase zu langsam, zu komplex und nicht optimal ausgerichtet. Deshalb greift für Angestellte, Investoren und Kunden nun „GitLab Act 2“. Dessen Maßnahmen sollen GitLab als DevOps-Plattform-Anbieter schneller, effizienter und innovationsstärker aufstellen. Auf Kundenseite hat GitLab schon vorgelegt: Mit der GitLab Duo Agent Platform treibt der Anbieter bereits seit letztem Jahr eine stärkere KI-gestützte Entwicklung voran.

Konkrete Zahlen zum Stellenabbau nennt Bill Staples nicht, lässt jedoch dessen Größenordnung durchblicken. Man wolle die Präsenz in Ländern, in denen kleine GitLab-Teams sitzen, um bis zu 30 Prozent reduzieren. Bei GitLab arbeiten derzeit rund 2600 Angestellte, die sich auf mehr als 65 Länder verteilen. Kunden in den betroffenen Gebieten sollen künftig über Partner betreut werden. Dabei bleibt offen, welche Länder auf der roten Liste stehen.

Im Rahmen von GitLab Act 2 will GitLab in einzelnen Unternehmensbereichen auch bis zu drei Managementebenen streichen, was die Kommunikation der Teams untereinander verbessern und beschleunigen soll. Des Weiteren werde man die Rollen und Verantwortlichkeiten auf eine KI-gestützte Arbeitsweise ausrichten und Aufgaben automatisieren, wo immer das möglich ist. Ziel sei es, eine optimale Rollenverteilung innerhalb der Teams zu finden. Als vierte Maßnahme will GitLab sein Forschungs- und Entwicklungsteam neu aufstellen, um damit rund 60 kleinere und schlagkräftigere Teams zu schaffen.

Weiterlesen nach der Anzeige

Für Kundinnen und Kunden ändern sich durch GitLab Act 2 weder Roadmap-Zusagen noch bestehende Vertragsbedingungen, betont der GitLab-CEO. Auch der Support soll ohne Unterbrechung weiterlaufen.

Vorbehaltlich der Zustimmung des Vorstands will GitLab den endgültigen Umfang und die finanziellen Auswirkungen der Restrukturierung im Rahmen des Earnings-Calls am 2. Juni bekannt geben. An den Umsatzzielen für das erste Quartal des Geschäftsjahres 2027 (253 bis 255 Millionen US-Dollar) und das gesamte Geschäftsjahr 2027 (1,099 bis 1,118 Milliarden US-Dollar) halte man dabei fest. Für das vierte Quartal des Geschäftsjahres 2026 meldete GitLab einen Umsatz von 260,4 Millionen US-Dollar, was einem Anstieg von 23 Prozent im Vergleich zum Vorjahr entspricht.


(mro)



Source link

Entwicklung & Code

Fedora plant KI-Linux-Desktop | heise online


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Fedora arbeitet an einer neuen Initiative für einen KI-optimierten Linux-Desktop. Mit dem Fedora AI Developer Desktop soll ein System für lokale KI- und Machine-Learning-Workloads entstehen. Es soll auf Fedora Atomic Desktops aufsetzen und vorkonfigurierte Werkzeuge, Container-Images sowie GPU-Beschleunigung umfassen. Ziel ist laut Proposal eine reproduzierbare und einfacher nutzbare Entwicklungsumgebung für KI-Anwendungen.

Weiterlesen nach der Anzeige

Die Initiatoren betonen gleichzeitig, dass sie keine KI-Funktionen in bestehende Fedora-Editionen integrieren wollen. Stattdessen sind separate Images und Fedora-Remixes geplant. Der Fedora Council hat die Initiative am 6. Mai 2026 einstimmig zur Annahme empfohlen. Die offizielle Bestätigung erfolgte nach einer lazy-consensus-Phase, die am 8. Mai endete. Fedora-Projektleiter Jef Spaleta fungiert dabei als Executive Sponsor.

Die Pläne knüpfen an bestehende Fedora-Desktopvarianten wie Silverblue oder Kinoite an. Diese sogenannten Atomic Desktops nutzen unveränderliche Systemabbilder statt einer klassischen Paketverwaltung als primären Update-Mechanismus. Aktualisierungen lassen sich so transaktional einspielen und bei Problemen leichter zurücksetzen. Gerade für KI-Workloads ist das wichtig, weil lokale KI-Stacks häufig empfindlich auf Änderungen an Kernel-, Treiber- oder CUDA-Versionen reagieren.

Einen ähnlichen Ansatz verfolgt das Community-Projekt Universal Blue, das Fedora-Atomic-Varianten mit zusätzlicher Hardwareunterstützung und vorkonfigurierten Entwicklerumgebungen ausliefert. Auch Canonical treibt mit Ubuntu die Integration von KI-Werkzeugen in Linux-Systemen voran.

Ziel der Fedora-Initiative ist, die bislang oft komplexe Einrichtung lokaler KI-Umgebungen stärker in die Distribution selbst zu verlagern. Entwickler Gordon Messmer beschreibt im Proposal vor allem die heterogene Treiber- und Toolchain-Situation als Problem. Viele KI-Frameworks erfordern derzeit manuelle Nacharbeiten, etwa beim Zusammenspiel von Kernel, Nvidia-Treiber, CUDA-Toolkit und Container-Laufzeiten. Das Projekt will daher getestete und reproduzierbare Basissysteme bereitstellen, statt Nutzer mit distributions- und hardwareabhängigen Anleitungen zu konfrontieren.

Geplant sind dafür mehrere technische Bausteine: ein langfristig gepflegter LTS-Kernel innerhalb Fedora, signierte Nvidia-OpenRM-Kernelmodule, Atomic-Systemabbilder für beschleunigte KI-Workloads sowie Fedora-Remixes mit CUDA-Runtime oder CUDA-Toolkit. Hinzu kommen vorkonfigurierte Werkzeuge wie Podman Desktop oder Goose CLI sowie optimierte Container-Images für Machine-Learning-Anwendungen.

Weiterlesen nach der Anzeige

Die Umsetzung soll in drei Schritten erfolgen: Mit Fedora 45 stehen Plattformarbeiten und die ersten fünf Deliverables im Fokus, Fedora 46 bringt den Community-Aufbau samt Beitragsleitfaden, Fedora 47 schließlich die Entwicklerwerkzeuge und optimierten Container-Images. Eine Vorschau auf den Atomic-Desktop-Remix sowie der zugehörige Long-Term-Kernel mit Nvidia-Modul sind bereits verfügbar.

Ein zentraler Streitpunkt in der Diskussion ist der vorgeschlagene LTS-Kernel. Fedora verwendet bislang ein Rolling-Release-Modell und integriert neue Kernelversionen vergleichsweise schnell. Die Befürworter argumentieren, dass ein stabiler Kernelzweig vor allem bei KI-Workloads mit GPU-Beschleunigung Vorteile bringe. Viele KI-Umgebungen setzen auf sogenannte Out-of-tree-Kernelmodule, also Module außerhalb des offiziellen Kernel-Quellcodes. Dazu zählen auch die Nvidia-Treiber. Ändern sich interne Kernel-Schnittstellen, müssen Entwickler solche Module anpassen, und sie können zeitweise inkompatibel werden.

Die Autoren des Proposals sehen darin ein strukturelles Problem für reproduzierbare KI-Umgebungen. Ein über längere Zeit stabil gehaltener Kernel soll dagegen eine konsistente Plattform für KI-Stacks schaffen. Kritiker innerhalb der Fedora-Community bezweifeln, dass Fedora die zusätzlichen Wartungsaufgaben für einen LTS-Kernel und Out-of-tree-Module langfristig stemmen kann. Andere verweisen darauf, dass sich ein Teil der Probleme bereits heute über bestehende Atomic-Mechanismen oder externe Build-Infrastrukturen lösen lässt.

Diskutiert wird zudem die Rolle proprietärer Nvidia-Software. Das Proposal sieht unter anderem Fedora-Remixes mit CUDA-Unterstützung vor. CUDA ist zwar der De-facto-Standard vieler KI-Frameworks, basiert jedoch weiterhin teilweise auf proprietären Komponenten. Zwar stellt Nvidia inzwischen offene Kernelmodule unter dem Namen OpenRM bereit, die eigentliche CUDA-Laufzeitumgebung und Teile des Userspace bleiben jedoch geschlossen. Entsprechend kontrovers diskutiert die Community, wie eng Fedora diese Software offiziell unterstützen sollte.

Die Initiatoren betonen mehrfach, dass die geplanten Images weder Cloud-Anbindung noch Telemetrie vorsehen. KI-Werkzeuge sollen sich standardmäßig nicht mit externen KI-Diensten verbinden. Stattdessen liegt der Schwerpunkt auf lokal ausgeführten Modellen und Entwicklerwerkzeugen. Auch Anwendungen zur Überwachung oder automatischen Analyse des Nutzerverhaltens schließt das Proposal ausdrücklich aus.

Neben technischen Fragen löste die Initiative auch grundsätzliche Debatten innerhalb der Fedora-Community aus. Einzelne Entwickler äußerten deutliche Kritik; ein Beteiligter kündigte im Verlauf der Diskussion seinen Rückzug aus Fedora-Aktivitäten an. Andere Nutzer verweisen dagegen auf mögliche Kooperationen mit Universal Blue oder den bereits aktiven KI- und ML-Gruppen im Fedora-Umfeld.

Lesen Sie auch


(fo)



Source link

Weiterlesen

Entwicklung & Code

Red Hat OpenShift: Souveräne KI, Migration und Virtualisierung


Weiterlesen nach der Anzeige

Red Hat hat mehrere neue Funktionen für OpenShift angekündigt. Ein Schwerpunkt liegt auf souveränen KI- und Cloud-Diensten. Dafür setzt Red Hat auf einen Service-Provisioning-Ansatz, über den Partner und Kunden unter anderem virtuelle Maschinen, Cluster, GPU-Ressourcen und Inferenzdienste innerhalb kontrollierter Betriebsgrenzen bereitstellen können.

Im Vordergrund steht das Betriebsmodell: Wer betreibt die Plattform, wo verbleiben Daten und Telemetrie, und wie entstehen Compliance-Nachweise? Damit Code, Betriebsdaten und Workloads innerhalb definierter Grenzen bleiben, verweist Red Hat unter anderem auf hardwaregestützte Confidential Containers, vertrauliche Hosts, Trusted-Supply-Chain-Funktionen sowie OpenShift Dev Spaces.

Darüber hinaus plant Red Hat für Europa eine regionale Bereitstellung von RHEL-Software- und Update-Streams, damit Kunden und Partner Red Hat Enterprise Linux lokal beziehen können. Das soll die Resilienz kritischer Softwarelieferketten erhöhen und überregionale Abhängigkeiten reduzieren. Zudem verweist Red Hat auf seinen Confirmed Sovereign Support in der EU, also ein Supportmodell mit regional kontrollierten Eskalations- und Betriebsprozessen.

Mit Bare Metal as a Service will Red Hat künftig auch physische Server über OpenShift verwalten. Damit entwickelt sich OpenShift weiter in Richtung einer allgemeinen Infrastrukturplattform – nicht nur für Cloud-native Anwendungen, sondern auch für klassische Workloads und Hardware in einem einheitlichen Betriebsmodell.

Für Entwickler wurde der Red Hat Desktop angekündigt. Die Umgebung soll Linux-, Windows- und Mac-Clients mit Red-Hat-Plattformen verbinden und sichere Entwicklungsprozesse vom lokalen Rechner bis in produktive OpenShift- und KI-Umgebungen unterstützen. Als Grundlage dient Podman Desktop, ergänzt um einen Katalog gehärteter Images. Entwickler sollen geprüfte Images damit leichter lokal nutzen und anschließend auf OpenShift bereitstellen können.

Hinzu kommen eine Trusted Software Factory und Trusted Libraries. Die Factory basiert auf CNCF-Technologien und Red-Hat-Best-Practices für Software-Lieferketten. Sie soll Unternehmen helfen, Build-Prozesse mit Provenance, Attestierung und nachvollziehbaren Artefakten aufzubauen. Trusted Libraries liefern kuratierte und kontinuierlich gepflegte Bibliotheken. Diese werden laut Red Hat in einer SLSA-Level-3-Infrastruktur gebaut und enthalten vollständige Provenance- und Attestation-Informationen.

Weiterlesen nach der Anzeige

Der neue Migration Advisor soll dabei helfen, vorhandene Virtualisierungsumgebungen zu bewerten, bevor die Workloads auf OpenShift verschoben werden. Das Werkzeug basiert auf den Erfahrungen aus dem Virtualization Migration Assessment. Kunden können damit ihre Umgebung passiv analysieren und erhalten frühzeitig Hinweise zu Aufwand, Risiken und Migrationspfaden.

Die OpenShift Virtualization wird um eine Funktion zur Live-Migration virtueller Maschinen zwischen Kubernetes-Clustern ergänzt. Außerdem sollen neue Right-Sizing-Funktionen helfen, Speicher- und Rechenressourcen besser auszunutzen. „Die meisten Kunden wollen die vorhandene Infrastruktur dichter auslasten, statt sofort neue Systeme zu beschaffen, OpenShift soll deshalb künftig stärker anzeigen, wo virtuelle Maschinen überdimensioniert sind und wo sich Clusterkapazitäten effizienter nutzen lassen“, sagt Mike Barrett, Vice President and General Manager of Red Hat Hybrid Platforms, über die Hintergründe der neuen Features.

Virtualisierung ist für Red Hat inzwischen ein wichtiger Geschäftsbereich. Auf dem Summit wurde ein Wachstum von 417 Prozent bei virtuellen Maschinen mit OpenShift Virtualization im Zeitraum 2025/2026 genannt. Barrett sprach zudem von 70 Prozent mehr Kundenkonten in diesem Bereich. Diese Zahlen zeigen, dass das Angebot im Markt gut ankommt – besonders dort, wo Unternehmen nach Alternativen oder Ergänzungen zur klassischen Virtualisierung suchen.


(fo)



Source link

Weiterlesen

Entwicklung & Code

Software Testing: Der Blaue Engel für Software


In diesem Interview sprechen Richard Seidl und Anita Schüttler über den Blauen Engel für Software. Das Umweltlabel, bekannt von Papierprodukten, gibt es jetzt auch für Software und soll Ressourceneffizienz fördern. Wie Unternehmen an die begehrte Auszeichnung kommen, warum sie mehr ist als ein grüner Stempel und welche Herausforderungen hinter dem Zertifizierungsprozess stecken, wird offen diskutiert. Anita Schüttler teilt mit, wie ihre eigene Software zertifiziert wurde, welche Kosten und Aufwände damit verbunden sind und warum das Umweltzeichen sogar Marketingvorteile bringt.

Weiterlesen nach der Anzeige

Anita Schüttler ist Informatikerin und Expertin für digitale Nachhaltigkeit, Green Software und Circular Economy. Als Head of IT Sustainability bei neuland, Bremen, berät und unterstützt sie Unternehmen dabei, die Umweltauswirkungen ihrer digitalen Produkte zu verstehen und zu reduzieren. Sie ist zudem Co-Vorsitzende des Bundesverband Green Software, Auditorin für den Blauen Engel für Software und ein Champion der Green Software Foundation.

Bei diesem Format dreht sich alles um Softwarequalität: Ob Testautomatisierung, Qualität in agilen Projekten, Testdaten oder Testteams – Richard Seidl und seine Gäste schauen sich Dinge an, die mehr Qualität in die Softwareentwicklung bringen.

Die aktuelle Ausgabe ist auch auf Richard Seidls Blog verfügbar: „Der Blaue Engel für Software erklärt – Anita Schüttler“.


(mai)



Source link

Weiterlesen

Beliebt