Connect with us

Künstliche Intelligenz

Endpoint-Management: „Operativ hilft es nicht, in Alarmismus zu verfallen“


Die Andreas Stihl AG & Co KG aus Waiblingen-Neustadt in der Metropolregion Stuttgart ist für ihre Motorsägen weltbekannt – und gilt bereits seit über 50 Jahren als Marktführer. Wie funktioniert die IT bei einem Unternehmen, das weltweit über 20.000 Mitarbeiter hat? Im Gespräch mit heise online gibt Jürgen Sitzler, der für Plattformsysteme zuständige Manager des großen Mittelständlers, Einblick in seine Arbeit.

Weiterlesen nach der Anzeige

heise online: Herr Sitzler, welche Aufgaben verantworten Sie bei Stihl?

Sitzler: Ich bin Manager Plattformsysteme. In meinem Team bündeln wir im Kern das, was man klassisch als Endpoint-Management für Windows versteht: die Plattformen für Windows-Clients und Windows-Server, inklusive Softwareverwaltung und Softwareverteilung als Standardsystem. Darüber hinaus liegen auch angrenzende Plattformthemen bei uns, etwa Intune als MDM-Komponente sowie Virtualisierung und Applikationsbereitstellung mit VMware und Citrix. Es geht dabei nicht nur um den Betrieb einzelner Tools, sondern vor allem um stabile, nachvollziehbare Prozesse: Standardisierung, Rollout, Lifecycle-Management, Patchen, Inventarisierung und die Fähigkeit, im Störungs- oder Sicherheitsfall schnell belastbare Aussagen treffen zu können.

heise online: In welchen Dimensionen bewegen Sie sich dabei?

Sitzler: Insgesamt sprechen wir über rund 25.000 Endpunkte. Je nachdem, wie man mobile Clients mitrechnet, kann das in der Praxis auch darüber liegen. Auf der klassischen Client-Seite haben wir ungefähr 17.000 Windows-Geräte. Macs spielen bei uns eine deutlich kleinere Rolle; wir liegen da bei etwa 50 MacBooks. Das allein macht den Schwerpunkt klar: Die Prozesse und das Tooling sind sehr stark auf Windows ausgerichtet, weil die Masse der Arbeitsplätze und viele Fachanwendungen dort verankert sind.


Jürgen Sitzler

Jürgen Sitzler

Jürgen Sitzler von Stihl

(Bild: privat)

heise online: Viele Unternehmen sprechen derzeit über den Konflikt zwischen Operational Technology, also der Datenverarbeitung produzierender Systeme, und der restlichen IT. Ist das bei Ihnen ebenfalls ein Thema?

Sitzler: Ja, das ist bei uns sehr konkret. Wir arbeiten derzeit in einem Projekt daran, OT und IT stärker zu trennen. Historisch ist das oft zusammengewachsen; in der Realität ist das dann nicht selten ein gemeinsamer Verbund mit zu vielen Übergängen. Aus Security-Sicht ist diese klare Segmentierung ein wichtiger Schritt. Gleichzeitig ist es ein anspruchsvolles Vorhaben, weil Produktionsumgebungen eine andere Stabilitätsanforderung und häufig auch andere Update- und Wartungsfenster haben als klassische Office-IT.

Weiterlesen nach der Anzeige

heise online: Sie kommen aus der Ivanti-DSM-Welt. Warum ist das jetzt in Bewegung?

Sitzler: Wir nutzen aktuell noch Ivanti DSM in zentralen Teilen unserer Softwareverteilung und -verwaltung. Der wesentliche Treiber ist: DSM ist zum 31.12.2026 abgekündigt. Es gibt zwar ein Nachfolgesystem, aber aus unserer Sicht ist es derzeit funktional noch nicht auf dem Niveau, das für eine große Umgebung erforderlich ist. In der Folge sehen wir, dass viele DSM-Kunden den Markt neu bewerten. Auch wir prüfen, wie wir langfristig eine moderne, tragfähige Plattform aufstellen, die sowohl Client- als auch Server-Anforderungen abdeckt.

heise online: Welche Erwartungen haben Sie an ein Nachfolgesystem?

Sitzler: Entscheidend ist für uns die durchgängige Abdeckung: Server und Clients dürfen nicht in getrennten Welten landen, mit unterschiedlichen Datenmodellen, unterschiedlichen Agenten oder unterschiedlichen Betriebslogiken. Zusätzlich müssen Inventar, Konfigurationszustand, Compliance und Verteilung verlässlich skalieren. Es reicht nicht, dass etwas „irgendwie“ funktioniert; bei der Größenordnung müssen Aussagen reproduzierbar, Reports belastbar und Änderungen sauber steuerbar sein. Und nicht zuletzt ist die Geschwindigkeit relevant: Wie schnell sieht man den tatsächlichen Zustand im Feld, und wie schnell lassen sich Maßnahmen umsetzen?

heise online: Microsoft ist bei vielen Unternehmen gesetzt. Warum reicht das nicht?

Sitzler: Microsoft ist als strategischer Partner natürlich präsent, und auf der Client-Seite gibt es moderne Ansätze. In Gesprächen wird dann für Server-Themen jedoch häufig auf klassische Werkzeuge verwiesen, insbesondere SCCM, also der Microsoft Endpoint Configuration Manager. Für uns war das kein überzeugender Weg, weil wir eine zukunftsfähige Plattform suchen, die sich in den operativen Alltag gut einfügt und den heutigen Anforderungen entspricht. Unsere Ausgangslage war, dass wir bereits ein leistungsfähiges System hatten. Wenn man ablöst, sollte das Zielbild mindestens gleichwertig sein, in wichtigen Punkten besser, und langfristig tragfähig.

heise online: Wir sprechen mit einander auf Taniums Hausmesse Converge. Wie ist Stihl zu Tanium gekommen?

Sitzler: Tanium war in unserem Partner- und Marktkontext präsent, und wir haben die Lösung in der Evaluation konkreter betrachtet. Der zentrale Punkt war der Realtime-Ansatz. Viele Werkzeuge arbeiten stark datenbankgetrieben: Endpunkte melden in festen Intervallen, Daten werden gesammelt, verarbeitet und stehen dann im Reporting zur Verfügung. Das ist für viele Zwecke ausreichend, aber es hat einen Haken: Die Daten sind zum Zeitpunkt der Betrachtung häufig bereits veraltet. In ruhigen Zeiten ist das tolerierbar, aber in kritischen Situationen möchte man nicht mit dem Gefühl arbeiten, dass die letzten verlässlichen Informationen „vor fünf Minuten“ oder „vor einer Stunde“ waren.

heise online: Was bedeutet „Realtime“ für Ihren Alltag?

Sitzler: Realtime bedeutet nicht, dass jede Entscheidung automatisiert ist, sondern dass Abfragen und Sichtbarkeit näher an der Wirklichkeit liegen. In der Praxis heißt das: Wenn ich wissen muss, ob eine bestimmte Schwachstelle, ein bestimmtes Softwarepaket oder ein bestimmter Konfigurationszustand tatsächlich auf den Geräten vorhanden ist, möchte ich eine Antwort, die nicht primär eine historische Momentaufnahme aus einer Datenbank ist. Gerade im Sicherheitskontext ist das ein Unterschied.

Angriffe werden professioneller und schneller, und damit steigt der Wert aktueller Telemetrie. Außerdem ist auch die Bedienlogik relevant: Statt starre Reports zu bauen, kann man sich über gezielte Fragen schrittweise an eine Antwort herantasten. Diese Form des Arbeitens ist für viele Use Cases effizienter, weil sie den realen Diagnoseprozess besser abbildet.

heise online: Sie sind seit vielen Jahren bei Stihl. Wie hat sich das Thema Softwareverteilung historisch entwickelt?

Sitzler: Ich bin seit 2001 im Unternehmen. Interessant ist, dass es bei uns tatsächlich eine Historie gibt, die bis in frühe Softwareverteilungsansätze zurückreicht. Ein sehr frühes Produkt, das damals „NetInstall“ hieß, ist im Umfeld Stihls entstanden. Über verschiedene Stationen und Zusammenschlüsse ist das letztlich in der Produktlinie gelandet, die später als DSM bei Ivanti geführt wurde. Man könnte sagen: Das Thema ist bei uns seit langem präsent, und die Ablösung ist daher nicht nur eine Toolfrage, sondern auch eine Frage eingespielter Prozesse.

heise online: Welche Security-Werkzeuge sind bei Ihnen im Einsatz?

Sitzler: Wir arbeiten mit Microsoft Defender und CrowdStrike. Wichtig ist dabei weniger das Label des Produkts, sondern dass Abdeckung, Betrieb und Lizenzmodell zur Realität der unterschiedlichen Systemklassen passen.

heise online: Wie steuern Sie die Verwaltung von Macs und mobilen Endgeräten?

Sitzler: Macs verwalten wir über Intune. Allerdings muss man realistisch sagen: Bei uns ist macOS eine Ausnahme, weil viele Arbeitsprozesse, Vorlagen und Automatisierungen sehr stark auf Windows und Microsoft-Ökosysteme ausgerichtet sind. Bei mobilen Endgeräten setzen wir strategisch auf iOS und iPadOS und verwalten diese ebenfalls über Intune. Android gibt es bei uns vor allem im Shopfloor-Umfeld. Dort nutzen wir Soti, weil es im jeweiligen Anwendungsfall oft kostenseitig und organisatorisch besser passt, Geräte statt Benutzer zu registrieren und zu verwalten.

heise online: Wie wichtig ist aus Ihrer Sicht Security-Awareness?

Sitzler: Awareness ist wichtig, aber es ist kein Zustand, den man einmal erreicht und dann „abhakt“. Es braucht Wiederholung, Training und auch überprüfbare Formate, etwa Kampagnen und Tests. Gleichzeitig muss man die Realität im Unternehmen berücksichtigen: Mitarbeitende haben unterschiedliche Rollen, unterschiedliche digitale Vorerfahrung und vor allem einen klaren Arbeitsauftrag. Sicherheit steht oft im Spannungsfeld zur Nutzbarkeit. Deshalb ist aus meiner Sicht entscheidend, wirksame Maßnahmen so umzusetzen, dass sie den Betrieb möglichst wenig behindern. Ein Beispiel ist Patchen: Eine kurze Zielvorgabe, etwa innerhalb weniger Tage, ist sinnvoll. Gleichzeitig kann man den Zeitpunkt eines Neustarts in vielen Fällen flexibel halten, damit Arbeitsabläufe nicht unnötig gestört werden.

heise online: Wie sieht Ihre operative Sicherheitsorganisation im Hintergrund aus?

Sitzler: Es gibt eine eigene Cyber Security Abteilung. Diese stellt neben der entsprechenden Governance ebenfalls Services wie Threat Intelligence & Posture Management, Cyber Defense und Security Architecture. Außerdem werden hier Maßnahmen zur weiteren Stärkung der Security Culture umgesetzt und mit regelmäßigen Trainings untermauert.

Zur Sicherstellung der Wirksamkeit unserer Bemühungen sind regelmäßige externe Auditierung (beispielsweise Red-Team-Assessment und PenTests) vorgesehen, da die interne Wahrnehmung von der Realität abweichen kann.

heise online: Wie bewerten Sie die aktuelle Bedrohungslage?

Sitzler: Sie ist aus meiner Sicht deutlich ernster geworden. Operativ hilft es nicht, in Alarmismus zu verfallen, aber man muss das Thema mit großem Respekt behandeln. Durch Large Language Models sinkt die Einstiegshürde für das Erstellen von Code erheblich. Früher scheiterte manches daran, dass Angreifende Skripte zumindest verstehen und anpassen mussten. Heute kann das durch generative Systeme deutlich schneller gehen. Wenn Angriffe stärker KI-gestützt stattfinden, wird die Verteidigung ebenfalls stärker KI-gestützt sein müssen, allein um Geschwindigkeit und Skalierung halten zu können.

Das Interview wurde auf der Tanium Converge 2025 geführt. Der Autor reiste auf Einladung von Tanium.


(bsc)



Source link

Künstliche Intelligenz

Zurechtfinden in Windows 11 – nicht nur für Windows-10-Umsteiger | c’t uplink


Wer jetzt von Windows 10 auf Windows 11 umsteigt, mag von Optik und Optionen abgeschreckt sein. Aber auch Langzeitnutzer von Windows 11 bekommen ständig Neuerungen untergeschoben. Im Podcast geht c’t-Redakteur und Windows-Experte Jan Schüßler ausführlich auf den aktuellen Entwicklungsstand ein und gibt viele Tipps, wie Sie sich Taskleiste, Startmenü, Datenschutzeinstellungen, Explorer und mehr individuell einstellen. Die Tipps sind daher nicht nur für Umsteiger von Windows 10 interessant, sondern auch, falls Sie auf der ewigen Baustelle Windows 11 gerade mal ein paar Wochen lang nicht in alle Konfigurationsfenster geschaut haben.

Weiterlesen nach der Anzeige


Logo mit dem Schriftzug "c't uplink – der Podcast aus Nerdistan"

Logo mit dem Schriftzug "c't uplink – der Podcast aus Nerdistan"

Den wöchentlichen c’t-Podcast c’t uplink gibt es …

Das Startmenü gibt es gerade in einer alten und neuen Version, Jan beschreibt die Unterschiede und wie Sie Nerviges abschalten. Auch die Taskleiste von Windows 11, anfangs von vielen als optionsarm empfunden, hat Angenehmes dazugelernt. Im Explorer ist wie schon immer bei Windows ratsam, die Dateiendungen anzuzeigen. Das neue Kontextmenü macht einiges besser, vieles langsamer oder schlechter, aber es gibt einen Weg zurück.

Zudem geben wir Tipps zu Zusatzfunktionen, sowohl mitgelieferten, die Sie nur – an der richtigen Stelle – installieren müssen, als auch welche aus dem Download-Store. Einige der Tools verursachen allerdings mehr Probleme, als sie nutzen. Als besonders hilfreich und gut integriert erweisen sich vor allem Microsofts eigene Tools, die Sysinternal Tools und die PowerToys.

Schließlich der Datenschutz: Die berüchtigte Telemetrie lässt sich recht einfach recht gründlich ausschalten, aber viele andere Einstellungen erfordern ebenfalls Aufmerksamkeit. Auch hier helfen Drittanbietertools nur eingeschränkt.

Zu Gast im Studio: Jan Schüßler
Host: Jörg Wirtgen
Produktion: Tobias Reimer

► Der c’t-Artikel zum Thema (Paywall):

Weiterlesen nach der Anzeige

Startmenü und Taskleiste:

Desktop und Explorer:

Zusatzfunktionen:

Datenschutz:

[Link auf

In unserem WhatsApp-Kanal sortieren Torsten und Jan aus der Chefredaktion das Geschehen in der IT-Welt, fassen das Wichtigste zusammen und werfen einen Blick auf das, was unsere Kollegen gerade so vorbereiten.

c’t Magazin
c’t auf Mastodon
c’t auf Instagram
c’t auf Facebook
c’t auf Bluesky
c’t auf Threads
► c’t auf Papier: überall, wo es Zeitschriften gibt!


(jow)





Source link

Weiterlesen

Künstliche Intelligenz

KI-Update Deep-Dive: Deutschlands Weg zur KI-Infrastruktur


Weiterlesen nach der Anzeige

Rechenzentren sind der Motor der aktuellen KI-Entwicklung, doch der Wettbewerb ist hart. Während US-Konzerne wie Amazon, Google, Meta und Microsoft zusammen rund 650 Milliarden Dollar in KI-Infrastruktur investieren wollen – eine Summe, die den deutschen Bundeshaushalt übersteigt – stellt sich die Frage, wie Deutschland in diesem Feld mithalten kann. Eine Antwort darauf soll der Bau heimischer Rechenzentren sein. Eines davon wurde in diesem Monat von der Telekom in München eröffnet. Christof Windeck, Redakteur beim c’t Magazin, war vor Ort und gibt in der neuen Folge des KI-Updates einen Einblick in die Pläne für den Standort Deutschland und die damit verbundenen Herausforderungen.

Die Telekom wirbt damit, dass Daten, die Kunden in dieser souveränen, deutschen KI-Cloud verarbeiten, vor dem Zugriff ausländischer Behörden geschützt seien. Das Rechenzentrum, das in Kooperation mit dem Chiphersteller Nvidia betrieben wird, soll im Endausbau mit rund 10.000 KI-Beschleunigern ausgestattet sein. Laut Telekom entspreche das dann „ungefähr 50 Prozent der gesamten KI-Rechenleistung, die derzeit in Deutschland verfügbar ist“, sagt Windeck. Das zeige jedoch vor allem, wie wenig öffentlich buchbare KI-Rechenleistung es in Deutschland bisher gibt.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO

Eine weitere Besonderheit ist der Standort. Das Rechenzentrum wurde in nur sechs Monaten in einem bestehenden, sechsstöckigen Keller eines ehemaligen Bankgebäudes im Münchner Tucherpark errichtet. Gekühlt wird es unter anderem mit Wasser aus dem nahegelegenen Eisbach, sagt Windeck. Ein Wehr staut den Eisbach, um das Kühlwasser für das unterirdische Rechenzentrum zu entnehmen, wobei gesetzliche Vorgaben zum Schutz der Umwelt eingehalten würden.

Die Telekom und Nvidia zielen mit dem Angebot nach eigener Aussage auf „Industrial AI“. Es gehe also nicht darum, große Sprachmodelle wie die von OpenAI zu entwickeln, sondern KI-Leistung für Industriepartner bereitzustellen. „Für diese europäischen oder auch deutschen Hersteller, die das mal nutzen sollen, kann eben auch diese digitale Souveränität sehr wichtig sein“, meint der c’t-Redakteur. Als möglicher Kunde war etwa Siemens bei der Eröffnung vertreten. Ein bereits konkretes Projekt ist die Initiative Soofi, die das Rechenzentrum für die Entwicklung eines souveränen europäischen Sprachmodells nutzen will. Dieses LLM soll europäischen Unternehmen als Basis für eigene KI-Anwendungen dienen. Im Vergleich zu anderen großen Sprachmodellen wie OpenAIs GPT-4 ist es aber deutlich kleiner mit nur einem Bruchteil der Parameter.

Ein zentrales Problem, das Windeck erklärt: „Es gibt einfach die Nachfrage in Europa überhaupt nicht.“ Viele deutsche Unternehmen seien noch zurückhaltend. Der Telekom-Vorstandsvorsitzende Tim Höttges habe bei der Eröffnung betont, man gehe bewusst „in Vorleistung“, um ein souveränes Angebot zu schaffen, nachdem sich viele Kunden über die Abhängigkeit von US-Anbietern beklagt hatten.

Weiterlesen nach der Anzeige

Laut Windecks Einschätzung verfolgt die Telekom mit dem schnellen Aufbau des Rechenzentrums auch ein strategisches Ziel: „Mit diesem Rechenzentrum bewirbt sich die Telekom natürlich“ um Fördermittel aus dem Programm der „European AI Gigafactories“, mit dem die EU den Aufbau von KI-Infrastruktur unterstützen will. „Mindestens eine muss nach Deutschland kommen“, zitiert Windeck den Telekom-Chef.

Im Vergleich zu anderen geplanten Projekten in Deutschland, wie dem der Schwarz-Gruppe (Lidl, Kaufland) im brandenburgischen Lübbenau mit 200 Megawatt, oder gar in den USA, wo von mehreren Gigawatt die Rede ist, sei das Münchner Rechenzentrum mit einer geplanten Leistung von bis zu 20 Megawatt eher klein. Zudem bauen auch die großen US-Anbieter wie Microsoft und Amazon ihre Kapazitäten in Deutschland massiv aus.

Das Konzept der „Industrial AI“ für spezialisierte Anwendungen im deutschen Mittelstand klingt zwar vielversprechend. Doch ob die Investitionen in die teure Infrastruktur sich am Ende auszahlen, ist ungewiss. Das grundlegende Problem fasst Christof Windeck zusammen: „Es bleibt eigentlich so, dass man nicht genau weiß, wer wie wirklich Geld damit verdienen kann, weil man noch nicht genau weiß, wer wie was tatsächlich dafür bezahlt.“ Solange erfolgreiche Anwendungsfälle und Geschäftsmodelle im Verborgenen bleiben, wird die Zukunft der souveränen KI-Infrastruktur in Deutschland ein Wettlauf mit vielen Unbekannten bleiben.


(igr)



Source link

Weiterlesen

Künstliche Intelligenz

VMware-Kosten: „1000 Prozent Druck – es könnte deinen Job kosten“


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die befürchtete Massenflucht von VMware-Kunden ist ausgeblieben. Laut einer aktuellen Umfrage von CloudBolt, die im Januar 2026 unter 302 IT-Entscheidern in nordamerikanischen Unternehmen mit mindestens 1000 Mitarbeitern durchgeführt wurde, haben bislang nur 4 Prozent ihre VMware-Infrastruktur vollständig abgelöst. Allerdings reduzieren 86 Prozent der Befragten aktiv ihren VMware-Einsatz – Broadcoms Übernahme und die damit verbundenen Änderungen haben also dennoch negative Auswirkungen.

Weiterlesen nach der Anzeige

Die Studie, die zwei Jahre nach der Broadcom-Übernahme eine Bestandsaufnahme vornimmt, offenbart eine klare Diskrepanz zwischen Erwartung und Realität. Während 2024 noch 73 Prozent der Befragten eine Kostenverdopplung oder mehr befürchteten, erlebten tatsächlich nur 14 Prozent Preissteigerungen von über 100 Prozent. Die Mehrheit (59 Prozent) verzeichnete Erhöhungen im Bereich von 25 bis 49 Prozent. Allerdings berichteten IT-Verantwortliche in Einzelfällen von extremen Steigerungen zwischen 350 und 700 Prozent.

Besonders deutlich werden die Auswirkungen bei europäischen Cloud-Anbietern. Zum Beispiel hat der EU-Cloudverband CISPE Preissteigerungen von 800 bis 1500 Prozent dokumentiert. Broadcom hatte nach der Akquisition die Lizenzpolitik grundlegend umgestellt: Perpetual Licenses wurden abgeschafft, stattdessen gibt es nur noch Subscription-Modelle mit gebündelten Produkten und Core-basierter Abrechnung.

Die Gründe für den ausbleibenden Massenexodus sind vielfältig. 25 Prozent der Befragten nennen die Komplexität und das Risiko einer Migration als Haupthindernis, 23 Prozent verweisen auf unerwartet hohe Kosten. Weitere 21 Prozent stoßen auf technische Limitierungen. Die typische Dauer für das Auflösen von Abhängigkeiten wird mit 18 bis 24 Monaten angegeben. Beispielhaft zitiert die Studie einen IT-Leiter mit den Worten: „Der Prozess, ein Jahrzehnt an Prozessabhängigkeiten aufzulösen, dauert 18 bis 24 Monate.“

Von den Unternehmen, die Workloads migriert haben, wechselten 72 Prozent zu Public-Cloud-IaaS-Angeboten. Hyper-V und Azure Stack kamen auf 43 Prozent, SaaS-Lösungen auf 34 Prozent. Als Alternativen zu VMware werden vor allem Nutanix AHV, Proxmox VE, Red Hat OpenShift Virtualization (KVM), Harvester von SUSE und OpenStack genannt. Bemerkenswert: 63 Prozent der Befragten haben ihre VMware-Strategie seit der Akquisition mindestens zweimal geändert.

Ebenfalls bemerkenswert: 60 Prozent der Befragten berichten von einem höheren Vertrauen in ihre VMware-Strategie im Vergleich zu 2024. Die Studie interpretiert das als Übergang von Panik zu pragmatischer Ausführung – eine Art Akzeptanzphase nach anfänglichem Schock. Während 2024 noch 46 Prozent die Broadcom-Übernahme als extrem oder sehr störend empfanden, sind es 2026 nur noch 25 Prozent.

Weiterlesen nach der Anzeige

Allerdings hat sich der Druck aus der Führungsetage erhöht: 41 Prozent berichten von gestiegenem Engagement von CEO und CFO in VMware-Entscheidungen. Die Virtualisierungsstrategie ist damit zum Board-Level-Thema geworden. Ein IT-Verantwortlicher beschrieb den Druck drastisch: „1000 Prozent Druck – es könnte deinen Job kosten.“

Die Studie kommt zu dem Schluss, dass Broadcom bewusst mit Kundenabwanderung kalkuliert und stattdessen die Margen bei den verbleibenden Kunden maximiert. 85 Prozent der Befragten erwarten weitere Preiserhöhungen. Der langsame Exodus führt zu einem „Squeeze“: Da die Kundenbasis schrumpft, werden die Preise für die Verbleibenden weiter steigen. Gartner prognostiziert einen Rückgang des VMware-Marktanteils von rund 70 Prozent (2024) auf etwa 40 Prozent (2029).

Neue Herausforderungen entstehen durch die zunehmende Multi-Plattform-Komplexität: 52 Prozent der Befragten sehen darin ein Problem, 33 Prozent beklagen fehlendes Know-how in ihren Teams. Gleichzeitig berichten 65 Prozent von einem verbesserten Risikoprofil durch die Diversifizierung ihrer Infrastruktur. Details zu allen erhobenen Daten finden sich bei CloudBolt.


(fo)



Source link

Weiterlesen

Beliebt