Connect with us

Künstliche Intelligenz

Cloud-Markt: Gartner prognostiziert Billion US-Dollar bis 2027


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Gartner sieht den weltweiten Cloud-Markt weiter im Aufwind. Bis 2027 soll er auf eine Billion US-Dollar ansteigen. Allerdings wird es massive Änderungen geben, die auf eine zunehmende KI-Nutzung zurückzuführen sind. So soll bis 2030 KI in über 90 Prozent der Cloud-Strategien integriert sein, gegenüber weniger als zehn Prozent heute.

Weiterlesen nach der Anzeige

Gartner-Analyst Milind Govekar sieht hierbei zwei Entwicklungen: „Es wird bei den Cloud-Providern zwei unterschiedliche Investitionsmodelle geben. Das eine setzt auf einen stark vertikal integrierten Stack, wie bei Google, also von der CPUs bis hin zur KI-Ebene. Der andere ist modular und partnerorientiert.“ Als Beispiel verweist er auf die Kooperation von Microsoft mit OpenAI, um eine breite Palette an KI-Funktionen abzudecken: von den GPUs und CPUs bis hin zu den KI-Features. Diese unterschiedlichen Modelle haben weitreichende Konsequenzen für die KI-Nutzung aus der Cloud. Der vertikal integrierte Technologie-Stack bietet hohe Kosteneffizienz, eine gute Leistungsoptimierung und die Kontrolle über den gesamten Technologie-Stack. Oder besser gesagt: Der Anbieter hat die Kontrolle. Der modulare, partnerorientierte Ansatz bietet dagegen mehr Flexibilität, verkürzt die Markteinführung und ermöglicht mehr Innovationen.

Govekar ging dabei der Frage nach, um welche Innovationen es sich hierbei handelt. „Im Wesentlichen sind das paketbasierte Komponenten mit branchenspezifischen Lösungen“, lautet seine Einschätzung. Folglich meint er, dass es einen deutlichen Anstieg von Cloud-Services geben wird, die in traditionelle Branchen expandieren. Hierzu verweist er auf den Banking-Service von AWS in den USA und die HealthCare-Services von Google.
Das alles basiert auf drei umfangreichen Ressourcen: Erstens, einer komplexen Kerninfrastruktur aus Netzwerk, Rechenleistung, Speicher, KI-Modellen und der entsprechenden Support-Software. Dazu gehört auch eine leistungsstarke Dateninfrastruktur, die es ermöglicht, riesige Datenmengen aus verschiedenen Bereichen zu erfassen und für Training und Inferenz zu nutzen. Zweitens, die Kompositionsmöglichkeiten mit Cloud-nativen Technologien, wie Containern, die für die Entwicklung und den Einsatz von KI-Agenten verwendet werden. Und drittens, die Fähigkeit, schnell paketbasierte Komponenten (PBCs) zu erstellen, Marktplätze und Branchen-Clouds zu schaffen und branchenspezifische Funktionen bereitzustellen, die von anderen Anbietern und Nutzern kombiniert und zu eigenen Diensten erweitert werden können.

Viele Cloud-Provider würden massiv in diese Bereiche investieren. Als Beispiel dafür sieht Govekar die Automotive-Cloud-Lösungen in Deutschland. Diese Entwicklung wird sich auch im Markt widerspiegeln: „Wir gehen davon aus, dass der Anteil branchenspezifischer KI-Systeme zur Unterstützung kritischer Geschäftsziele bis 2030 auf etwa 80 Prozent ansteigen wird – von derzeit unter zehn Prozent“, so seine Prognose. Govekar meint auch, dass diese KI-Systeme autonome Entscheidungen treffen und Aufgaben orchestrieren. Wobei sich die Skalierbarkeit der Rechenressourcen in der Cloud als äußerst nützlich erweist, da hierbei große Mengen unternehmensweiter Daten erfasst und für die autonomen Entscheidungen bereitgestellt werden müssen.

Diese Entwicklungen haben aber auch eine Reihe an Problemen – beispielsweise bei den Cloud-Kosten: „Die meisten agentenbasierten KI-Workloads werden mithilfe von Containern bereitgestellt. Ich habe oft gesehen, dass diese Container um bis zu 70 Prozent überdimensioniert sind – was viel Geld kostet“, weiß Govekar aus seinen Kundenkontakten zu berichten. Sein Fazit: „Unternehmen, die ihre zugrunde liegende KI-Computerumgebung nicht optimieren, werden bis 2030 50 Prozent mehr bezahlen als die Konkurrenz.“

Ein weiteres Problem ist der Energiebedarf für KI. Lineare Extrapolationen, die einen extremen Energiebedarf vorhersagen, gibt es viele. Doch Govekar ist skeptisch: „Die Umsätze mit traditionellen Servern verlaufen flach, wogegen sich die Umsätze von KI-optimierten Servern vervielfachen, was eine deutlich höhere Energie-Effizienz bedeutet“, so seine Einschätzung. Trotzdem geht auch er davon aus, dass sich der Energiebedarf bis 2030 mehr als verdreifachen wird. Das könnte seiner Ansicht nach zu größeren politischen Verwerfungen führen. „In den Niederlanden, Großbritannien und anderen Ländern weigern sich die Wasserversorger bereits, die Rechenzentren mit Kühlung zu versorgen. Viele Bürger in der EMEA-Region sagen: ‚Ich will dieses Rechenzentrum nicht, weil es den Strom für die Neubauten verbraucht.‘“ Das hat direkte Folgen für die Energieplanung der IT. „Bis 2030 werden die Unternehmen, denen es nicht gelingt, die zugrunde liegende KI-Rechenumgebung zu optimieren, 50 Prozent mehr bezahlen als diejenigen, die dies tun“, lautet die entsprechende Gartner-Prognose.

Weiterlesen nach der Anzeige

Ein besonders großer Unsicherheitsfaktor bei der weiteren Cloud-Entwicklung ist das Thema digitale Souveränität. Govekar bestätigt das: „Digitale Souveränität ist in Europa ein äußerst brisantes Thema, viele Unternehmen sind besorgt um ihre Datensouveränität und fragen: Wo werden meine Daten gespeichert und wer hat darauf Zugriff?“ Das sei insbesondere bei Rüstungsunternehmen zu beobachten. In vielen Fällen nutzen diese zwar die Kerninfrastruktur eines Cloud-Providers, setzen aber zusätzlich auch einen lokalen TK-Anbieter ein, über den eine souveräne Datenverwaltungsschicht implementiert wird. Häufig würde anstelle von Internet- oder WLAN-Technologie die Mobilfunktechnologie genutzt, da sie sicherer sei als das Internet. Und im Zuge des 5G-Ausbaus würde diese Kommunikation zunehmend an Bedeutung gewinnen.

Insgesamt sind sich die Gartner-Analysten uneins, wie sie mit dem Thema digitale Souveränität umgehen sollen. Während Govekar eine pragmatische Einschätzung hat, die sich vor allem auf besonders sensitive Bereiche wie die Rüstungsindustrie beschränkt, ist sein Kollege René Büst sehr skeptisch. „Bei der Cloud-Nutzung ist die geopolitische Lage eine der größten Sorgen der IT-Entscheider“ sagte er in einer Pressekonferenz. Viele CIOs und IT-Leiter wollen aufgrund der geopolitischen Situation künftig verstärkt lokale oder regionale Cloud-Anbieter nutzen. Namentlich werden hier OVH, Telekom, noris network, StackIT und Ionos genannt.

Was Deutschland betrifft, so ergab eine Gartner-Umfrage in sieben großen europäischen Ländern, dass das Thema in Deutschland nicht so hoch wie erwartet angesiedelt ist. Die Frage „Geopolitische Faktoren werden die zukünftige Nutzung lokaler/regionaler Cloud-Anbieter durch unsere Organisationen erhöhen“, wurde in UK und Frankreich zu 69 Prozent mit Ja beantwortet. Deutschland landete mit 51 Prozent nur auf Platz fünf. Auch die vielzitierte Präferenz für Open Source ist in Deutschland vergleichsweise gering. Die Frage „Geopolitische Bedenken haben Open Source zu einem wichtigeren Kriterium bei der Auswahl neuer Cloud-Lösungen gemacht“, wurde in Uk und Frankreich zu 63 Prozent mit Ja beantwortet – Deutschland lag mit 35 Prozent auf dem letzten Platz der Skala.

Auch andere Untersuchungen ergeben ein uneinheitliches Bild. IDC kommt in einer Studie zu dem Ergebnis, dass 60 Prozent der europäischen Unternehmen eher souveräne Cloud-Lösungen einsetzen wollen. Doch das bezieht sich ausschließlich auf „KI-Workloads“ – nicht auf die Cloud-Nutzung als Ganzes. Interessant ist hierzu auch eine Bitkom-Untersuchung. Darin geben 97 Prozent der befragten Unternehmen an, dass das Herkunftsland bei der Auswahl des Cloud-Anbieters eine Rolle spielt. Doch diese Zustimmungen schwinden, wenn es um die Leistung des Providers geht. Sollte die Nutzung eines lokalen Providers Einbußen bei der Responsezeit, bei der Funktionsvielfalt, beim Preis oder beim Service bewirken, so würden sich 65 Prozent nicht dafür entscheiden.

Und letztlich gibt auch ein Blick auf die Cloud-Umsätze keine verlässlichen Hinweise. Zwar steigen diese in Europa an – aber das gilt für die gesamte Welt. Wie viel von diesem Plus auf den Wechsel von US-Providern zurückzuführen ist, bleibt unklar. „Marktseitig dominieren in Europa weiterhin Hyperscaler aus den USA“, lautet die Einschätzung des eco-Verbandes. „Die EU-Anbieter halten seit Jahren einen konstanten Anteil von 15 Prozent“, so der Verband weiter.

Im engen Zusammenhang mit der Souveränität wird häufig der Trend zur Repatriierung gesehen. Wobei sich das auch auf andere Cloud-Probleme wie Kosten, proprietäre Nutzungsformen oder Antwortzeiten beziehen kann. Hierzu haben die Gartner-Analysten eine klare Meinung: „Cloud Repatriierung ist kein Makrotrend“, sagte Ted McHugh gleich zu Beginn seiner Präsentation. Seiner Ansicht nach ist das ein Marketing-Gag der On-Premises-Infrastruktur-Anbieter, der von den Medien aufgegriffen wurde und überproportional dargestellt wird.

Zwar bestätigt McHugh, dass es viele solcher Fälle gibt, doch die Gründe dafür sind kein generelles Cloud-Problem – und schon gar kein Problem der Souveränität. „Die häufigsten Gründe für eine Rückführung von Anwendungen seien ähnlich zum Edge Computing: Autonomie, Latenz, effizientes Datenmanagement oder Anwendungen, die nicht für die Cloud entwickelt wurden“, so seine Einschätzung.

Zu guter Letzt gaben die Gartner-Analysten auch ein paar Ratschläge, wie die IT-Verantwortlichen ihre Infrastruktur verbessern können: Erstens, Erstellen einer Kosten-Nutzen-Analyse der aktuellen Infrastrukturoptionen. Zweitens, Identifikation von den Bereichen, in denen Änderungen der Bereitstellungsstile und der Infrastruktur die Rendite verbessern würden. Drittens: Den Einsatz von FinOps- und Kostenoptimierungstools prüfen und Business Cases für die erforderlichen Änderungen erstellen. Viertens, alle Risiken und Kosten berücksichtigen, die im Zusammenhang mit Geolocation- und Souveränitätsanforderungen stehen. Das Ergebnis sollte ein Konzept für eine Unternehmens-optimale Infrastruktur sein, die alle Einsatzmöglichkeiten von Cloud- über Edge-Computing bis hin zu Colocation, diversen Services sowie traditionelle On-Premises-Lösungen berücksichtigt.


(fo)



Source link

Künstliche Intelligenz

KI verdrängt Einstiegsjobs: Diesen Preis zahlen Firmen für ihre Einsparmaßnahmen


Immer mehr Unternehmen übertragen Aufgaben, die früher von Berufsanfängern übernommen wurden, auf KI-Systeme. Die Folgen sind nicht nur für junge Akademiker spürbar. Auch erfahrene Fachkräfte leiden zunehmend unter der neuen Arbeitssituation. Fast Company hat mit einem Softwareentwickler gesprochen, der diesen Wandel selbst miterlebt hat.

Weiterlesen nach der Anzeige

Der 33-jährige Entwickler Isaac, der gegenüber Fast Company nur unter einem Pseudonym sprechen wollte, arbeitet seit vier Jahren bei einem großen Tech-Unternehmen. Anfang 2025 stellte er fest, dass immer weniger Einstiegspositionen ausgeschrieben wurden. Tätigkeiten wie das Schreiben und Testen von Code, die Fehlerbehebung oder die Mitarbeit an Entwicklungsprojekten, die zuvor von Junioringenieuren erledigt wurden, landeten zunehmend bei erfahreneren Mitarbeitern – offenbar in der Erwartung, dass KI den zusätzlichen Arbeitsaufwand kompensieren könne.

Zwar habe KI die Geschwindigkeit bei der Entwicklung von Code und neuen Features erhöht, so Isaac. Gleichzeitig fehlten jetzt aber Mitarbeiter, die Aufgaben wie Design, Testing oder die Abstimmung mit Stakeholdern übernehmen könnten – Bereiche, in denen KI bislang keine Hilfe sei. „Die älteren Mitarbeiter sind ausgebrannt, und wenn sie gehen, gibt es keine Eile, sie zu ersetzen, denn ‚die KI wird das schon machen‘!“, berichtet der Entwickler. Er selbst sucht inzwischen nach einer neuen Stelle, bevorzugt bei einem kleineren Tech-Unternehmen.

Der Wandel auf dem Arbeitsmarkt ist inzwischen klar erkennbar. Noch vor wenigen Jahren bemühten sich viele US-Unternehmen gezielt um die Gen Z: Sie investierten in aufwendige Kampagnen, um Nähe zu jungen Menschen zu demonstrieren, und warben mit flexiblen Arbeitszeiten sowie Wellness-Angeboten um Nachwuchstalente. Teilweise holten Unternehmen sogar Vertreter der Gen Z in ihre Führungsgremien, um ihnen Einfluss auf Unternehmenskultur und -strategie zu geben. Mit dem rasanten Aufstieg von KI hat sich das allerdings grundlegend verändert.

Praktika, Einstiegsjobs und Juniorpositionen sind schon seit mehreren Jahren rückläufig – nicht zuletzt aufgrund von Kostendruck und Sparmaßnahmen. Laut einer Auswertung von Kickresume suchen in den USA rund 58 Prozent der Absolventen auch ein Jahr nach ihrem Abschluss noch nach ihrem ersten Job. In Deutschland zeigt sich ein ähnliches Bild: So hat eine Stepstone-Analyse ergeben, dass die Zahl der ausgeschriebenen Einstiegsstellen im ersten Quartal 2025 45 Prozent unter dem Fünfjahresdurchschnitt lag.

Weiterlesen nach der Anzeige

„Während es in den Fachberufen eine stetige Einstellung oder sogar ein Wachstum gibt, sehen wir einen deutlichen Rückgang der offenen Stellen für Berufseinsteiger in den Bereichen Technik, Kundenservice und Vertrieb“, sagt Mona Mourshed, Gründerin der gemeinnützigen Organisation Generation, die sich für berufliche Entwicklung einsetzt. Der Negativtrend könnte sich weiterhin fortsetzen: Laut einer Auswertung der British Standards Institution geben zwei Fünftel der weltweit führenden Unternehmen an, schon Einstiegspositionen aufgrund von Effizienzgewinnen durch KI reduziert zu haben. Weitere 43 Prozent erwarten das auch für 2026.

Eine Asana-Studie weist zusätzlich auf die wachsende „Effizienzillusion“ hin: Zwar setzen 77 Prozent der Beschäftigten schon KI-Agenten ein und gehen davon aus, dass ihnen künftig noch mehr Aufgaben übertragen werden. Gleichzeitig halten aber fast zwei Drittel von ihnen die Tools für unzuverlässig und mehr als die Hälfte gibt an, dass KI-Agenten mit Sicherheit falsche oder irreführende Informationen liefern. Die Folge: Fachkräfte verbringen immer mehr Zeit damit, KI-Fehler zu korrigieren, während kaum neue Talente nachrücken, die systematisch angelernt werden können. Angesichts des Renteneintritts der Babyboomer wirkt diese Entwicklung besonders problematisch.

Dieser Beitrag ist zuerst auf t3n.de erschienen.


(jle)



Source link

Weiterlesen

Künstliche Intelligenz

Digital Health: DMEA findet ab 2027 in München statt


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Weiterlesen nach der Anzeige

Die Digital-Health-Messe DMEA findet ab April 2027 auf dem Gelände der Messe München statt. Das haben der Bundesverband Gesundheits-IT (bvitg) und die Messe München bekannt gegeben. Europas Treffpunkt für die digitale Gesundheitsversorgung wechselt damit nach mehreren Jahren von Berlin in die bayerische Landeshauptstadt. Ziel der Kooperation ist es, die DMEA weiter wachsen zu lassen und internationaler auszurichten. Als Termin ist der 13. bis 15. April 2027 vorgesehen. Der neue Standort soll laut den Veranstaltern insbesondere Raum für weiteres Wachstum sowie neue Veranstaltungs- und Kongressformate bieten.

„Mit diesem Messestandort schaffen wir nichts weniger als das Epizentrum der digitalen Gesundheitsversorgung in Europa. Industrie, Forschung und Selbstverwaltung bündeln hier ihre Kompetenzen gezielt zum Vorteil der Kunden und Patienten – für Innovationen, die Standards setzen und Märkte entscheidend wie nachhaltig prägen“, sagt Matthias Meierhofer, Vorstandsvorsitzender des bvitg.

Nach Angaben des bvitg ist der Standortwechsel eine Reaktion auf die dynamische Entwicklung der Messe in den vergangenen Jahren. Die DMEA habe sich von einer nationalen Leitveranstaltung zu einem zunehmend europäischen Branchentreff entwickelt. München biete hierfür eine leistungsfähige Messe- und Kongressinfrastruktur sowie eine hervorragende internationale Erreichbarkeit. Der Standortwechsel soll die DMEA als zentralen Marktplatz für digitale Gesundheitslösungen weiter stärken.

München gilt laut Veranstaltern als einer der bedeutendsten Technologie- und Gesundheitsstandorte Europas mit einer hohen Dichte an Kliniken, Forschungseinrichtungen, Universitäten, MedTech-Unternehmen und Start-ups. Diese Nähe zu Wissenschaft und Industrie soll künftig stärker in das Messe- und Kongressprogramm integriert werden. Die inhaltliche Ausrichtung der DMEA bleibe dabei unverändert. Auch am neuen Standort soll die enge Verzahnung von Politik, Industrie, Forschung und Anwendern im Mittelpunkt stehen.

Weiterlesen nach der Anzeige

In Berlin soll die entstehende Lücke durch eine neue Veranstaltung geschlossen werden. Die Messe Berlin will gemeinsam mit dem Branchenverband Bitkom die Smart Health Conference für 2027 ausrichten. Sie soll im bisherigen Zeitfenster der DMEA stattfinden und sich als neue, ebenfalls international ausgerichtete Plattform für Digital Health positionieren.

Lesen Sie auch

KI-Update kompakt: Google Cloud Next, WordPress, KI in Arztpraxen, Trump-Kritik


KI Update Logo

KI-Update kompakt: Metas Llama 4, Midjourney V7, NotebookLM, DMEA


DMEA-Schriftzug auf dem Rücken einer Person. Davor ist ein Kreis mit Personen, die Fragen an eine bestimmte Person haben.

Themen der DMEA: Implantierte Chips, KI, elektronische Patientenakte und mehr


KI-Update Deep-Dive: Künstliche Intelligenz auf der DMEA


KI-Update kompakt: KI in ePA, EU-Wahl, Groks Fake News, Adobe Firefly


(mack)



Source link

Weiterlesen

Künstliche Intelligenz

Wie man mit Spectre Cloud-Systeme angreift


Angriffe auf Lücken wie Spectre prägen seit Anfang 2018 die Sicherheitsforschung. Doch nach anfänglich großer Aufregung in der IT-Sicherheits-Community fragen sich heute viele, ob die kontinuierlich erscheinenden neuen Varianten noch praktische Relevanz haben oder rein akademische Experimente sind.

Spectre ist eine architektonische Schwachstelle moderner Prozessoren. Die beherrschen „spekulative Befehlsausführung“, bei der die CPU rät, welcher Befehl wohl als Nächstes kommt, und damit beginnt, diesen auszuführen, bevor die Befehlsfolge feststeht. Das dient der Leistungsoptimierung, kann aber von Angriffen wie Spectre ausgenutzt werden: Mit Code, der die Sprungvorhersage gezielt manipuliert, veranlassen Angreifer die CPU dazu, sensible Daten aus geschützten Speicherbereichen vorübergehend zu verarbeiten und über Seitenkanäle wie den CPU-Cache preiszugeben.

  • Spectre ist ein jahrealtes, aber immer noch viel untersuchtes Architekturproblem.
  • Angriffe lassen sich nicht nur unter Laborbedingungen, sondern auch praktisch auf produktiv genutzter Hardware durchführen.
  • Gegenmaßnahmen kosten Geld oder Leistung oder beides, was ihre Umsetzung einschränkt.

Nun liegt in Szenarien, die eine lokale Code-Ausführung erfordern, oft bereits eine kritische Kompromittierung vor, und der darauf aufbauende Angriff ist sinnlos. Ihre volle Schlagkraft entfalten solche Angriffe jedoch in Cloudumgebungen. Hier teilen sich durch Virtualisierung verschiedene Mandanten dieselbe physische Hardware. Theoretisch gewährleistet die Virtualisierung eine strikte Trennung dieser Workloads. In der Praxis demonstrierten Forscher jedoch wiederholt, dass die Isolation durch Cache-Timing-Seitenkanäle unterlaufen werden kann. Dies ermöglicht es, sensible Informationen über VM-Grenzen hinweg aus eigentlich isolierten Instanzen zu extrahieren.


Das war die Leseprobe unseres heise-Plus-Artikels „Wie man mit Spectre Cloud-Systeme angreift“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Beliebt