Connect with us

Künstliche Intelligenz

Infrastruktur-Markt: IaaS für KI-Workloads wird „disruptiver Wachstumsmotor“


Die KI-optimierten Infrastrukturservices entwickeln sich laut Gartner „zum nächsten disruptiven Wachstumsmotor“ im Markt für Infrastruktur. Die Analysten der US-Marktforschungsfirma schätzen, dass die weltweiten Ausgaben der Endnutzer für KI-optimierte Infrastructure as a Services (IaaS) bis Ende 2025 um 146 Prozent auf insgesamt 18,3 Milliarden US-Dollar steigen. Für 2026 wird eine Verdopplung des Marktvolumens auf voraussichtlich 37,5 Milliarden Dollar prognostiziert.

Weiterlesen nach der Anzeige

Das Wachstumstempo verliert in den nächsten Jahren zwar an Fahrt und soll 2029 nur noch bei 34 Prozent bei einem Volumen von knapp 109 Milliarden Dollar liegen. Die Zuwachsquoten der gewöhnlichen IaaS-Ausgaben werden damit aber noch immer deutlich übertroffen. Der Anteil der Investitionen in KI-optimierte Infrastrukturservices an den gesamten Infrastrukturausgaben soll sich in diesem Jahr voraussichtlich auf knapp neun Prozent verdoppeln. Bis 2029 erwarten die Marktforscher einen Anstieg auf knapp 22 Prozent.

„Da Unternehmen ihre KI- und GenAI-Anwendungen zunehmend ausweiten, benötigen sie spezialisierte Infrastrukturen wie GPUs, Tensor Processing Units (TPUs) oder andere KI-ASICs, ergänzt durch Hochgeschwindigkeitsnetzwerke und optimierte Speicherlösungen für schnelle parallele Verarbeitung und effiziente Datenübertragung“, deutet Gartner-Analyst Hardeep Singh das Marktgeschehen. Mit klassischen, auf CPUs basierenden IaaS-Angeboten sei es zunehmend schwieriger, diesen Anforderungen gerecht zu werden.

Mit der zunehmenden Verbreitung der künstlichen Intelligenz in allen Branchen entwickeln sich nach Beobachtungen der Marktforscher insbesondere die Inferenz-Workloads zu einer dominierenden Kraft hinter der anziehenden Nachfrage. Laut Prognose werden im Jahr 2026 die Investitionen für Inferenz-fokussierte Anwendungen mit 20,6 Milliarden Dollar einen Anteil von 55 Prozent an allen Ausgaben für KI-IaaS erreichen. Bis 2029 soll die Quote auf über 65 Prozent ansteigen.

„Im Gegensatz zum Training, das intensive, großangelegte Rechenzyklen während der Modellentwicklung und laufenden Aktualisierungen erfordert, findet die Inferenz kontinuierlich statt“, erläutert Singh, warum die Aufwendungen für die Anwendung der Modelle etwa für Empfehlungsmaschinen oder Betrugserkennungssysteme, die des Trainierens übertreffen.

Weiterlesen nach der Anzeige


(axk)



Source link

Künstliche Intelligenz

TDWI München 2026: Vorträge für die Konferenz zu Data, Analytics und KI gesucht


Vom 23. bis 25. Juni 2026 findet die TDWI München statt. Die Konferenz hat sich als Wissensdrehscheibe und Netzwerkplattform für die Daten-Community etabliert.

Weiterlesen nach der Anzeige

Bis Ende Januar 2026 sucht der Veranstalter heise conferences nach Vorträgen für die TDWI München zu Themen von Datenarchitektur und Strategie über Data Science und KI bis zur Datenkultur.

Ein Programmbeirat aus Fachexpertinnen und -experten kuratiert das Programm und sucht aus den Einreichungen etwa 120 Vorträge für die TDWI München aus.

Der Call for Contributions ist bis zum 26. Januar 2026 geöffnet. Die Konferenz bietet zwölf thematische Tracks. Als neue Schwerpunkte kommt 2026 Industrial Data & AI hinzu. Daneben gibt es unter anderem folgende Tracks:

  • Data Architecture
  • Data Management
  • Data Culture
  • Data Science & AI
  • Data Strategy & Data Governance
  • Self-Service BI & Analytics
  • Branchentrack Finanzindustrie

Projekterfahrungen und -berichte sind ebenso gewünscht wie Trends und Ausblicke zu den Themen der TDWI München. Wer mit einem Vortrag auf der Konferenz dabei sein möchte, aber noch keine Speaker-Erfahrung hat, hat die Chance, auf einen Mentor aus der Community zurückzugreifen.

Anwenderstorys sind besonders gern gesehen. Die Programmgestalter freuen sich zudem über Vorträge zu innovativen Formaten. So gab es in den letzten Jahren beispielsweise eine Chess Clock Debate und ein Dashboard-Karaoke.

Weiterlesen nach der Anzeige


(rme)



Source link

Weiterlesen

Künstliche Intelligenz

Missing Link: Hubble Deep Field – ein Foto und seine Geschichte


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Das Bild war eine Sensation: Fast sechs Tage lang hatte das Hubble Space Telescope aus der Milchstraße in einen Bereich des Sternenhimmels außerhalb der Milchstraße gespäht. Von der Erde aus betrachtet, galt dieser Himmelsbereich als leer.

Weiterlesen nach der Anzeige

Die US-Raumfahrtbehörde NASA musste liefern. Das damals neue Weltraumteleskop drohte zu einem Millionen US-Dollar teuren Flop zu werden: Der Bau hatte sich verzögert, der Start nach der Explosion des Space Shuttle Challenger 1986 ebenfalls. Als es 1990 endlich im All war, kam die große Enttäuschung: Die Optik hatte einen gravierenden Fehler, die Bilder, die das Teleskop lieferte, waren unbrauchbar.




Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Um das Hubble-Teleskop trotzdem nutzen zu können, ließ die NASA eine Korrekturlinse anfertigen, die ein Space Shuttle Ende 1993 zu dem Teleskop brachte, das zu dem Zeitpunkt schon mehr als drei Jahre in Orbit herumdümpelte. In mehreren Außeneinsätzen setzten die Thomas Akers, Jeffrey Hoffman, Story Musgrave und Kathryn C. Thornton Hubble eine neue Brille auf.

Endlich funktionierte das Teleskop – und jetzt musste es liefern. Und es lieferte: Das Bild des vermeintlich leeren Himmelsbereichs zeigte Millionen von Sternen in tausenden Galaxien, von denen einige noch aus der Frühzeit des Universums stammen. Das „Hubble Deep Field“ ist heute eines der ikonischsten Fotos der Weltraumforschung, das unseren Blick auf das Universum verändert hat und zu dem mehrere hundert Fachartikel veröffentlicht wurden.


Das Hubble Deep Field aus dem Jahr 1995

Das Hubble Deep Field aus dem Jahr 1995

Das Hubble Deep Field aus dem Jahr 1995

(Bild: NASA)

Genauso interessant wie das Foto selbst und die wissenschaftlichen Erkenntnisse daraus ist allerdings seine Entstehungsgeschichte. Hier war weniger die Wissenschaft als vielmehr mangelndes Qualitätsmanagement in einem US-Raumfahrtunternehmen sowie die US-Finanzpolitik in Person eines späteren Friedensnobelpreisträgers involviert. Und diese Geschichte ist mindestens so spannend wie die wissenschaftlichen Entdeckungen, die später aus dem Foto folgten.

Weiterlesen nach der Anzeige

Rückblick: Es ist das Jahr 1975. Nachdem die Idee eines weltraumgestützten Teleskops seit fast drei Jahrzehnten diskutiert wird und auch bereits Satelliten mit kleineren Teleskopen in der Umlaufbahn operieren, legt die NASA dem US-Haushaltsausschuss eine Budgetanfrage von 400 Millionen US-Dollar vor, heute wären das über 2 Milliarden US-Dollar. Damit wollte die US-Raumfahrtbehörde den Bau eines „Large Space Telescopes“ mit einem Spiegel von 3 Metern Durchmesser finanzieren. Das Projekt wurde jedoch als „zu teuer“ abgelehnt.

Die NASA überarbeitete die Pläne und verkleinerte den Durchmesser des Hauptspiegels (und damit die Größe des Teleskops) auf 2,4 Meter. So konnte das benötigte Budget halbiert werden. Das Geld wurde 1977 bewilligt, sodass die NASA in den folgenden Monaten die einzelnen Komponenten beauftragen konnte.

1978 wurde dann der Auftrag für den Hauptspiegel des Teleskops an das US-Unternehmen PerkinElmer vergeben. Beim Bau kam ein neues, lasergestütztes Schleifverfahren zum Einsatz. PerkinElmer setzte dabei auch ein für das neue Verfahren angepasstes Messgerät, einen sogenannten „Null-Korrektor“, ein. Bedingt durch Zeit- und Kostendruck wurde der neue Korrektor vor dem Einsatz nicht getestet und validiert. So bemerkte niemand, dass durch eine fehlerhafte Konstruktion eine Linse des Messsystems um 1,3 mm versetzt saß. Da es bei PerkinElmer zu einer Reihe von Versäumnissen in der Qualitätssicherung kam, blieb der Fehler zunächst unbemerkt. Neben der fehlenden Validierung wurden später noch eine ganze Reihe weiterer Versäumnisse entdeckt.



Source link

Weiterlesen

Künstliche Intelligenz

ThinkBook Plus G6: Notebook mit ausrollbarem OLED-Bildschirm im Test


Lenovos ThinkBook Plus G6 Rollable ist ein Hingucker, weil es nur auf den ersten Blick ein normales Notebook ist. Drückt man eine Sondertaste neben F12, so fährt das Notebook seinen Bildschirm motorisiert nach oben aus. Er gewinnt dadurch in etwa nochmal die Hälfte an zusätzlicher Höhe. Das funktioniert dank eines flexiblen OLED-Displays.

Anders als herkömmliche Monitore benötigt es keinen mehrlagigen Schichtaufbau mit starrer Hintergrundbeleuchtung, sondern lässt sich auf flexiblen Folien fertigen. Gerätehersteller benutzen diese technische Besonderheit für Smartphones mit faltbaren Displays, aber auch für Gaming-Bildschirme, die man jederzeit zwischen planer und gekrümmter Oberfläche umbauen kann. Das ThinkBook Plus G6 Rollable hat auch keine nervige Unterbrechung der Bildfläche, die man bei bisherigen Dual-Display-Notebooks zwangsläufig antrifft.

Anders als dort muss man obendrein keine Kompromisse bei den Eingabegeräten hinnehmen. Sie sind in gängiger Position fest im Rumpf verbaut: Tastatur hinten, Touchpad mittig davor. Dies ist bei Notebooks mit ungewöhnlichen oder mehreren Bildschirmen keinesfalls selbstverständlich. Dort sind abnehmbare Bluetooth-Tastaturen gängig oder welche, die ganz nach vorne gezogen sind und die Handballenablage verdrängen.


Das war die Leseprobe unseres heise-Plus-Artikels „ThinkBook Plus G6: Notebook mit ausrollbarem OLED-Bildschirm im Test“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Beliebt