Connect with us

Apps & Mobile Entwicklung

Synology-SSDs für NAS: Händler verlangen für 1,6 TB und PCIe 3.0 satte 620 Euro


Synology-SSDs für NAS: Händler verlangen für 1,6 TB und PCIe 3.0 satte 620 Euro

Bild: Synology

Neue M.2-SSDs von Synology finden ihren Weg in den Handel. Das Spitzenmodell der Serie SNV5400 bietet 1,6 TB Speicherplatz und 3.000 MB/s beim Lesen über PCIe 3.0. Die Technik ist in Zeiten von PCIe 5.0 längst nicht mehr aktuell. Dennoch werden extrem hohe 620 Euro verlangt. Für neue NAS wird das sogar zur Pflicht.

Schon länger bietet Synology sowohl Festplatten (HDDs) als auch SSDs unter dem eigenen Logo an, die eigens für die NAS-Systeme des Herstellers bestimmt sind. Ab den NAS der 25-Plus-Serie (z.B. DS925+) macht Synology sogar zertifizierte Laufwerke zur Pflicht – bisher sind das nur die eigenen. Nur über Umwege können SSDs und HDDs von Drittanbietern eingesetzt werden.

SNV5400 nutzt immer noch PCIe 3.0

Auf die SNV3400 SSD lässt Synology die Serie SNV5400 für das Enterprise-Segment folgen. Diese reicht nun von 400 GB über 800 GB bis 1.600 GB (1,6 TB). Mehr Leistung gibt es mit den größeren Modellen, doch bleibt die Technik altbacken: Die SSDs nutzen noch PCIe 3.0 x4, während die SSD-Branche gerade dabei ist, PCIe 4.0 durch PCIe 5.0 als neuen Standard zu ersetzen. Mit maximal 3.000 MB/s beim Lesen und 1.000 MB/s beim Schreiben wird aber nicht einmal PCIe 3.0 x4 ausgereizt. Zu den verbauten Komponenten gibt es keine Angaben.

Preise jenseits von Gut und Böse

Auch wenn diese Leistung für den Einsatz im NAS genügen mag, sind die Preise dafür schon als „frech“ anzusehen. Satte 208 Euro werden im Online-Handel für die SNV5420 mit 400 GB verlangt, das sind umgerechnet 520 Euro pro TB, während es „normale“ SSDs für unter 100 Euro pro TB gibt. Eine für den NAS-Einsatz bestimmte WD Red SN700 mit 1 TB kostet zum Beispiel nur 80 Euro. Beim 800-GB-Modell sind es 335 Euro oder 420 Euro pro TB und beim neuen Flaggschiff mit 1,6 TB sind es 620 Euro mit im Vergleich fast günstigen 390 Euro pro TB.

Laufwerkszwang lässt sich umgehen

Kunden erhalten zum hohen Preis die Gewissheit, dass diese SSDs in den NAS des Herstellers problemlos funktionieren, sowie eine gehobene Schreibgarantie (TBW). Bei den neuen NAS der Plus-Serie von Synology werden offiziell zertifizierte SSDs des Herstellers praktisch zur Pflicht, dafür genügen aber auch die SNV3410 mit 400 GB ab 149 Euro. Und die Laufwerksanforderung lässt sich aushebeln: Sie basiert auf einer Kompatibilitätsdatenbank, die sich wiederum per Skript um ein gewünschtes Laufwerk erweitern lässt. Das Ganze geschieht natürlich auf eigene Gefahr und ohne Sicherheit, dass es dauerhaft funktioniert, bietet mit Hinblick auf die hohen Preise für Synologys Enterprise-SSDs und HDDs aber großes Einsparpotenzial.

  • Synology sperrt NAS-Laufwerke: Was noch funktioniert und wie man es umgeht



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Apps & Mobile Entwicklung

Mafia X Bioshock Bundle: Humble bündelt zwei Serien voller Action-Klassiker


Mafia X Bioshock Bundle: Humble bündelt zwei Serien voller Action-Klassiker

Humble Bundle schnürt zwei Klassiker-Serien zu einem Bundle. Das „Mafia X Bioshock Bundle“ enthält genau das, was der Name verspricht: Alle Spiele der Serien Mafia und Bioshock, fast alle als Komplettpaket in den jeweils jüngsten Fassung.

Für 8,71 Euro werden Spieler in ein Utopia geschickt. In der Unterwasserstadt Rapture aus Bioshock 1 sehen Spieler, wie sich eine Gesellschaft entwickelt, die dem Individuum und der Wissenschaft jede Freiheit lässt – ungeachtet moralischer oder sozialer Regeln. In Teil 2 wird gezeigt, welche Konsequenzen ein auf die Spitze getriebener Kollektivismus haben kann.

Bioshock Infinite schickt hingegen in die fliegende Stadt Columbia, wo eine Gesellschaft nach Maßstäben des Amerikanischen Exzeptionalismus gestaltet wurde. Alle Spiele werfen zudem immer wieder die Frage auf, inwieweit Entscheidungen wirklich eigenständig getroffen werden – und ob der Wille tatsächlich frei ist. Die Verbindung aus spannender Erzählebene und packendem Gameplay, das auf eine Mischung aus Waffen und „Magie“ setzt, macht die Titel zu Klassikern.

Im Paket befinden sich die Remaster der ersten beiden Bioshock-Spiele. Infinite wurde nicht neu aufgelegt und ist nur in der Basisversion enthalten. Die gelungene, zweiteilige Story-Erweiterung Burial at Sea müssen Spieler bei Bedarf deshalb separat kaufen. Wer die Serie nicht kennt, bekommt für rund 9 Euro allerdings auch so eine Menge günstiger und exzellenter Unterhaltung.

15 Euro für Mafia

Für 15,69 Euro liegt außerdem die komplette Mafia-Serie in der Definitive Edition im Paket. Die Bezeichnung ist allerdings irreführend. Bei Mafia: Definitive Edition (Test) handelt es sich um ein hervorragendes Remake, das packende Unterhaltung mit einer Story in den 1920er-Jahren im Stil des Paten bietet. Die offene Welt ist dabei eine reine Kulisse. Die Mafia 2 Definitive Edition (Test) ist hingegen lediglich ein Remaster, das das Original aufhübscht, aber nicht komplett neu denkt und baut. Trotzdem unterhält auch Vito Scalettas Reise in die Mafia der 1950er und 1960er-Jahre.

Die Definitive Edition von Mafia 3 ist hingegen nur ein Komplettpaket, das Hauptspiel und alle DLCs zusammenschnürt. Der Teil gilt aufgrund seines durchschnittlichen Open-World-Konzepts als der schwächste der Reihe, bewahrt sich aber die Urstärke der Reihe: Eine dichte Atmosphäre, hier in den 1970er-Jahren. Die Bündelung von Mafia hat dabei einen Hintergedanken: Die Serie wird noch in diesem Jahr mit The Old Country in Sizilien, der Heimat der Mafia, fortgesetzt, welches Anfang der 1900er-Jahre angesiedelt ist.

Gekauft werden kann das Bundle noch rund 10 Tage lang über die Humble-Webseite.



Source link

Weiterlesen

Apps & Mobile Entwicklung

AMDs Prozedurale Synthese: Bäume Rendern neu gedacht


Forscher der Hochschule Coburg haben zusammen mit Mitarbeitern von AMD ein neues Verfahren zum Echtzeit-Rendern von Bäumen entwickelt, das den Bedarf an Texturen im VRAM extrem reduziert. Genutzt wird dabei das Konzept der prozeduralen Synthese um die Bäume in all ihren Eigenschaften komplett in Echtzeit zu erstellen.

Die Arbeit wurde kürzlich auf der Konferenz „High Performance Graphics 2025“ (PDF) vorgestellt. Die prozedurale Synthese (englisch: „procedural generation“) ermöglicht es, die Bäume in all ihren Eigenschaften komplett von einem Algorithmus in Echtzeit zu erstellen, ohne dass zuvor erstellte Texturen in den VRAM geladen werden müssen. Dabei werden praktisch alle relevanten Parameter berücksichtigt, die sich ein Entwickler wünschen könnte und nebenbei benötigt der Algorithmus noch verblüffend wenig Rechenzeit, um eine dichte Vegetation zu erschaffen.

Prozedurale Synthese ist keine neue Methode und wird bereits seit Jahrzehnten benutzt, um einzelne Aspekte von Videospielen mit minimalem Speicherbedarf zu erstellen. Beispiele sind die Schusswaffen im 2009 erschienen Borderlands, derer 17 Millionen Stück per prozeduraler Synthese erstellt werden. Auch No Man’s Sky nutzt die Methode für die Erstellung der vielen Planeten samt Flora und Fauna, um die mit über einer Trillion möglicher Planeten beworbenen „endlosen Weiten“ darstellen zu können.

Das Vorgehen ist dabei im Prinzip einfach: Anhand sorgfältig definierter Parameter, denen der Spieleentwickler nach Wunsch Werte zuweist, wird beim Start des Spiels die Landschaft synthetisiert. Das passiert nicht zufällig, sondern immer gleich, so dass der Entwickler die Kontrolle über alle Eigenschaften der Landschaft behält. Allerdings können die Werte, die einzelnen Teilen der Landschaft zugewiesen werden, vom Zufallsgenerator erstellt werden.

Mit der prozeduralen Synthese geht immer einher, dass VRAM eingespart wird, weil vorgefertigte Texturen durch die Synthese ersetzt werden. Das macht die Methode für Videospiele besonders interessant.

Was ist neu am Ansatz von AMD?

Bäume werden heutzutage bereits prozedural synthetisiert, der Vorgang benötigt pro Baum aber mehrere Sekunden und wird deshalb im Vorhinein für mehrere Level of Details (LOD) pro Baum erstellt und als Satz von Texturen abgespeichert. Im Spiel werden dann lediglich die Texturen geladen, für den einzelnen Baum muss nichts mehr berechnet werden. Da bei Grafikkarten die Größe und Geschwindigkeit des VRAMs in den letzten Jahren langsamer wuchs als die Rechenleistung, ist die Auslagerung der Arbeit in den VRAM aber immer weniger sinnvoll. Moderne, hochdetaillierte Spielewelten müssen im Gegenteil besonders sparsam mit VRAM-Belegung und Bandbreite umgehen.

Der Ansatz von AMD ist nun Entwicklern einen Baukasten zur prozeduralen Synthese von Bäumen zur Verfügung zu stellen, der nahezu alle Anwendungsfälle abdeckt und dadurch universell und besonders einfach zu benutzen ist. Der Ansatz basiert auf einem verhältnismäßig einfachen Modell für die Synthese von Stämmen und Zweigen von 1995, das durch zahlreiche Eigenschaften erweitert wurde um vollkommen realistische Bäume zu erzeugen. Mit mehreren graphischen Optimierungen wurde die Rechenzeit im Anschluss soweit reduziert, dass Echtzeit-Rendering möglich wird.

Hohe Realitätsnähe bei Form, Rinde und Blättern

Das Modell erzeugt Stamm und Zweige in maximal vier Stufen, wobei Stufe 0 der Stamm ist und jede weitere Stufe dünnere abzweigende Äste erzeugt. Zusätzlich kommen als letzte Stufe die Blätter hinzu, die ursprünglich als Textur vorgesehen waren. Ein vertikaler Parameter erlaubt außerdem noch das Wachsen in Richtung Sonne beziehungsweise den Einfluss der Schwerkraft zu modellieren.
Von den Forschern um AMD wurde das klassische Modell um folgende Fähigkeiten erweitert: Die Darstellung von Blättern, Nadeln, saisonalen Veränderungen, gestutzten Ästen sowie Animationen (zum Beispiel bei Wind), weiche Übergänge an den Stämmen und prozedural erzeugte Höhenunterschiede auf der Oberfläche.

Um die Oberfläche der Bäume besonders realistisch zu gestalten, wird zuerst die Form des Baums geglättet. Denn da die Geometrie der Stämme beziehungsweise Äste mit sehr wenig Parametern definiert wird, ist sie verhältnismäßig grob. Das Modell interpoliert diese grobe Oberfläche als kubisch hermiteschen Spline, um nahtlose Übergänge zu ermöglichen.
Gleichzeitig gibt es einen aufwendigen Mechanismus, um Baumrinde realistisch darzustellen. Dazu wird unter Anderem auf Tesselation zurückgegriffen, allerdings wird zuvor aufwendig geprüft, welche Tesselation-Faktoren notwendig sind und wie stark diese genutzt werden müssen. Geht man nahe an einen Baum heran, wird die tesselierte Rinde durch eine mit prozedural erzeugten Höhenunterschieden geformte ersetzt. Das Verfahren wird als Summe bekannter Methoden nur kurz beschrieben, aber das Ergebnis ist definitiv beeindruckend.

Die interpolierte Baumoberfläche wird mit Worley-Rauschen und Perlin-Rauschen strukturiert.
Die interpolierte Baumoberfläche wird mit Worley-Rauschen und Perlin-Rauschen strukturiert. (Bild: Hochschule Coburg)

Für die Blätter wird ebenfalls auf umfangreiche Technik zurückgegriffen, um bei der Realitätsnähe keine Wünsche offen zu lassen. Der Entwickler definiert lediglich eine Blatthälfte mit drei Koordinaten und eine Anzahl von Lappen, aus denen sich das Blatt zusammensetzt. Der Algorithmus trianguliert daraus die Form und erstellt dynamisch ein LOD, das zur Distanz zwischen Blatt und Betrachter passt. Der Übergang zwischen verschiedenen LODs ist damit nicht mehr stufenweise, sondern nahtlos.
Geht man sehr nahe an ein Blatt heran, werden Parameter für die Blattadern, die Dicke des Blatts und dessen Oberfläche genutzt, um prozedural eine detaillierte Darstellung zu erzeugen. Bei Nadelbäumen werden diese Blattader-Parameter als Nadeln interpretiert.

Blattadern bzw. Nadeln sind vom Entwickler anpassbar.
Blattadern bzw. Nadeln sind vom Entwickler anpassbar. (Bild: Hochschule Coburg)

Saisonale und physikalische Veränderungen

Wer der Meinung ist, dass mit Stamm, Zweigen und Blättern alles getan ist, greift zu kurz. Das neue Modell unterstützt außerdem noch die Veränderungen der Bäume mit den Jahreszeiten, Animationen zur Interaktion mit Wind sowie weitere Anpassungen.
Für die Jahreszeiten gibt es einen eigenen Parameter, der automatisch die Anwesenheit von Blättern (Winter vs. Sommer) sowie deren Anzahl (graduelles Fallen der Blätter im Herbst) steuert.

Im Winter fehlen Blätter, während die Nadeln eine gefrorene Oberfläche bekommen. Schnee auf den Ästen wird per Höhenunterschied in vertikaler Richtung eingestellt, wobei die zugewonnene Oberfläche die Materialeigenschaften (Farbe, Verhalten) von Schnee bekommt. Gleichzeitig wird der Parameter für die Schwerkraft erhöht, so dass sich Zweige nach unten biegen.
Im Frühling werden Blüten synthetisiert, die mit dem gleichen Algorithmus wie Blätter, aber mit mehr Lappen und in Ringform, erzeugt werden. Im Sommer wird eine zufällige Menge der vorher erschienenen Blüten zu Früchten, die eine tesselierte Oberfläche erhalten. Neben dem Verschwinden von Blättern ändert sich im Herbst auch deren Farbe graduell. Die Blätter verschwinden dabei nicht gleichzeitig sondern bekommen zufällig einen zeitlichen Versatz zugewiesen.

Benchmarkszene im Sommer.
Benchmarkszene im Sommer. (Bild: Hochschule Coburg)
Benchmarkszene im Herbst.
Benchmarkszene im Herbst. (Bild: Hochschule Coburg)
Benchmarkszene im Winter.
Benchmarkszene im Winter. (Bild: Hochschule Coburg)

Bewegung im Wind in Abhängigkeit von Windstärke und -Richtung wird beim Erzeugen des Baums berechnet. Dazu werden alle synthetisierten Elemente vom Wind weggedreht, wobei die Drehung chaotisch oszilliert, um die Dynamik der Bewegung darzustellen. Die Stärke der Oszillation hängt von Länge und Dicke der Äste ab.

Vergleich verschiedener Windgeschwindigkeiten über 10 Sekunden.
Vergleich verschiedener Windgeschwindigkeiten über 10 Sekunden. (Bild: Hochschule Coburg)

Als letzte Qualitätsmaßnahme können Äste per Raytracing Algorithmus einen Strahl in Wachstumslänge aussenden. Trifft der Strahl in kurzer Distanz auf ein Objekt, wird der Ast entsprechend gekürzt. Dadurch wird verhindert, dass Bäume durch andere Objekte durchgehen, das sogenannte Clipping.

Wie funktioniert das in Echtzeit?

Um effizientes Rendern dieser Bäume zu ermöglichen, werden zwei neue Funktionen von DirectX 12 benutzt: Work Graphs und dessen Funktion Mesh Nodes, die beide erst 2024 vorgestellt wurden. Work Graphs beschreibt die Möglichkeit, dass eine Rechenaufgabe (Shader) selbstständig neue Aufgaben erzeugt. Dadurch sind weniger Umwege zur CPU zur Abfrage neuer Befehle notwendig und die GPU wird in gewisser Weise autonom. Das hat Vorteile bei rekursiven Strukturen oder wenn man einen Teil der Grafik bis zu einem gewünschten Detaillevel Stück für Stück aufbauen möchte.

Dabei wird hier besonders clever vorgegangen: Um Overhead zu vermeiden wird nicht jeder Teil des Baums in einen eigenen Shader gepackt, sondern Aufgaben werden so gebündelt, dass die typischen 32 Werte pro Befehlskette (Wave32) erfüllt werden. Analog wird bei der Berechnung der Blätter vorgegangen, so dass genug Blätter pro Befehl berechnet werden müssen um die Rechenwerke auszulasten.

Diese Work Graphs waren bislang nur innerhalb von Compute-Aufgaben möglich. Zur Nutzung im Umfeld der Spielegrafik benötigte es also eine zusätzliche Funktion, die das Ergebnis entgegen nahm und an den Rasterizer zur Bildausgabe schickte. Für kleinteilige Aufgaben gab es dadurch zusätzlichen Overhead. Mesh Nodes setzt an der Stelle an und ermöglicht es, einem autonom aufgerufenen Shader direkt Ergebnisse an den Rasterizer zu schicken.

Bevor Teile eines oder ein ganzer Baum synthetisiert werden, wird Culling durchgeführt. Culling ist eine Prüfung, ob die zu erstellenden Objekte im Sichtfeld des Betrachters liegen. Ist das nicht der Fall, wird das Objekt übersprungen. Das Ganze geschieht als generationenübergreifendes Culling, das heißt alle nachfolgenden Teile werden bei der Prüfung berücksichtigt, damit nicht eine Blattspitze am Ende doch sichtbar wäre und so Lücken beim Überspringen entstehen könnten. Das Culling erlaubt so die volle Bildtreue bei gleichzeitig gesparten Ressourcen.

Bei den Blättern, die zahlenmäßig sicher am meisten vorhanden sind, wird aggressiv das oben beschriebene, nahtlose LOD angepasst. Ist der Betrachter sehr weit weg, wird automatisch die Anzahl der gezeigten Blätter reduziert, um Rechenaufwand zu sparen. Damit der Unterschied nicht auffällt, werden die Blätter, die auch bei großer Distanz stehen bleiben, langsam größer während die, die verschwinden, langsam kleiner werden. Bei Blättern mit mehreren Lappen verschmelzen diese mit wachsender Distanz zu einem.

Als Letztes wird zum Erreichen einer bestimmten Framerate eine dynamische Detailstufe ähnlich wie die Algorithmen für Super Resolution von AMD und Nvidia vorgeschlagen. Diese ist allerdings nicht pixelbasiert, sondern das LOD der Bäume wird nahtlos von Frame zu Frame innerhalb vom Entwickler vorgegebener Grenzen hoch- beziehungsweise heruntersetzt. Die einzelnen Parameter, die sich in der Qualität ändern dürfen, können priorisiert werden, so dass die unwichtigsten Details zuerst reduziert werden. Die maximale Änderungsrate der Darstellungsqualität kann ebenfalls festgelegt werden, um abrupte Qualitätsverluste zu vermeiden.

Das Demobeispiel im Video

Die Forscher haben eine Benchmarkszene mit 1.200 Bäumen, die den Park Ørstedsparken in Kopenhagen nachbildet, erstellt. Sie wurde auf einer AMD Radeon RX 7900 XTX gerendert. Im Video zeigen sie diese sowie die verschiedenen Funktionen des Tools.

Der Benchmark wird von den Forschern abschließend umfassend analysiert. Um zu zeigen, wie viel VRAM eingespart wurde, rechnen die Forscher vor, dass eine vergleichbare Szene aus statischen Texturen knapp 35 GiB an Speicher belegen würde. Zusätzlich genutzte Features wie mehrere LODs, saisonale Veränderungen und Wind würde die Menge weiter erhöhen. Die Parameter, aus denen die gesamte Szene prozedural synthetisiert wurde, benötigen aber nur 51 KiB. Das sind etwa 704 Bytes pro Baum.
Die Forscher erwähnen allerdings auch, dass die komplexen Shaderstrukturen insbesondere beim Work Graph zusätzlich 1,5 GiB an Speicher verbrauchen. Dieser Speicherbereich steht nach dem Renderschritt zwar wieder zur Verfügung, ganz so enorm wie anderswo berichtet ist die Ersparnis an VRAM aber nicht.

Frametimes in der Benchmarkszene.
Frametimes in der Benchmarkszene. (Bild: Hochschule Coburg)

An Geschwindigkeit mangelt es der Szene nicht. Im Durchschnitt werden nur 3,13 ms gebraucht, um die Bäume komplett zu erstellen. Mit Geometrie-Buffer und Schatten werden es 4,72 ms. Die gesamte Szene mit Gras, Umgebungsverdeckung, Reflexionen und TAA benötigt 7,74 ms und liegt damit unterhalb der 8,33 ms, die für eine Framerate von 120 Hz zur Verfügung stehen. Allerdings wird das je nach Komplexität der Szene über- beziehungsweise unterschritten. Wird hingegen das automatische LOD aktiviert, bleibt die Bildrate auch in den schwierigsten Szenen bei 120 Hz, bei entsprechenden Detailverlusten.

Fazit

Schon mehrfach wurden in der Vergangenheit einzelne Aspekte eines Videospiels mit Prozeduraler Synthese erstellt. Der hier von den Forschern der Universität Coburg und AMD gewählte Weg, Bäume komplett prozedural erzeugbar zu machen, ist neuartig, da den Spieleentwicklern direkt ein Tool zur Verfügung gestellt wird. Die Bäume belegen im Anschluss kaum noch Platz im VRAM, nur während der Berechnung wird welcher benötigt. Dabei läuft zumindest die von den Forschern gezeigte Benchmarkszene mit dutzenden Bäumen gleichzeitig im Blickfeld sehr flüssig.

Wie ist nun die Qualität der erstellten Bäume? Zugegeben ist die Darstellung stellenweise noch durchwachsen. Beim Betrachten des Demovideos fällt mehrfach auf, dass insbesondere die Blätter auf mittlerer Distanz recht zweidimensional wirken. Viele Bäume in größerer Distanz wirken dagegen überzeugend, ebenso wie einzelne Elemente von nahem, wenn die höchste Detailstufe greift. Deswegen scheint es dem Autor wahrscheinlich, dass letzten Endes eine Kombination aus prozeduraler Synthese und vorgefertigten Texturen in Zukunft zum Einsatz kommen wird. So könnten einzelne Bäume noch mit Texturen bedacht werden, während größere Ansammlungen mit AMDs neuem Ansatz schlank und schnell berechnet werden.

Dieser Artikel war interessant, hilfreich oder beides? Die Redaktion freut sich über jede Unterstützung durch ComputerBase Pro und deaktivierte Werbeblocker. Mehr zum Thema Anzeigen auf ComputerBase.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Weitere Konzernumbauten: Intels Chefstratege verlässt das Unternehmen schon heute


Weitere Konzernumbauten: Intels Chefstratege verlässt das Unternehmen schon heute

Bild: Intel

Nicht nur einfache Angestellte werden bei Intel entlassen, auch Führungspositionen werden neu besetzt. Intels Chief Strategy Officer (CSO) Safroadu Yeboah-Amankwah geht überraschend schon heute, nachdem er rund fünf Jahre im Unternehmen war. Seine strategischen Ansichten teilt der neue CEO offensichtlich nicht mehr.

Vorerst liegt der Fokus auf Gesundschrumpfen

Safroadu Yeboah-Amankwah war bei Intel für das Ausloten von Wachstumsmöglichkeiten auf verschiedenen Wegen – einschließlich Partnerschaften, aber auch Investments und Übernahmen – zuständig. Er konnte die letzten Jahre keine nennenswerten Erfolge vermelden.

Darüber hinaus entspricht der Ansatz nicht mehr der neuen Linie des CEO, der den Konzern zunächst verschlanken und den Fokus auf das Kerngeschäft zurückführen will, anstatt neue Geschäftsfelder in Angriff zu nehmen. Schon sein Vorgänger Gelsinger hatte damit begonnen und viele Geschäftsbereiche geschlossen oder abgegeben.

Bevor Yeboah-Amankwah zu Intel kam, war er 26 Jahre bei McKinsey & Company angestellt, wo er primär im Bereich Telekom, Multimedia und Technologie tätig war. Mit einem Abschluss in Electrical Engineering and Computer Science vom MIT war er letztlich auch für den Posten der weiterführenden Strategie bei Intel geeignet.

Viele von Intels jüngsten Fehlschlägen haben ihren Ursprung allerdings schon in Entscheidungen, die noch weiter zurückliegen; wie beispielsweise die Probleme im AI-Geschäft. Adressiert hat Intel diese aber auch in den letzten fünf Jahren kaum, ein grundlegender Wandel war bislang nicht erkennbar.

Sachin Katti, zuletzt zum CTO und AI-Chef beförderter Intel-Manager, soll diese Aufgaben nun primär mit übernehmen. Intel Capital, der Investment-Arm des Konzerns, wird direkt an Intel-CEO Lip-Bu Tan berichten. Dieser Zweig investiert vor allem in Startups und Unicorns, was sich langfristig für das Unternehmen auszahlen könnte.

Der Umbau ist in vollem Gang

Zuletzt überschlugen sich die Ereignisse bei Intel. Ende April hatte Intels CEO Lip-Bu Tan die Belegschaft auf weitere personelle Einschnitte vorbereitet, nachdem zuvor bereits von einer Entlassungswelle die Rede war, die bis zu 20 Prozent der Belegschaft treffen könnte. Intels CEO sprach damals selbst davon, dass die Entlassungen im zweiten Quartal beginnen würden.

Und genau das wird nun umgesetzt. In den Fabriken müssen bis zu 20 Prozent des Personals gehen, das Intel-Marketing wird künftig in großen Teilen von der Beraterfirma Accenture und Künstlicher Intelligenz übernommen. Auch in den Führungsebenen kam es zu zahlreichen Wechseln, einige langjährige Führungskräfte gingen, neue kamen hinzu. Zuletzt hieß es, die Automotive-Sparte werde ebenfalls abgewickelt.



Source link

Weiterlesen

Beliebt