Künstliche Intelligenz
Micron baut Speicherwerk für 24 Milliarden US-Dollar, aber über 10 Jahre
Auf Milliardeninvestitionen in New York folgen weitere Milliarden in Singapur: Micron kündigt eine Erweiterung seines dort vorhandenen Standorts zur Produktion von NAND-Flash-Speicher für SSDs an. Rund 24 Milliarden US-Dollar sollen in ein neues Halbleiterwerk in Singapur fließen. Das entspricht aktuell umgerechnet gut 20 Milliarden Euro.
Weiterlesen nach der Anzeige
Erneut liegt die Krux beim Zeitplan: Micron gibt nicht direkt Vollgas, sondern plant die Investitionen über einen Zeitraum von zehn Jahren. Erste NAND-Flash-Chips sollen in der zweiten Jahreshälfte 2028 vom Band rollen. Bis die Serienproduktion läuft, könnte es allerdings noch länger dauern. Das neue Halbleiterwerk ist final für 65.000 Quadratmeter Reinraumfläche ausgelegt.
Wenig in Stein gemeißelt
Je nachdem, wie sich die aktuelle Speicherkrise entwickelt, könnte Micron die Baupläne auch noch nach hinten schieben. „Micron wird bei der Steuerung des Kapazitätsausbaus in der neuen Anlage flexibel bleiben, um sich an die Marktnachfrage anzupassen“, heißt es in der Ankündigung.
Dieses Vorgehen zeigte sich bereits beim Ausbau im Onondaga County, in New York, USA. Im Herbst 2022 kündigte Micron dort Investitionen von 100 Milliarden Dollar über zehn Jahre hinweg an. Ein erstes Halbleiterwerk sollte 20 Milliarden Dollar kosten. 2025 verzögerte der Hersteller den Bau, 2026 beschleunigte er ihn wieder.
Aufgrund der Bauzeiten und der benötigten Zeit, um ein Halbleiterwerk nach der Fertigstellung hochzufahren, bringen die Ankündigungen keine kurzfristige Besserung der Speicherverfügbarkeit. Auch die Übernahme eines vorhandenen Halbleiterwerks resultiert erst 2027 in zusätzlicher Fertigungskapazität.
Die drei Speicher-Weltmarktführer SK Hynix, Samsung und Micron zeigen sich wegen des industriebekannten „Schweinezyklus“ bei kurzfristigen Neubauten zögerlich. Schon in der Vergangenheit kollidierten neue Halbleiterwerke mit einer abnehmenden Nachfrage, was in massiv sinkenden Speicherpreisen resultierte. 2023 mussten die Hersteller Speicherbausteine mit Verlust verkaufen.
Weiterlesen nach der Anzeige
(mma)
Künstliche Intelligenz
20 Jahre Amazon S3: Der goldene Käfig der Cloud-Ära
Amazon S3 löste 2006 ein echtes Problem. Storage-Beschaffung war teuer, langsam und riskant: Hardware bestellen, RAID konfigurieren, Kapazitäten planen, Backup-Strategien entwerfen – alles Monate bevor die erste Anwendung lief. S3 reduzierte das auf einen HTTP-Request. PUT, GET, fertig. Kein hoher Kapitaleinsatz, keine Vorabplanung, Abrechnung nach Verbrauch.
Weiterlesen nach der Anzeige
Das vereinfachte für Jungunternehmen den Start und war für Konzerne ein willkommener Weg, Investitionskosten in Betriebskosten umzuwandeln. Aber es war eben auch ein Tauschgeschäft: Kontrolle gegen Bequemlichkeit. Und wie bei den meisten Tauschgeschäften in der Tech-Branche merkten viele erst spät, was sie abgegeben hatten.
Die Zahlen beeindrucken – und verschleiern
AWS präsentiert zum Jubiläum stolz Kennzahlen, die zweifellos beeindrucken: über 200 Millionen Requests pro Sekunde, Hunderte Exabyte Daten, 123 Availability Zones, 39 Regionen. Die maximale Objektgröße ist von 5 GByte auf 50 TByte gewachsen, der Preis pro Gigabyte von 15 auf gut 2 US-Cent gefallen – ein Rückgang von 85 Prozent.
Was AWS nicht erwähnt: Die Hardwarekosten pro Gigabyte sind im selben Zeitraum um weit mehr als 85 Prozent gesunken. Die Preissenkungen spiegeln also zu einem erheblichen Teil die allgemeine Kostenentwicklung bei Speichermedien wider, nicht aber großzügigen Margenverzicht. Laut Analystenberichten operiert AWS insgesamt mit Betriebsmargen von über 30 Prozent – das dürfte für S3 genauso gelten.
Auch der Hinweis, Kunden hätten durch S3 Intelligent-Tiering kollektiv mehr als 6 Milliarden US-Dollar gespart, verdient einen zweiten Blick. Gespart im Vergleich wozu? Zum eigenen S3-Standard-Tarif, meint AWS. Das ist, als würde ein Automobilhersteller damit werben, dass Kunden Geld sparen, wenn sie das günstigere Modell kaufen. Die eigentliche Frage – ob dieselben Workloads bei alternativer Infrastruktur oder bei regionalen Cloud-Anbietern günstiger liefen – bleibt unbeantwortet.
Der API-Standard, den nur AWS kontrolliert
Die vielleicht folgenreichste Wirkung von S3 jedoch ist die Standardisierung. Das S3-API hat sich als Lingua franca für Objektspeicher durchgesetzt. MinIO, Ceph, Cloudflare R2, Wasabi, Backblaze B2 – sie alle implementieren S3-kompatible Schnittstellen für Objektspeicher. Auf den ersten Blick sieht das nach einem offenen Ökosystem aus. Auf den zweiten ist es das Gegenteil.
Weiterlesen nach der Anzeige
Denn das S3-API ist kein offener Standard. Es gibt kein Normungsgremium, kein RFC, kein Governance-Modell. AWS definiert die Spezifikation, AWS erweitert sie, AWS entscheidet, welche Features hinzukommen. Kompatible Anbieter laufen strukturell hinterher – sie können das Kern-API nachbauen, aber proprietäre Erweiterungen wie S3 Tables, S3 Vectors, S3 Metadata, Object Lambda oder Event Notifications in ihrer vollen Integration nicht replizieren.
Das Ergebnis ist ein Standard, der Portabilität suggeriert, aber nicht vollständig einlöst. Einfache PUT/GET-Workloads lassen sich tatsächlich gut migrieren. Aber wer S3-Events in Lambda-Funktionen verarbeitet, Lifecycle-Policies mit Glacier-Tiering kombiniert und Zugriffe über IAM-Policies steuert, hat kein Storage-Problem – er hat ein Plattform-Problem. Und genau das ist die Absicht.
Egress: Die unsichtbare Mauer
Über kaum ein Thema wird in der Cloud-Ökonomie so viel geklagt und so wenig gehandelt wie über Egress-Gebühren. AWS berechnet für den Datentransfer aus S3 heraus nach wie vor Gebühren, die in keinem nachvollziehbaren Verhältnis zu den tatsächlichen Transitkosten stehen. Zwar hat AWS die Preise punktuell gesenkt und bietet seit 2024 kostenlosen Egress für den Anbieterwechsel an – aber nur einmalig und nur für den vollständigen Abzug.
Für Unternehmen mit Hunderten Terabyte oder Petabyte in S3 ist die Rechnung schnell gemacht: Allein die Transferkosten für eine Migration können sechsstellige Beträge erreichen – bevor das erste Byte auf der neuen Plattform liegt. Das ist kein Bug, das ist ein Geschäftsmodell. Daten fließen günstig hinein – und teuer heraus.
Die Plattform-Wette: S3 als Datenmonopol
Die jüngsten Erweiterungen machen die strategische Richtung unmissverständlich. S3 Tables bringt verwaltete Apache-Iceberg-Tabellen direkt in den Speicherdienst. S3 Vectors liefert nativen Vektorspeicher für RAG-Anwendungen – laut AWS wurden in nur vier Monaten über 250.000 Indizes angelegt und mehr als eine Milliarde Abfragen ausgeführt. S3 Metadata eliminiert die Notwendigkeit, Buckets rekursiv zu listen.
Die Botschaft ist klar: Daten sollen in S3 gespeichert, in S3 abgefragt, in S3 analysiert und aus S3 heraus für KI-Modelle bereitgestellt werden. Ohne Kopien, ohne Zwischensysteme, ohne Umwege – und ohne Grund, die AWS-Plattform zu verlassen. Was AWS als Vereinfachung verkauft, ist eine vertikale Integration, die den Wettbewerb auf der Analyseschicht systematisch untergräbt. Warum sollte ein Unternehmen noch einen separaten Vektorspeicher evaluieren, wenn S3 Vectors zum S3-Preis mitgeliefert wird?
Fazit: Technisch brillant, strategisch kalkuliert
20 Jahre S3 sind eine technische Erfolgsgeschichte, an der es wenig zu deuteln gibt. Der Dienst hat Storage für Start-ups demokratisiert, eine API zum Branchenstandard gemacht und bewiesen, dass Rückwärtskompatibilität selbst über zwei Jahrzehnte funktionieren kann. Die Durability-Garantien sind real, die Skalierung ist beispiellos, das Engineering ist erstklassig.
Aber die Erfolgsgeschichte hat eine Rückseite, über die AWS verständlicherweise nicht spricht. S3 ist nicht nur ein Speicherdienst – es ist ein ökonomisches Gravitationsfeld, das Daten anzieht und nicht mehr loslässt. Der offene API-Standard ist keiner. Die Preissenkungen folgen der Hardware-Kurve, nicht der Großzügigkeit. Und jede neue Funktion – Tables, Vectors, Metadata – macht die Plattform nützlicher und den Ausstieg teurer.
Die IT-Branche hat sich in den vergangenen 20 Jahren sehenden Auges in diese Abhängigkeit begeben. Das war in vielen Fällen die rationale Entscheidung – die Alternative hieß eigene Infrastruktur mit allen Kosten und deutlich höheren Risiken. Aber rational und alternativlos sind zwei verschiedene Dinge. Wer heute seine Daten- und KI-Strategie auf S3 aufbaut, sollte zumindest wissen, dass er nicht nur einen Speicherdienst bucht. Er bucht eine Beziehung, aus der man nicht ohne Weiteres wieder herauskommt.
(fo)
Künstliche Intelligenz
Kommentar: Beim MacBook Neo muss man erstaunlich wenig Kompromisse machen
Ein portabler Mac für 700 Euro – und das in Zeiten der Inflation: Das hatten wohl die wenigsten Beobachter des IT-Marktes auf dem Zettel. Während es in der PC-Welt zu massiven Aufschlägen für RAM und SSDs kommt, gar die ganze Kategorie des Einsteiger-Notebooks vor dem Aus zu stehen scheint, kommt Apple einfach mal so mit einem MacBook Neo um die Ecke, bei dem Käufer erstaunlich wenige Kompromisse machen müssen. Im Gegenteil: Man hätte kaum erwartet, dass eine derartige Maschine zu diesem Preis denkbar ist – gerade bei Apple, wo man stets wie ein Luchs auf eine hohe Marge achtet.
Weiterlesen nach der Anzeige
Der Umkehrschluss ist wohl richtig: Nur Apple kann ein Gerät wie das MacBook Neo in dieser Qualität und mit diesen Features massenhaft bauen, die anderen können es einfach nicht, weil die Skaleneffekte fehlen. Der Konzern aus Cupertino hat etwa (nur für ihn dank Massenproduktion!) günstige iPhone-Chips in der Supply Chain, die viele x86-PCs locker toppen – und große Teile der ARM-Konkurrenz auch. Die werden dann eben im Neo verbaut und alle sind glücklich. Es ist denkbar, dass der Konzern auch so noch erstaunlich gut an dem Gerät verdient – und sei es vor allem indirekt durch bezahlte Dienste oder die Tatsache, dass Nutzer eine neue Einstiegsdroge ins Ökosystem bekommen.
An den richtigen Stellen gespart
Meine ersten Erfahrungen mit dem Neo sind sehr einfach auf den Punkt zu bringen: Das ist ein richtiger Mac, mit einer Hardwarestabilität, Geschwindigkeit und Nutzungsbequemlichkeit, wie man sie vor Jahren noch zum doppelten Preis (wenn nicht mehr) bekommen hätte. Einschränkungen gibt es genau an den Stellen, die die Zielgruppe – Mac-Neulinge – vermutlich eh nicht juckt: Bei den Ports (nur ein schneller USB-3-Anschluss, sonst USB 2.0), beim Trackpad (mechanisch statt rein haptisch, aber das macht überhaupt nichts, keiner baut bessere physische Trackpads als Apple) und beim Bildschirm (Features wie Farbtemperaturanpassung und Helligkeitssensor weggelassen).
Was mich hingegen nach den ersten Nutzungstagen überhaupt nicht stört, ist der geringe RAM-Ausbau von nur 8 GByte oder die vergleichsweise lahme SSD. Letztere merkt man fast nicht, weil sie eben nur im Vergleich zu den besseren Geräten langsam ist, bei normaler Nutzung für Alltagsarbeiten und Medienkonsum (und sogar kleinere bis mittelgroße Videoschnittprojekte) stört es nicht. Selbst bei vielen offenen Apps fällt das notwendige Swapping kaum auf.
Kein Wegwerfgerät
Das MacBook Neo ist also eine komplett ausreichende Maschine für Otto Normalnutzer. Hinzu kommt die Apple-typische Bauqualität. Da ruckelt nichts, das Alugehäuse in wirklich hübschen Farben (ich empfehle „Zitrus“) wirkt bombensicher, es gibt keine Spaltmaße und das Öffnen und Schließen des Displays ist äußerst befriedigend. Man kann das Neo wie jeden Mac auch mal kurz aufs Sofa werfen, es stört nicht. Auch die Tastatur ist gut (also nicht schlechter als bei einem Air oder gar Pro) und das Trackpad lässt sich oben wie unten beliebig klicken.
Weiterlesen nach der Anzeige

Mac & i-Redakteur Ben Schwan schreibt seit 1994 über Technikthemen und richtet sein Augenmerk mittlerweile insbesondere auf Apple-Geräte. Er mag das Design von Mac, iPhone und iPad und glaubt, dass Apple nicht selten die benutzerfreundlicheren Produkte abliefert. Immer perfekt ist die Hard- und Software-Welt aus Cupertino für ihn aber nicht.
Am auffälligsten ist am MacBook Neo, wie unauffällig es ist: Man nutzt es eben wie einen Mac, minus der Tatsache, dass es keinen Arm und kein Bein gekostet hat. (Und wer wirklich etwas mehr will, kauft eben für noch unter 1000 Euro ein MacBook Air M4 (ab 968,99 €), das gerade im Abverkauf ist.)
Heute kam dann noch bei ersten Teardowns heraus, dass Apple es geschafft hat, beim Neo auch die Reparatur deutlich zu vereinfachen. Es gibt keinerlei Vernagelung durch Kleber und Pull-Tabs, nur Schrauben, plus die Möglichkeit, selbst kleine Komponenten wie Ports oder Lautsprecher in wenigen Minuten zu tauschen. Das Neo ist also günstig, aber trotzdem kein Wegwerfgerät. Das ist doch mal eine schöne Kombination.
(bsc)
Künstliche Intelligenz
#TGIQF: Das Nerdquiz um den Ig-Nobelpreis
Eine Schlagzeile der Woche: Der IG-Nobelpreis zieht aus den USA in die Schweiz. Der Preis, der sich selbst nicht ganz ernst nimmt und dessen Verleihung „erst zum Lachen, dann zum Andenken anregen soll“, findet aufgrund der politischen Situation in den Vereinigten Staaten am 3. September 2026 in Zürich und erstmals außerhalb der USA statt.
Weiterlesen nach der Anzeige
Doch was ist der Ig-Nobelpreis? Seit 1991 werden die Preise alljährlich auf einer bunten Veranstaltung verliehen, in ähnlichen Kategorien wie die echten Nobelpreise. Mal legen die Veranstalter einen satirischen Fokus auf skurrile Forschungen, mal schwingt bei den Preisverleihungen auch Sarkasmus mit. Dennoch wird der Preis in der Wissenschafts-Community geschätzt: Die Preisübergabe erfolgt oftmals durch echte Nobelpreisträger.

„Thank God It’s Quiz Friday!“ Jeden Freitag gibts ein neues Quiz aus den Themenbereichen IT, Technik, Entertainment oder Nerd-Wissen:
In den vergangenen 35 Jahren fanden die Verleihungen stets in Massachusetts statt: Sie wechselten zwischen Harvard University und dem MIT (The Massachusetts Institute of Technology). In diesem Jahr findet die Verleihung in Zusammenarbeit der Eidgenössischen Technischen Hochschulen und der Universität Zürich statt, wie die Veranstalter mitteilten. In Boston findet stattdessen wenige Wochen danach eine Ig-Nobelpreis-Veranstaltung statt.
Als kleine Instanz für Klugscheißerwissen wollen wir den etwas anderen Wissenschaftspreis mit einem Freitagsquiz ehren.
In der heiseshow stellte Moderatorin Anna Bicker der Stammbesatzung Dr. Volker Zota und Malte Kirchner drei Fragen vorab: Nicht jede Herleitung war angesichts der schwierigen Fragen nobelpreisverdächtig, aber sie fanden sich gut durch.
Sie können in Ruhe in 10 Fragen maximal 100 Punkte erreichen. Die Punktzahl kann gern im Forum mit anderen Mitspielern verglichen werden. Halten Sie sich dabei aber bitte mit Spoilern zurück, um anderen Teilnehmern nicht die Freude am Quiz zu verhageln. Lob und Kritik sind wie immer gern gelesen.
Weiterlesen nach der Anzeige
Bleiben Sie zudem auf dem Laufenden und erfahren Sie das Neueste aus der IT-Welt: Folgen Sie uns bei Mastodon, auf Facebook oder Instagram. Und schauen Sie auch gern beim Redaktionsbot Botti vorbei.
Und falls Sie Ideen für eigene Quizze haben, schreiben Sie einfach eine Mail an den Quizmaster aka Herr der fiesen Fragen.
(mawi)
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 1 MonatCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 3 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Künstliche Intelligenzvor 3 MonatenDigital Health: „Den meisten ist nicht klar, wie existenziell IT‑Sicherheit ist“
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
UX/UI & Webdesignvor 1 MonatEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 3 MonatenEMEC vereint Gezeitenkraft, Batteriespeicher und H₂-Produktion in einer Anlage
