Künstliche Intelligenz
20 Jahre Amazon S3: Der goldene Käfig der Cloud-Ära
Amazon S3 löste 2006 ein echtes Problem. Storage-Beschaffung war teuer, langsam und riskant: Hardware bestellen, RAID konfigurieren, Kapazitäten planen, Backup-Strategien entwerfen – alles Monate bevor die erste Anwendung lief. S3 reduzierte das auf einen HTTP-Request. PUT, GET, fertig. Kein hoher Kapitaleinsatz, keine Vorabplanung, Abrechnung nach Verbrauch.
Weiterlesen nach der Anzeige
Das vereinfachte für Jungunternehmen den Start und war für Konzerne ein willkommener Weg, Investitionskosten in Betriebskosten umzuwandeln. Aber es war eben auch ein Tauschgeschäft: Kontrolle gegen Bequemlichkeit. Und wie bei den meisten Tauschgeschäften in der Tech-Branche merkten viele erst spät, was sie abgegeben hatten.
Die Zahlen beeindrucken – und verschleiern
AWS präsentiert zum Jubiläum stolz Kennzahlen, die zweifellos beeindrucken: über 200 Millionen Requests pro Sekunde, Hunderte Exabyte Daten, 123 Availability Zones, 39 Regionen. Die maximale Objektgröße ist von 5 GByte auf 50 TByte gewachsen, der Preis pro Gigabyte von 15 auf gut 2 US-Cent gefallen – ein Rückgang von 85 Prozent.
Was AWS nicht erwähnt: Die Hardwarekosten pro Gigabyte sind im selben Zeitraum um weit mehr als 85 Prozent gesunken. Die Preissenkungen spiegeln also zu einem erheblichen Teil die allgemeine Kostenentwicklung bei Speichermedien wider, nicht aber großzügigen Margenverzicht. Laut Analystenberichten operiert AWS insgesamt mit Betriebsmargen von über 30 Prozent – das dürfte für S3 genauso gelten.
Auch der Hinweis, Kunden hätten durch S3 Intelligent-Tiering kollektiv mehr als 6 Milliarden US-Dollar gespart, verdient einen zweiten Blick. Gespart im Vergleich wozu? Zum eigenen S3-Standard-Tarif, meint AWS. Das ist, als würde ein Automobilhersteller damit werben, dass Kunden Geld sparen, wenn sie das günstigere Modell kaufen. Die eigentliche Frage – ob dieselben Workloads bei alternativer Infrastruktur oder bei regionalen Cloud-Anbietern günstiger liefen – bleibt unbeantwortet.
Der API-Standard, den nur AWS kontrolliert
Die vielleicht folgenreichste Wirkung von S3 jedoch ist die Standardisierung. Das S3-API hat sich als Lingua franca für Objektspeicher durchgesetzt. MinIO, Ceph, Cloudflare R2, Wasabi, Backblaze B2 – sie alle implementieren S3-kompatible Schnittstellen für Objektspeicher. Auf den ersten Blick sieht das nach einem offenen Ökosystem aus. Auf den zweiten ist es das Gegenteil.
Weiterlesen nach der Anzeige
Denn das S3-API ist kein offener Standard. Es gibt kein Normungsgremium, kein RFC, kein Governance-Modell. AWS definiert die Spezifikation, AWS erweitert sie, AWS entscheidet, welche Features hinzukommen. Kompatible Anbieter laufen strukturell hinterher – sie können das Kern-API nachbauen, aber proprietäre Erweiterungen wie S3 Tables, S3 Vectors, S3 Metadata, Object Lambda oder Event Notifications in ihrer vollen Integration nicht replizieren.
Das Ergebnis ist ein Standard, der Portabilität suggeriert, aber nicht vollständig einlöst. Einfache PUT/GET-Workloads lassen sich tatsächlich gut migrieren. Aber wer S3-Events in Lambda-Funktionen verarbeitet, Lifecycle-Policies mit Glacier-Tiering kombiniert und Zugriffe über IAM-Policies steuert, hat kein Storage-Problem – er hat ein Plattform-Problem. Und genau das ist die Absicht.
Egress: Die unsichtbare Mauer
Über kaum ein Thema wird in der Cloud-Ökonomie so viel geklagt und so wenig gehandelt wie über Egress-Gebühren. AWS berechnet für den Datentransfer aus S3 heraus nach wie vor Gebühren, die in keinem nachvollziehbaren Verhältnis zu den tatsächlichen Transitkosten stehen. Zwar hat AWS die Preise punktuell gesenkt und bietet seit 2024 kostenlosen Egress für den Anbieterwechsel an – aber nur einmalig und nur für den vollständigen Abzug.
Für Unternehmen mit Hunderten Terabyte oder Petabyte in S3 ist die Rechnung schnell gemacht: Allein die Transferkosten für eine Migration können sechsstellige Beträge erreichen – bevor das erste Byte auf der neuen Plattform liegt. Das ist kein Bug, das ist ein Geschäftsmodell. Daten fließen günstig hinein – und teuer heraus.
Die Plattform-Wette: S3 als Datenmonopol
Die jüngsten Erweiterungen machen die strategische Richtung unmissverständlich. S3 Tables bringt verwaltete Apache-Iceberg-Tabellen direkt in den Speicherdienst. S3 Vectors liefert nativen Vektorspeicher für RAG-Anwendungen – laut AWS wurden in nur vier Monaten über 250.000 Indizes angelegt und mehr als eine Milliarde Abfragen ausgeführt. S3 Metadata eliminiert die Notwendigkeit, Buckets rekursiv zu listen.
Die Botschaft ist klar: Daten sollen in S3 gespeichert, in S3 abgefragt, in S3 analysiert und aus S3 heraus für KI-Modelle bereitgestellt werden. Ohne Kopien, ohne Zwischensysteme, ohne Umwege – und ohne Grund, die AWS-Plattform zu verlassen. Was AWS als Vereinfachung verkauft, ist eine vertikale Integration, die den Wettbewerb auf der Analyseschicht systematisch untergräbt. Warum sollte ein Unternehmen noch einen separaten Vektorspeicher evaluieren, wenn S3 Vectors zum S3-Preis mitgeliefert wird?
Fazit: Technisch brillant, strategisch kalkuliert
20 Jahre S3 sind eine technische Erfolgsgeschichte, an der es wenig zu deuteln gibt. Der Dienst hat Storage für Start-ups demokratisiert, eine API zum Branchenstandard gemacht und bewiesen, dass Rückwärtskompatibilität selbst über zwei Jahrzehnte funktionieren kann. Die Durability-Garantien sind real, die Skalierung ist beispiellos, das Engineering ist erstklassig.
Aber die Erfolgsgeschichte hat eine Rückseite, über die AWS verständlicherweise nicht spricht. S3 ist nicht nur ein Speicherdienst – es ist ein ökonomisches Gravitationsfeld, das Daten anzieht und nicht mehr loslässt. Der offene API-Standard ist keiner. Die Preissenkungen folgen der Hardware-Kurve, nicht der Großzügigkeit. Und jede neue Funktion – Tables, Vectors, Metadata – macht die Plattform nützlicher und den Ausstieg teurer.
Die IT-Branche hat sich in den vergangenen 20 Jahren sehenden Auges in diese Abhängigkeit begeben. Das war in vielen Fällen die rationale Entscheidung – die Alternative hieß eigene Infrastruktur mit allen Kosten und deutlich höheren Risiken. Aber rational und alternativlos sind zwei verschiedene Dinge. Wer heute seine Daten- und KI-Strategie auf S3 aufbaut, sollte zumindest wissen, dass er nicht nur einen Speicherdienst bucht. Er bucht eine Beziehung, aus der man nicht ohne Weiteres wieder herauskommt.
(fo)
Künstliche Intelligenz
WeRide und Lenovo wollen 200.000 autonome Fahrzeuge auf die Straße bringen
Lenovo und WeRide wollen in den kommenden Jahren eine große Anzahl autonom fahrender Autos auf die Straße bringen. Eine entsprechende Kooperation haben die beiden Unternehmen auf der Messe Auto China 2026 in Peking vereinbart.
Weiterlesen nach der Anzeige
Ziel der Zusammenarbeit sei, die Kommerzialisierung des hochautonomen Fahrens (SAE-Level 4) weltweit voranzutreiben, teilte WeRide mit. Dazu wollen die Partner in den kommenden fünf Jahren 200.000 autonome Fahrzeuge auf die Straße bringen.
Darunter sind Robotaxis, allerdings nicht nur: WeRide betreibt daneben weitere autonome Fahrzeuge: Lieferwagen, Busse oder Straßenkehrmaschinen.
WeRide ist in 12 Ländern aktiv
WeRide entwickelt Systeme für autonomes Fahren und gehört neben Baidu und Pony.ai zu den großen Anbietern von autonomen Taxidiensten in China. Insgesamt ist das Unternehmen nach eigenen Angaben in mehr als 40 Städten in 12 Ländern aktiv, darunter in Belgien, Frankreich, der Schweiz, den Vereinigten Arabischen Emiraten sowie den USA.
Lenovo ist einer der größten Computerhersteller der Welt. Er will „seine Stärken im Bereich Intelligent Computing sowie seine globalen Fertigungs- und Lieferkettenkapazitäten“ einbringen. Daneben stellt der Konzern eine KI-Computing-Infrastruktur für den Flotteneinsatz bereit.
WeRide und Lenovo kooperieren bereits im Bereich autonomes Fahren: Im vergangenen Jahr haben die beiden Partner die Rechnerplattform HPC 3.0 auf den Markt gebracht. HPC 3.0 basiert auf dem AD1-Domain-Controller für hochautonomes Fahren von Lenovo. Darin arbeitet ein DRIVE AGX Thor von Nvidia. Das erste Fahrzeug, in dem HPC 3.0 verbaut ist, ist das Robotaxi GXR von WeRide.
Weiterlesen nach der Anzeige
(wpl)
Künstliche Intelligenz
Autonome Unterwasserdrohne mit Brennstoffzelle bleibt über 2000 km unter Wasser
Das auf Autonomous Underwater Vehicles (AUV) spezialisierte kanadische Unternehmen Cellula Robotics hat mit seinem autonomen Unterwasserfahrzeug Envoy eine Strecke von insgesamt 2023 km vollständig abgetaucht zurückgelegt. Das AUV wurde dabei von einer Wasserstoff-Brennstoffzelle befeuert, die Strom für den elektrischen Antrieb produziert.
Weiterlesen nach der Anzeige
Insgesamt 385 Stunden dauerte die Mission der rund 8,5 m langen und 2,7 t schweren Envoy-Unterwasserdrohne, die bei einem Durchmesser von etwa einem Meter eine Wasserverdrängung von 3,7 t aufweist. Die Tauchtiefe des AUV beträgt bis zu 6000 m, die operative Tauchtiefe liegt bei etwa 2000 m.
Ausgerüstet ist die Drohne mit einem elektrischen Antrieb, der den Strom aus Lithium-Ionen-Batterien bezieht. Die werden während der Fahrt von einem Wasserstoff-Brennstoffzellensystem von Infinity Fuel Cell and Hydrogen aufgeladen. Das Unternehmen produziert Brennstoffzellen- und Elektrolysesysteme für die Luft- und Raumfahrt sowie für Unterwasseranwendungen und den Verteidigungsbereich.
Einsatzdauer von mehr als zwei Wochen
Das Brennstoffzellen-System ist mit seinen Tanks für Wasserstoff und Sauerstoff dafür ausgelegt, etwa 370 Stunden (15,4 Tage) lang Strom zu liefern. Bei der Testfahrt hielt das System jedoch mit 385 Stunden etwas länger durch. Die maximale Reichweite von 2000 km übertraf Envoy mit 2023 km geringfügig. Bei der Stromproduktion scheidet die Brennstoffzelle Wasser ab, das in Ballasttanks zum Austarieren des AUV genutzt wird.
Die hohe Tauchtiefe und Reichweite sowie die Fähigkeit, über einen längeren Zeitraum von über zwei Wochen zu operieren, prädestinieren das Unterwasserfahrzeug für den Einsatz bei Langzeitmissionen. Cellula sieht etwa eine Einsatzmöglichkeit in wissenschaftlichen Missionen, aber auch beim Militär zur Aufklärung und für die Wirtschaft zur Überwachung und Inspektion von Unterwasserpipelines und Seekabeln.
Um über eine längere Zeit an einem Ort unter Wasser ausharren zu können, ist ein spezieller Anker von Solus-LR eingebaut. Der Anker wird über eine Winde auf den Meeresgrund abgelassen. Er besteht aus einer Art Saugglocke, die von einer Umrandung umgeben ist, die beim Absaugen des Wassers in der Glocke dann im Meeresboden verankert wird. Envoy schaltet in einen Stromsparmodus, bei dem nur noch etwaige Sensoren zur Überwachung und minimale Steuerungssysteme aktiv sind. Das AUV soll dabei nur eine geringe Geräuschsignatur aufweisen, sodass es bei militärischen Einsätzen nicht so einfach geortet werden kann. Soll die Fahrt weitergehen, wird Wasser in die Saugglocke gepumpt und damit die Verankerung gelöst.
Weiterlesen nach der Anzeige
Auf der mehr als zwei Wochen dauernden Testfahrt führte Envoy etwa 4000 Drehungen und Manöver durch. Dadurch sei der Energieverbrauch erhöht gewesen, sodass die Fahrt praxisnahe Ergebnisse liefert, heißt es von Cellula Robotics.
(olb)
Künstliche Intelligenz
Mythen zu Akkus, Stromsparen und PV-Anlagen aufgedeckt
IT und Technik durchziehen den Alltag, dennoch sind sie für viele Menschen ein Buch mit sieben Siegeln. Schnell vermischen sich anekdotische persönliche Erfahrungen mit Erzählungen anderer, mit veralteten Tipps aus dem Internet und immer mehr mit halluzinierten Ratschlägen von ChatGPT & Co. – so entstehen schließlich teils haarsträubende Technik-Mythen.
c’t untersucht gängige Behauptungen aus fünf Themenbereichen: KI-Systeme, Energie, Forschung, Hardware und Security. Die folgenden zwölf Mythen drehen sich um Energiesparen, Akkubehandlung und Solarspeicher.
Unter anderem klären wir die Frage, ob man ungenutzte Ladegeräte noch aus der Steckdose ziehen sollte, ob Schnellladen den Akkus schadet und ob man sie wirklich nicht ganz vollladen sollte. Wie gefährlich sind Solarakkus fürs Balkonkraftwerk? Und lohnen sie sich überhaupt? Außerdem prüfen wir Mythen zu smarten Thermostaten und zur LED-Beleuchtung. Haben wir einen wichtigen Mythos vergessen? Schreiben Sie uns gern eine Mail an mythen@ct.de.
Das war die Leseprobe unseres heise-Plus-Artikels „Mythen zu Akkus, Stromsparen und PV-Anlagen aufgedeckt“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 3 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 3 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Apps & Mobile Entwicklungvor 3 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Künstliche Intelligenzvor 2 MonatenBlade‑Battery 2.0 und Flash-Charger: BYD beschleunigt Laden weiter
