Künstliche Intelligenz
20 Jahre Amazon S3: Der goldene Käfig der Cloud-Ära
Amazon S3 löste 2006 ein echtes Problem. Storage-Beschaffung war teuer, langsam und riskant: Hardware bestellen, RAID konfigurieren, Kapazitäten planen, Backup-Strategien entwerfen – alles Monate bevor die erste Anwendung lief. S3 reduzierte das auf einen HTTP-Request. PUT, GET, fertig. Kein hoher Kapitaleinsatz, keine Vorabplanung, Abrechnung nach Verbrauch.
Weiterlesen nach der Anzeige
Das vereinfachte für Jungunternehmen den Start und war für Konzerne ein willkommener Weg, Investitionskosten in Betriebskosten umzuwandeln. Aber es war eben auch ein Tauschgeschäft: Kontrolle gegen Bequemlichkeit. Und wie bei den meisten Tauschgeschäften in der Tech-Branche merkten viele erst spät, was sie abgegeben hatten.
Die Zahlen beeindrucken – und verschleiern
AWS präsentiert zum Jubiläum stolz Kennzahlen, die zweifellos beeindrucken: über 200 Millionen Requests pro Sekunde, Hunderte Exabyte Daten, 123 Availability Zones, 39 Regionen. Die maximale Objektgröße ist von 5 GByte auf 50 TByte gewachsen, der Preis pro Gigabyte von 15 auf gut 2 US-Cent gefallen – ein Rückgang von 85 Prozent.
Was AWS nicht erwähnt: Die Hardwarekosten pro Gigabyte sind im selben Zeitraum um weit mehr als 85 Prozent gesunken. Die Preissenkungen spiegeln also zu einem erheblichen Teil die allgemeine Kostenentwicklung bei Speichermedien wider, nicht aber großzügigen Margenverzicht. Laut Analystenberichten operiert AWS insgesamt mit Betriebsmargen von über 30 Prozent – das dürfte für S3 genauso gelten.
Auch der Hinweis, Kunden hätten durch S3 Intelligent-Tiering kollektiv mehr als 6 Milliarden US-Dollar gespart, verdient einen zweiten Blick. Gespart im Vergleich wozu? Zum eigenen S3-Standard-Tarif, meint AWS. Das ist, als würde ein Automobilhersteller damit werben, dass Kunden Geld sparen, wenn sie das günstigere Modell kaufen. Die eigentliche Frage – ob dieselben Workloads bei alternativer Infrastruktur oder bei regionalen Cloud-Anbietern günstiger liefen – bleibt unbeantwortet.
Der API-Standard, den nur AWS kontrolliert
Die vielleicht folgenreichste Wirkung von S3 jedoch ist die Standardisierung. Das S3-API hat sich als Lingua franca für Objektspeicher durchgesetzt. MinIO, Ceph, Cloudflare R2, Wasabi, Backblaze B2 – sie alle implementieren S3-kompatible Schnittstellen für Objektspeicher. Auf den ersten Blick sieht das nach einem offenen Ökosystem aus. Auf den zweiten ist es das Gegenteil.
Weiterlesen nach der Anzeige
Denn das S3-API ist kein offener Standard. Es gibt kein Normungsgremium, kein RFC, kein Governance-Modell. AWS definiert die Spezifikation, AWS erweitert sie, AWS entscheidet, welche Features hinzukommen. Kompatible Anbieter laufen strukturell hinterher – sie können das Kern-API nachbauen, aber proprietäre Erweiterungen wie S3 Tables, S3 Vectors, S3 Metadata, Object Lambda oder Event Notifications in ihrer vollen Integration nicht replizieren.
Das Ergebnis ist ein Standard, der Portabilität suggeriert, aber nicht vollständig einlöst. Einfache PUT/GET-Workloads lassen sich tatsächlich gut migrieren. Aber wer S3-Events in Lambda-Funktionen verarbeitet, Lifecycle-Policies mit Glacier-Tiering kombiniert und Zugriffe über IAM-Policies steuert, hat kein Storage-Problem – er hat ein Plattform-Problem. Und genau das ist die Absicht.
Egress: Die unsichtbare Mauer
Über kaum ein Thema wird in der Cloud-Ökonomie so viel geklagt und so wenig gehandelt wie über Egress-Gebühren. AWS berechnet für den Datentransfer aus S3 heraus nach wie vor Gebühren, die in keinem nachvollziehbaren Verhältnis zu den tatsächlichen Transitkosten stehen. Zwar hat AWS die Preise punktuell gesenkt und bietet seit 2024 kostenlosen Egress für den Anbieterwechsel an – aber nur einmalig und nur für den vollständigen Abzug.
Für Unternehmen mit Hunderten Terabyte oder Petabyte in S3 ist die Rechnung schnell gemacht: Allein die Transferkosten für eine Migration können sechsstellige Beträge erreichen – bevor das erste Byte auf der neuen Plattform liegt. Das ist kein Bug, das ist ein Geschäftsmodell. Daten fließen günstig hinein – und teuer heraus.
Die Plattform-Wette: S3 als Datenmonopol
Die jüngsten Erweiterungen machen die strategische Richtung unmissverständlich. S3 Tables bringt verwaltete Apache-Iceberg-Tabellen direkt in den Speicherdienst. S3 Vectors liefert nativen Vektorspeicher für RAG-Anwendungen – laut AWS wurden in nur vier Monaten über 250.000 Indizes angelegt und mehr als eine Milliarde Abfragen ausgeführt. S3 Metadata eliminiert die Notwendigkeit, Buckets rekursiv zu listen.
Die Botschaft ist klar: Daten sollen in S3 gespeichert, in S3 abgefragt, in S3 analysiert und aus S3 heraus für KI-Modelle bereitgestellt werden. Ohne Kopien, ohne Zwischensysteme, ohne Umwege – und ohne Grund, die AWS-Plattform zu verlassen. Was AWS als Vereinfachung verkauft, ist eine vertikale Integration, die den Wettbewerb auf der Analyseschicht systematisch untergräbt. Warum sollte ein Unternehmen noch einen separaten Vektorspeicher evaluieren, wenn S3 Vectors zum S3-Preis mitgeliefert wird?
Fazit: Technisch brillant, strategisch kalkuliert
20 Jahre S3 sind eine technische Erfolgsgeschichte, an der es wenig zu deuteln gibt. Der Dienst hat Storage für Start-ups demokratisiert, eine API zum Branchenstandard gemacht und bewiesen, dass Rückwärtskompatibilität selbst über zwei Jahrzehnte funktionieren kann. Die Durability-Garantien sind real, die Skalierung ist beispiellos, das Engineering ist erstklassig.
Aber die Erfolgsgeschichte hat eine Rückseite, über die AWS verständlicherweise nicht spricht. S3 ist nicht nur ein Speicherdienst – es ist ein ökonomisches Gravitationsfeld, das Daten anzieht und nicht mehr loslässt. Der offene API-Standard ist keiner. Die Preissenkungen folgen der Hardware-Kurve, nicht der Großzügigkeit. Und jede neue Funktion – Tables, Vectors, Metadata – macht die Plattform nützlicher und den Ausstieg teurer.
Die IT-Branche hat sich in den vergangenen 20 Jahren sehenden Auges in diese Abhängigkeit begeben. Das war in vielen Fällen die rationale Entscheidung – die Alternative hieß eigene Infrastruktur mit allen Kosten und deutlich höheren Risiken. Aber rational und alternativlos sind zwei verschiedene Dinge. Wer heute seine Daten- und KI-Strategie auf S3 aufbaut, sollte zumindest wissen, dass er nicht nur einen Speicherdienst bucht. Er bucht eine Beziehung, aus der man nicht ohne Weiteres wieder herauskommt.
(fo)
Künstliche Intelligenz
AirPods mit Android-Geräten nutzen: LibrePods-App landet im Play Store
Die Android-App LibrePods ist im Play Store gelandet. Bei dieser handelt es sich um eine Anwendung, mit der sich die meisten AirPods-Pro- und Max-Funktionen auch auf Android-Geräten nutzen lassen. Jedoch gibt es derzeit noch gewisse Einschränkungen.
Weiterlesen nach der Anzeige
Ab Android 16 QPR3 ohne Root
Die Open-Source-App LibrePods für Android des Entwicklers Kavish Devar war bis vor wenigen Tagen nur über Github verfügbar und erforderte Rootrechte, um die Funktionsweise bestimmter Bluetooth-Komponenten anzupassen. Das hat sich mit dem neuesten Release und dank der Arbeit Googles am fehlerhaften Android-Bluetooth-Stack – „oder weil Apple sich nicht an die Bluetooth-Standards hält“, wie der Entwickler auf Reddit schreibt – offenbar geändert. Die App steht nun im Play Store zum Download bereit, sie erfordert jedoch mindestens die Android-Version 16 QPR3, die Anfang März 2026 von Google veröffentlicht wurde.
Das bedeutet, dass zunächst zum einen nur Googles Pixel-Geräte ab der 6. Generation die App unterstützen. Allerdings haben dem Entwickler zufolge auch schon OnePlus und Oppo ihre Android-Aufsätze OxygenOS 16 und ColorOS 16 so weit angepasst. Weitere Geräte erhalten seinen Aussagen zufolge erst mit Android 17 Unterstützung ohne Root.
AirPods Pro 2 mit vollem Support
Laut Devar bietet die App vollen Support der Funktionen der AirPods Pro 2 und 3, wobei bei der neuen Generation die Herzfrequenzmessung nicht unterstützt wird. Auch die AirPods Max würden unterstützt. Alle anderen AirPods-Modelle böten immerhin die Grundfunktionen wie Batteriestatus und Ohrerkennung.

Einige der LibrePods-Funktionen erfordern den einmaligen Kauf. Die Grundfunktionen sind kostenfrei nutzbar.
(Bild: Andreas Floemer / heise medien)
Zu den unterstützten Funktionen gehören etwa die Geräuschunterdrückungsmodi, adaptive Transparenz, Akkuanzeige, Gesprächserkennung, Kopfbewegungen und vieles mehr, wobei Kopfbewegungen und weitere Features kostenpflichtig sind – die Freischaltung der Funktionen kostet einmalig 5 Euro.
Weiterlesen nach der Anzeige
Weiter sagt der Entwickler, die Genauigkeit des Akkustands sei besser als bei anderen Ohrstöpseln. Schließlich sind auch die Gesten – also was beim langen Druck auf die AirPods-Stängel passiert – konfigurierbar, wobei die Aktivierung von Sprachassistenten Teil der Premiumfunktion ist.
Für Nutzerinnen und Nutzer, die in Googles und Apples Ökosystem zu Hause sind und AirPods besitzen, klingt die App durchaus praktisch. Für Linux gibt es sie ebenfalls.
(afl)
Künstliche Intelligenz
Zahlen, bitte! In Japan lernen Kinder 2136 Schriftzeichen in der Schule
Hierzulande können Kinder das lateinische Alphabet in der Regel bis maximal zum Ende des zweiten Schuljahres lesen und schreiben. In Japan ist das anders: Japanische Kinder erwerben während ihrer gesamten Schulzeit neue Schriftzeichen, die sogenannten Kanji.
Weiterlesen nach der Anzeige
Dabei gibt Japans Bildungsministerium für das Kerncurriculum der Schulen die seit 1981 eingeführten „Jōyō-Kanji“ (PDF-Datei) (常用漢字) vor, welche seit dem aktuellsten Update von 2010 aus 2136 Kanji bestehen. Diese „Schriftzeichen für den Allgemeingebrauch“ erlernen japanische Kinder in der Regel bis zum Ende der Mittelschule (Klasse 9).
Das japanische Schriftsystem: Drei Schriften statt einer
Das japanische Schriftsystem ist sehr komplex. Denn im Gegensatz zu den meisten anderen Sprachen nutzt Japanisch nicht nur eine Schrift, sondern gleich drei verschiedene: Hiragana, Katakana und Kanji. Alles begann, als die chinesischen Schriftzeichen spätestens im fünften Jahrhundert von China über Korea nach Japan kamen. Auf diesen baut das Schriftsystem in Japan bis heute auf.

In dieser Rubrik stellen wir immer dienstags verblüffende, beeindruckende, informative und witzige Zahlen aus den Bereichen IT, Wissenschaft, Kunst, Wirtschaft, Politik und natürlich der Mathematik vor.
Hiragana und Katakana sind Silbenschriften, die jeweils aus 46 Zeichen bestehen. Kinder beginnen zunächst, diese vergleichsweise einfachen Schriften zu erlernen, bevor die komplexeren Kanji schrittweise auf dem Lehrplan stehen. Dabei werden Hiragana in erster Linie für grammatikalische Funktionen und Katakana für Fremdwörter und nicht-japanische Namen verwendet. Kanji haben mit ihren grafischen Zeichen eine bedeutungstragende Funktion und bilden deswegen vor allem Nomen und den Wortstamm bei Verben und Adjektiven. Die Bedeutung lässt sich häufig ableiten, so stellt sich beispielsweise das japanische Wort für Wald, „mori“, aus drei Bäumen („ki“, 木) zusammen: 森. Das japanische Verb für „ausruhen“ enthält das Kanji 休, das aus einem Menschen (亻) besteht, der sich quasi gegen einen Baum (木) lehnt. Das Kanji für „lernen“ (学) stellt ein Kind (子) unter einem Dach dar.

(Bild: Dafina Maloku)
Kanji lernen – Schritt für Schritt
Weiterlesen nach der Anzeige
Bis zum Ende der Grundschule stehen die ersten 1026 der Jōyō-Kanji auf dem Plan – das sind die sogenannten „Unterrichtskanji“, auf Japanisch „Kyōiku-Kanji“ (教育漢字). Die Liste der Kyōiku-Kanji hat das japanische Ministerium für Bildung, Kultur, Sport, Wissenschaft und Technologie (MEXT) erstellt. Die verbleibenden 1110 Zeichen werden in den Klassen 7 bis 9 der Mittelstufe eingeführt.
Zusätzlich zu den Jōyō-Kanji existieren die „Jinmeiyō-Kanji“ (PDF-Datei) (人名用漢字), die aus 863 „Namens-Kanji“ für Familien und Personen bestehen, wovon einige nicht in der gebräuchlichen Jōyō-Kanji -Liste enthalten sind. Diese stehen häufig ergänzend auf dem Lehrplan.

Japanische Kinder üben ein neues Schriftzeichen, indem sie dieses immer wieder in der richtigen Strichreihenfolge auf Papier schreiben.
(Bild: JFontan/Shutterstock.com)
Japaner erlernen neue Kanji ihr Leben lang
Wer jetzt denkt, mit den 2136 Jōyō-Kanji wäre das Erlernen der japanischen Schrift abgeschlossen, irrt sich: Japanische Wörterbücher wie Dai Kan-Wa Jiten listen bis zu 50.000 von ihnen auf; tatsächlich häufig genutzt wird jedoch nur ein Bruchteil davon. Denn die hohe Anzahl an Kanji war erst der Grund für die Entstehung der Jōyō-Kanji: Die Verringerung der Menge an häufig genutzten Kanji sorgt dafür, dass Lesen für die breite Masse zugänglich wird. Für das Verständnis der meisten Zeitungen und amtlichen Texte reichen die 2136 Jōyō-Kanji daher aus. Da es jedoch viel mehr Schriftzeichen als in der offiziellen Liste gibt, lernen die meisten Japaner ihr Leben lang neue Schriftzeichen, sodass sie nie richtig „fertig“ damit sind.
Noch dazu erwerben japanische Kinder in der Grundschule zusätzlich das lateinische Alphabet, das sie spätestens in der Mittelschule ab Klasse 7 für den Englischunterricht benötigen. Das lateinische Alphabet heißt auf Japanisch „Romaji“, mit dem japanische Wörter transkribiert werden können. Beispiele sind bekannte Marken wie „Toyota“, „Sony“ und „Nikon“. Für viele Lernende der japanischen Sprache bildet Romaji zu Anfang eine Brücke zur japanischen Schrift und erleichtert das Lernen.
Digitale Kommunikation beeinflusst Kanji-Schreibfähigkeit
Zwar lernen Kinder damit sogar vier verschiedene Schriften in der Schule, durch den technologischen Fortschritt schreiben Menschen im Laufe ihres Lebens jedoch immer mehr digital in Form des Tippens und weniger per Hand. Das kann einen negativen Einfluss auf die Schreibfähigkeit haben. Bereits vor 14 Jahren berichtet die Nachrichtenseite JAPANTODAY, dass laut einer staatlichen Umfrage 66,5 % der Japaner einschätzen, dass ihre Fähigkeit, Kanji per Hand zu schreiben, sich wegen der häufigen Nutzung von Handys und Computern verschlechtert hat.
Laut der Agentur Translationexcellence lege das japanische Bildungssystem aufgrund dieser Entwicklung immer mehr Wert auf das Erkennen und Lesen von Kanji und weniger auf die Schreibfähigkeit. Denn durch digitale Tools sei das Schreiben von Kanji deutlich effizienter geworden, was das Schreiben per Hand weniger nötig mache.
(mki)
Künstliche Intelligenz
WeRide und Lenovo wollen 200.000 autonome Fahrzeuge auf die Straße bringen
Lenovo und WeRide wollen in den kommenden Jahren eine große Anzahl autonom fahrender Autos auf die Straße bringen. Eine entsprechende Kooperation haben die beiden Unternehmen auf der Messe Auto China 2026 in Peking vereinbart.
Weiterlesen nach der Anzeige
Ziel der Zusammenarbeit sei, die Kommerzialisierung des hochautonomen Fahrens (SAE-Level 4) weltweit voranzutreiben, teilte WeRide mit. Dazu wollen die Partner in den kommenden fünf Jahren 200.000 autonome Fahrzeuge auf die Straße bringen.
Darunter sind Robotaxis, allerdings nicht nur: WeRide betreibt daneben weitere autonome Fahrzeuge: Lieferwagen, Busse oder Straßenkehrmaschinen.
WeRide ist in 12 Ländern aktiv
WeRide entwickelt Systeme für autonomes Fahren und gehört neben Baidu und Pony.ai zu den großen Anbietern von autonomen Taxidiensten in China. Insgesamt ist das Unternehmen nach eigenen Angaben in mehr als 40 Städten in 12 Ländern aktiv, darunter in Belgien, Frankreich, der Schweiz, den Vereinigten Arabischen Emiraten sowie den USA.
Lenovo ist einer der größten Computerhersteller der Welt. Er will „seine Stärken im Bereich Intelligent Computing sowie seine globalen Fertigungs- und Lieferkettenkapazitäten“ einbringen. Daneben stellt der Konzern eine KI-Computing-Infrastruktur für den Flotteneinsatz bereit.
WeRide und Lenovo kooperieren bereits im Bereich autonomes Fahren: Im vergangenen Jahr haben die beiden Partner die Rechnerplattform HPC 3.0 auf den Markt gebracht. HPC 3.0 basiert auf dem AD1-Domain-Controller für hochautonomes Fahren von Lenovo. Darin arbeitet ein DRIVE AGX Thor von Nvidia. Das erste Fahrzeug, in dem HPC 3.0 verbaut ist, ist das Robotaxi GXR von WeRide.
Weiterlesen nach der Anzeige
(wpl)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 3 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 3 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Apps & Mobile Entwicklungvor 3 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Künstliche Intelligenzvor 2 MonatenBlade‑Battery 2.0 und Flash-Charger: BYD beschleunigt Laden weiter
