Connect with us

Künstliche Intelligenz

20 Jahre Amazon S3: Der goldene Käfig der Cloud-Ära


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Amazon S3 löste 2006 ein echtes Problem. Storage-Beschaffung war teuer, langsam und riskant: Hardware bestellen, RAID konfigurieren, Kapazitäten planen, Backup-Strategien entwerfen – alles Monate bevor die erste Anwendung lief. S3 reduzierte das auf einen HTTP-Request. PUT, GET, fertig. Kein hoher Kapitaleinsatz, keine Vorabplanung, Abrechnung nach Verbrauch.

Weiterlesen nach der Anzeige

Das vereinfachte für Jungunternehmen den Start und war für Konzerne ein willkommener Weg, Investitionskosten in Betriebskosten umzuwandeln. Aber es war eben auch ein Tauschgeschäft: Kontrolle gegen Bequemlichkeit. Und wie bei den meisten Tauschgeschäften in der Tech-Branche merkten viele erst spät, was sie abgegeben hatten.

AWS präsentiert zum Jubiläum stolz Kennzahlen, die zweifellos beeindrucken: über 200 Millionen Requests pro Sekunde, Hunderte Exabyte Daten, 123 Availability Zones, 39 Regionen. Die maximale Objektgröße ist von 5 GByte auf 50 TByte gewachsen, der Preis pro Gigabyte von 15 auf gut 2 US-Cent gefallen – ein Rückgang von 85 Prozent.

Was AWS nicht erwähnt: Die Hardwarekosten pro Gigabyte sind im selben Zeitraum um weit mehr als 85 Prozent gesunken. Die Preissenkungen spiegeln also zu einem erheblichen Teil die allgemeine Kostenentwicklung bei Speichermedien wider, nicht aber großzügigen Margenverzicht. Laut Analystenberichten operiert AWS insgesamt mit Betriebsmargen von über 30 Prozent – das dürfte für S3 genauso gelten.

Auch der Hinweis, Kunden hätten durch S3 Intelligent-Tiering kollektiv mehr als 6 Milliarden US-Dollar gespart, verdient einen zweiten Blick. Gespart im Vergleich wozu? Zum eigenen S3-Standard-Tarif, meint AWS. Das ist, als würde ein Automobilhersteller damit werben, dass Kunden Geld sparen, wenn sie das günstigere Modell kaufen. Die eigentliche Frage – ob dieselben Workloads bei alternativer Infrastruktur oder bei regionalen Cloud-Anbietern günstiger liefen – bleibt unbeantwortet.

Die vielleicht folgenreichste Wirkung von S3 jedoch ist die Standardisierung. Das S3-API hat sich als Lingua franca für Objektspeicher durchgesetzt. MinIO, Ceph, Cloudflare R2, Wasabi, Backblaze B2 – sie alle implementieren S3-kompatible Schnittstellen für Objektspeicher. Auf den ersten Blick sieht das nach einem offenen Ökosystem aus. Auf den zweiten ist es das Gegenteil.

Weiterlesen nach der Anzeige

Denn das S3-API ist kein offener Standard. Es gibt kein Normungsgremium, kein RFC, kein Governance-Modell. AWS definiert die Spezifikation, AWS erweitert sie, AWS entscheidet, welche Features hinzukommen. Kompatible Anbieter laufen strukturell hinterher – sie können das Kern-API nachbauen, aber proprietäre Erweiterungen wie S3 Tables, S3 Vectors, S3 Metadata, Object Lambda oder Event Notifications in ihrer vollen Integration nicht replizieren.

Das Ergebnis ist ein Standard, der Portabilität suggeriert, aber nicht vollständig einlöst. Einfache PUT/GET-Workloads lassen sich tatsächlich gut migrieren. Aber wer S3-Events in Lambda-Funktionen verarbeitet, Lifecycle-Policies mit Glacier-Tiering kombiniert und Zugriffe über IAM-Policies steuert, hat kein Storage-Problem – er hat ein Plattform-Problem. Und genau das ist die Absicht.

Über kaum ein Thema wird in der Cloud-Ökonomie so viel geklagt und so wenig gehandelt wie über Egress-Gebühren. AWS berechnet für den Datentransfer aus S3 heraus nach wie vor Gebühren, die in keinem nachvollziehbaren Verhältnis zu den tatsächlichen Transitkosten stehen. Zwar hat AWS die Preise punktuell gesenkt und bietet seit 2024 kostenlosen Egress für den Anbieterwechsel an – aber nur einmalig und nur für den vollständigen Abzug.

Für Unternehmen mit Hunderten Terabyte oder Petabyte in S3 ist die Rechnung schnell gemacht: Allein die Transferkosten für eine Migration können sechsstellige Beträge erreichen – bevor das erste Byte auf der neuen Plattform liegt. Das ist kein Bug, das ist ein Geschäftsmodell. Daten fließen günstig hinein – und teuer heraus.

Die jüngsten Erweiterungen machen die strategische Richtung unmissverständlich. S3 Tables bringt verwaltete Apache-Iceberg-Tabellen direkt in den Speicherdienst. S3 Vectors liefert nativen Vektorspeicher für RAG-Anwendungen – laut AWS wurden in nur vier Monaten über 250.000 Indizes angelegt und mehr als eine Milliarde Abfragen ausgeführt. S3 Metadata eliminiert die Notwendigkeit, Buckets rekursiv zu listen.

Die Botschaft ist klar: Daten sollen in S3 gespeichert, in S3 abgefragt, in S3 analysiert und aus S3 heraus für KI-Modelle bereitgestellt werden. Ohne Kopien, ohne Zwischensysteme, ohne Umwege – und ohne Grund, die AWS-Plattform zu verlassen. Was AWS als Vereinfachung verkauft, ist eine vertikale Integration, die den Wettbewerb auf der Analyseschicht systematisch untergräbt. Warum sollte ein Unternehmen noch einen separaten Vektorspeicher evaluieren, wenn S3 Vectors zum S3-Preis mitgeliefert wird?

20 Jahre S3 sind eine technische Erfolgsgeschichte, an der es wenig zu deuteln gibt. Der Dienst hat Storage für Start-ups demokratisiert, eine API zum Branchenstandard gemacht und bewiesen, dass Rückwärtskompatibilität selbst über zwei Jahrzehnte funktionieren kann. Die Durability-Garantien sind real, die Skalierung ist beispiellos, das Engineering ist erstklassig.

Aber die Erfolgsgeschichte hat eine Rückseite, über die AWS verständlicherweise nicht spricht. S3 ist nicht nur ein Speicherdienst – es ist ein ökonomisches Gravitationsfeld, das Daten anzieht und nicht mehr loslässt. Der offene API-Standard ist keiner. Die Preissenkungen folgen der Hardware-Kurve, nicht der Großzügigkeit. Und jede neue Funktion – Tables, Vectors, Metadata – macht die Plattform nützlicher und den Ausstieg teurer.

Die IT-Branche hat sich in den vergangenen 20 Jahren sehenden Auges in diese Abhängigkeit begeben. Das war in vielen Fällen die rationale Entscheidung – die Alternative hieß eigene Infrastruktur mit allen Kosten und deutlich höheren Risiken. Aber rational und alternativlos sind zwei verschiedene Dinge. Wer heute seine Daten- und KI-Strategie auf S3 aufbaut, sollte zumindest wissen, dass er nicht nur einen Speicherdienst bucht. Er bucht eine Beziehung, aus der man nicht ohne Weiteres wieder herauskommt.


(fo)



Source link

Künstliche Intelligenz

AirPods mit Android-Geräten nutzen: LibrePods-App landet im Play Store


Die Android-App LibrePods ist im Play Store gelandet. Bei dieser handelt es sich um eine Anwendung, mit der sich die meisten AirPods-Pro- und Max-Funktionen auch auf Android-Geräten nutzen lassen. Jedoch gibt es derzeit noch gewisse Einschränkungen.

Weiterlesen nach der Anzeige

Die Open-Source-App LibrePods für Android des Entwicklers Kavish Devar war bis vor wenigen Tagen nur über Github verfügbar und erforderte Rootrechte, um die Funktionsweise bestimmter Bluetooth-Komponenten anzupassen. Das hat sich mit dem neuesten Release und dank der Arbeit Googles am fehlerhaften Android-Bluetooth-Stack – „oder weil Apple sich nicht an die Bluetooth-Standards hält“, wie der Entwickler auf Reddit schreibt – offenbar geändert. Die App steht nun im Play Store zum Download bereit, sie erfordert jedoch mindestens die Android-Version 16 QPR3, die Anfang März 2026 von Google veröffentlicht wurde.

Das bedeutet, dass zunächst zum einen nur Googles Pixel-Geräte ab der 6. Generation die App unterstützen. Allerdings haben dem Entwickler zufolge auch schon OnePlus und Oppo ihre Android-Aufsätze OxygenOS 16 und ColorOS 16 so weit angepasst. Weitere Geräte erhalten seinen Aussagen zufolge erst mit Android 17 Unterstützung ohne Root.

Laut Devar bietet die App vollen Support der Funktionen der AirPods Pro 2 und 3, wobei bei der neuen Generation die Herzfrequenzmessung nicht unterstützt wird. Auch die AirPods Max würden unterstützt. Alle anderen AirPods-Modelle böten immerhin die Grundfunktionen wie Batteriestatus und Ohrerkennung.


Screenshots LibrePod App

Screenshots LibrePod App

Einige der LibrePods-Funktionen erfordern den einmaligen Kauf. Die Grundfunktionen sind kostenfrei nutzbar.

(Bild: Andreas Floemer / heise medien)

Zu den unterstützten Funktionen gehören etwa die Geräuschunterdrückungsmodi, adaptive Transparenz, Akkuanzeige, Gesprächserkennung, Kopfbewegungen und vieles mehr, wobei Kopfbewegungen und weitere Features kostenpflichtig sind – die Freischaltung der Funktionen kostet einmalig 5 Euro.

Weiterlesen nach der Anzeige

Weiter sagt der Entwickler, die Genauigkeit des Akkustands sei besser als bei anderen Ohrstöpseln. Schließlich sind auch die Gesten – also was beim langen Druck auf die AirPods-Stängel passiert – konfigurierbar, wobei die Aktivierung von Sprachassistenten Teil der Premiumfunktion ist.

Für Nutzerinnen und Nutzer, die in Googles und Apples Ökosystem zu Hause sind und AirPods besitzen, klingt die App durchaus praktisch. Für Linux gibt es sie ebenfalls.


(afl)



Source link

Weiterlesen

Künstliche Intelligenz

Zahlen, bitte! In Japan lernen Kinder 2136 Schriftzeichen in der Schule


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Hierzulande können Kinder das lateinische Alphabet in der Regel bis maximal zum Ende des zweiten Schuljahres lesen und schreiben. In Japan ist das anders: Japanische Kinder erwerben während ihrer gesamten Schulzeit neue Schriftzeichen, die sogenannten Kanji.

Weiterlesen nach der Anzeige

Dabei gibt Japans Bildungsministerium für das Kerncurriculum der Schulen die seit 1981 eingeführten „Jōyō-Kanji“ (PDF-Datei) (常用漢字) vor, welche seit dem aktuellsten Update von 2010 aus 2136 Kanji bestehen. Diese „Schriftzeichen für den Allgemeingebrauch“ erlernen japanische Kinder in der Regel bis zum Ende der Mittelschule (Klasse 9).

Das japanische Schriftsystem ist sehr komplex. Denn im Gegensatz zu den meisten anderen Sprachen nutzt Japanisch nicht nur eine Schrift, sondern gleich drei verschiedene: Hiragana, Katakana und Kanji. Alles begann, als die chinesischen Schriftzeichen spätestens im fünften Jahrhundert von China über Korea nach Japan kamen. Auf diesen baut das Schriftsystem in Japan bis heute auf.


Bitte Zahlen

Bitte Zahlen

In dieser Rubrik stellen wir immer dienstags verblüffende, beeindruckende, informative und witzige Zahlen aus den Bereichen IT, Wissenschaft, Kunst, Wirtschaft, Politik und natürlich der Mathematik vor.

Hiragana und Katakana sind Silbenschriften, die jeweils aus 46 Zeichen bestehen. Kinder beginnen zunächst, diese vergleichsweise einfachen Schriften zu erlernen, bevor die komplexeren Kanji schrittweise auf dem Lehrplan stehen. Dabei werden Hiragana in erster Linie für grammatikalische Funktionen und Katakana für Fremdwörter und nicht-japanische Namen verwendet. Kanji haben mit ihren grafischen Zeichen eine bedeutungstragende Funktion und bilden deswegen vor allem Nomen und den Wortstamm bei Verben und Adjektiven. Die Bedeutung lässt sich häufig ableiten, so stellt sich beispielsweise das japanische Wort für Wald, „mori“, aus drei Bäumen („ki“, 木) zusammen: 森. Das japanische Verb für „ausruhen“ enthält das Kanji 休, das aus einem Menschen (亻) besteht, der sich quasi gegen einen Baum (木) lehnt. Das Kanji für „lernen“ (学) stellt ein Kind (子) unter einem Dach dar.


Ausschnitt eines japanischen NHK News Artikels mit verschiedenen farblichen Markierungen für die drei Schriften Kanji, Hiragana und Katakana.

Ausschnitt eines japanischen NHK News Artikels mit verschiedenen farblichen Markierungen für die drei Schriften Kanji, Hiragana und Katakana.

Das Zusammenspiel der verschiedenen Schriften sichtbar gemacht: In diesem Ausschnitt aus einer Nachricht der japanischen öffentlich-rechtlichen Nachrichtenseite NHK hat die Redaktion Kanji in Pink, Hiragana in Blau und Katakana in Gelb markiert. Außerdem arabische Zahlen und lateinische Buchstaben in Grün, die Japaner ebenfalls nutzen. In dieser Nachricht kommen nur Kanji aus der offiziellen Jōyō-Liste vor.

(Bild: Dafina Maloku)

Weiterlesen nach der Anzeige

Bis zum Ende der Grundschule stehen die ersten 1026 der Jōyō-Kanji auf dem Plan – das sind die sogenannten „Unterrichtskanji“, auf Japanisch „Kyōiku-Kanji“ (教育漢字). Die Liste der Kyōiku-Kanji hat das japanische Ministerium für Bildung, Kultur, Sport, Wissenschaft und Technologie (MEXT) erstellt. Die verbleibenden 1110 Zeichen werden in den Klassen 7 bis 9 der Mittelstufe eingeführt.

Zusätzlich zu den Jōyō-Kanji existieren die „Jinmeiyō-Kanji“ (PDF-Datei) (人名用漢字), die aus 863 „Namens-Kanji“ für Familien und Personen bestehen, wovon einige nicht in der gebräuchlichen Jōyō-Kanji -Liste enthalten sind. Diese stehen häufig ergänzend auf dem Lehrplan.


Blatt Papier mit Kanji/Schriftzeichen zum Schreiben üben und verschiedene Büromaterialien drumherum.

Blatt Papier mit Kanji/Schriftzeichen zum Schreiben üben und verschiedene Büromaterialien drumherum.

Japanische Kinder üben ein neues Schriftzeichen, indem sie dieses immer wieder in der richtigen Strichreihenfolge auf Papier schreiben.

(Bild: JFontan/Shutterstock.com)

Wer jetzt denkt, mit den 2136 Jōyō-Kanji wäre das Erlernen der japanischen Schrift abgeschlossen, irrt sich: Japanische Wörterbücher wie Dai Kan-Wa Jiten listen bis zu 50.000 von ihnen auf; tatsächlich häufig genutzt wird jedoch nur ein Bruchteil davon. Denn die hohe Anzahl an Kanji war erst der Grund für die Entstehung der Jōyō-Kanji: Die Verringerung der Menge an häufig genutzten Kanji sorgt dafür, dass Lesen für die breite Masse zugänglich wird. Für das Verständnis der meisten Zeitungen und amtlichen Texte reichen die 2136 Jōyō-Kanji daher aus. Da es jedoch viel mehr Schriftzeichen als in der offiziellen Liste gibt, lernen die meisten Japaner ihr Leben lang neue Schriftzeichen, sodass sie nie richtig „fertig“ damit sind.

Noch dazu erwerben japanische Kinder in der Grundschule zusätzlich das lateinische Alphabet, das sie spätestens in der Mittelschule ab Klasse 7 für den Englischunterricht benötigen. Das lateinische Alphabet heißt auf Japanisch „Romaji“, mit dem japanische Wörter transkribiert werden können. Beispiele sind bekannte Marken wie „Toyota“, „Sony“ und „Nikon“. Für viele Lernende der japanischen Sprache bildet Romaji zu Anfang eine Brücke zur japanischen Schrift und erleichtert das Lernen.

Zwar lernen Kinder damit sogar vier verschiedene Schriften in der Schule, durch den technologischen Fortschritt schreiben Menschen im Laufe ihres Lebens jedoch immer mehr digital in Form des Tippens und weniger per Hand. Das kann einen negativen Einfluss auf die Schreibfähigkeit haben. Bereits vor 14 Jahren berichtet die Nachrichtenseite JAPANTODAY, dass laut einer staatlichen Umfrage 66,5 % der Japaner einschätzen, dass ihre Fähigkeit, Kanji per Hand zu schreiben, sich wegen der häufigen Nutzung von Handys und Computern verschlechtert hat.

Laut der Agentur Translationexcellence lege das japanische Bildungssystem aufgrund dieser Entwicklung immer mehr Wert auf das Erkennen und Lesen von Kanji und weniger auf die Schreibfähigkeit. Denn durch digitale Tools sei das Schreiben von Kanji deutlich effizienter geworden, was das Schreiben per Hand weniger nötig mache.


(mki)



Source link

Weiterlesen

Künstliche Intelligenz

WeRide und Lenovo wollen 200.000 autonome Fahrzeuge auf die Straße bringen


Lenovo und WeRide wollen in den kommenden Jahren eine große Anzahl autonom fahrender Autos auf die Straße bringen. Eine entsprechende Kooperation haben die beiden Unternehmen auf der Messe Auto China 2026 in Peking vereinbart.

Weiterlesen nach der Anzeige

Ziel der Zusammenarbeit sei, die Kommerzialisierung des hochautonomen Fahrens (SAE-Level 4) weltweit voranzutreiben, teilte WeRide mit. Dazu wollen die Partner in den kommenden fünf Jahren 200.000 autonome Fahrzeuge auf die Straße bringen.

Darunter sind Robotaxis, allerdings nicht nur: WeRide betreibt daneben weitere autonome Fahrzeuge: Lieferwagen, Busse oder Straßenkehrmaschinen.

WeRide entwickelt Systeme für autonomes Fahren und gehört neben Baidu und Pony.ai zu den großen Anbietern von autonomen Taxidiensten in China. Insgesamt ist das Unternehmen nach eigenen Angaben in mehr als 40 Städten in 12 Ländern aktiv, darunter in Belgien, Frankreich, der Schweiz, den Vereinigten Arabischen Emiraten sowie den USA.

Lenovo ist einer der größten Computerhersteller der Welt. Er will „seine Stärken im Bereich Intelligent Computing sowie seine globalen Fertigungs- und Lieferkettenkapazitäten“ einbringen. Daneben stellt der Konzern eine KI-Computing-Infrastruktur für den Flotteneinsatz bereit.

WeRide und Lenovo kooperieren bereits im Bereich autonomes Fahren: Im vergangenen Jahr haben die beiden Partner die Rechnerplattform HPC 3.0 auf den Markt gebracht. HPC 3.0 basiert auf dem AD1-Domain-Controller für hochautonomes Fahren von Lenovo. Darin arbeitet ein DRIVE AGX Thor von Nvidia. Das erste Fahrzeug, in dem HPC 3.0 verbaut ist, ist das Robotaxi GXR von WeRide.

Weiterlesen nach der Anzeige


(wpl)



Source link

Weiterlesen

Beliebt