Connect with us

Künstliche Intelligenz

heise meets … Amazon-Technikchef: „Entwickle dich weiter oder stirb!“


Für die Jüngeren unter uns, die mit dem Internet aufgewachsen sind, ist Amazon nur ein Handelsriese, den es schon immer gab. Das war jedoch nicht immer so. Die Anfänge des Unternehmens waren deutlich bescheidener, wie Vogels im Podcast „heise meets…“ erzählt.

Bevor er zu Amazon kam, war er Akademiker und habe verschiedene Unternehmen in den USA beraten. Eines Tages hat Amazon ihn eingeladen, einen Vortrag zu halten.

Er dachte „Amazon? Das ist eine Buchhandlung. Wie schwer kann das schon sein, einen Webserver und eine Datenbank zu betreiben?“, erinnert sich Vogels an seinen ersten Kontakt mit dem Unternehmen.


heise meets... Der Entscheider-Podcast

heise meets... Der Entscheider-Podcast

heise meets…. Der Entscheider-Talk – von Entscheidern für Entscheider – immer aktuell und nah am Geschehen.
Sie können uns auf allen Podcast Kanälen hören.
Wählen Sie Ihren Kanal aus.

Doch bei seinem ersten Blick hinter die Kulissen sei er „völlig überwältigt“ gewesen. Diese Leute hatten Systeme in einer Größenordnung aufgebaut, an die er nie zuvor gedacht habe.

Ihm sei schnell klar geworden, dass die gesamte Architektur von Amazon „hausgemacht“ gewesen sei. „Es gab keine kommerzielle Technologie, die in der Größenordnung von Amazon funktionieren konnte. Definitiv nicht in jenen Tagen.“

Eine der größten Herausforderungen seien Datenbanken gewesen. „Ende der 90er- und Anfang der 2000er-Jahre waren relationale Datenbanken das Standardwerkzeug zum Speichern von Daten. Und alles wurde in diese gezwungen“, erzählt Vogels.

„Im Grunde wurde die Zuverlässigkeit und der Umfang von Amazon durch den Umfang ihrer Datenbanken bestimmt. Und Datenbanken waren dieser Aufgabe nicht gewachsen, um ehrlich zu sein.“

Zudem habe es zu dieser Zeit den Begriff „E-Commerce“ noch gar nicht gegeben. „Es gab kein Buch, in dem stand, so implementiert man einen Online-Buchladen“, so Vogels.

Viele Dinge, die heute zum Standard in Webshops gehören, habe Amazon erst entwickeln müssen – von Empfehlungen über Kundenrezensionen bis hin zu Produktvergleichen.

Doch auch die Architektur im Hintergrund musste demnach völlig neu gedacht werden, um mit den Anforderungen Schritt halten zu können. Die Zuverlässigkeit der gesamten Website sei von der Zuverlässigkeit der Datenbanken bestimmt worden.

„Die Jungs, die für diese Datenbanken verantwortlich waren, die DBAs, wurden extrem konservativ, weil sie zur Verantwortung gezogen wurden, wenn etwas schiefging, und nicht die Front-End-Entwickler“, erklärt Vogels.

Um dieses Problem zu lösen, hätten einige Amazon-Ingenieure bereits 1998 ein Manifest über verteiltes Rechnen geschrieben, in dem sie eine serviceorientierte Architektur vorschlugen. Doch dabei seien Fehler gemacht worden, räumt Vogels ein.

„Es gab kein Buch über Serviceorientierung. Das Wort gab es nicht“, erzählt er. „Wir hatten eine datengesteuerte Dekomposition mit drei großen Datensätzen: Kunden, Artikel als Katalog und Bestellungen.“

Der gesamte Code, der mit dem Kundendatensatz arbeitete, wurde in einem Dienst zusammengefasst. Schon bald habe er die gleichen Probleme wie der Monolith gehabt.

Letztlich habe man deshalb begonnen, die Dienste weiter in einzelne Funktionen aufzuteilen. Das war die Geburtsstunde der Microservices. Doch auch hier habe sich schnell gezeigt, dass die Produktivität der Entwickler nicht den Erwartungen entsprach, weil jeder seine eigene immer komplexere Rechenumgebung verwalten musste.

„Wir begannen mit dem Aufbau einer Shared-Services-Umgebung, die Datenbank, Computing und Storage umfasste. Die Ingenieure mussten sich also nicht mehr um die Verwaltung kümmern“, so Vogels. Daraus entstanden die Amazon Web Services (AWS), wie wir sie heute kennen.

Dass Amazon Web Services heute nicht nur die eigene IT-Infrastruktur ist, sondern auch für andere Unternehmen angeboten wird, sei letztlich eine logische Konsequenz gewesen.

In den frühen 2000er-Jahren war es populär, eine API bereitzustellen, um zu sehen, welche Art von Innovation passiert, erzählt Vogels. Viele Unternehmen hätten tolle Sachen auf Basis solcher Schnittstellen entwickelt, seien dann aber an den Kosten für die eigene IT-Infrastruktur gescheitert.

Das Fazit von Werner Vogels lautet deshalb: „Evolve or die“ – entwickle dich weiter oder stirb. Unternehmen müssten sich immer wieder neu erfinden und weiterentwickeln, um langfristig am Markt bestehen zu können. Das gelte auch für Amazon selbst.

Ein vollständiges Transkript der aktuellen Podcast-Episode von heise meets gibt es unter den Shownotes bei Podigee zu lesen.


(vbr)



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Künstliche Intelligenz

Linux 6.16: Entspannt zu mehr Leistung


In der Nacht von Sonntag auf Montag gab Linus Torvalds Linux 6.16 frei – mit einem ausgedehnten Blick auf die Planung der nächsten Version. Über Linux 6.16 selbst verlor Torvalds lediglich vier Sätze in der sieben Absätze langen Release-Meldung. Die Arbeiten an der neuen Kernel-Version seien sehr ruhig und entspannt gewesen. In den Kernel-Neuling seien weder viele noch umfangreiche Patches eingeflossen. Dennoch hält der Kernel Interessantes bereit, etwa optimiertes USB-Audio-Streaming, Datenbank-optimiertes XFS und die Möglichkeit, den Kernel für das eigene System maßzuschneidern.

Eingebettete Systeme (Embedded Systems) müssen recht knausrig mit den verfügbaren Energieressourcen umgehen. Im Audiobereich hilft Linux 6.16 den Winzlingen dabei jetzt mit „USB Audio Offloading“. Das Feature verlagert die Verarbeitung von Audiodaten vom Hauptprozessor (CPU) auf einen dedizierten Audio-Controller. Dadurch können Audiosignale übertragen werden, während der restliche, nicht benötigte Teil des Systems – einschließlich der energiehungrigen CPU – in den Dämmerschlaf gehen kann.

Damit lässt sich trotz laufendem Audio-Stream Energie einsparen, was besonders bei mobilen und batteriebetriebenen Geräten die Akkulaufzeit deutlich verlängert. Die Linux-Schwester Android kennt dieses Offloading schon länger, allerdings in verschiedenen Implementierungen. Der Linux-Kernel bietet nun eine einheitliche Lösung.

Das Dateisystem XFS unterstützt mit der neuen Kernel-Version „large atomic writes“. Dahinter verbirgt sich das Zusammenfassen von mehreren Dateisystemblöcken beim Schreiben als atomare Vorgang. Es werden demnach entweder alle Blöcke geschrieben oder keiner. Sehr plastisch drückt es das englische Synonym für „atomic writes“ aus: „untorn writes“, also „unzerrissene Schreibvorgänge“.

Lesen Sie auch

Von diesem Feature profitieren insbesondere Datenbanken mit Datenhaltung im Dateisystem. Beispiele wären übliche Set-ups vom MySQL und MariaDB.

Viele Anwendungen stellen über den System-Call fsync sicher, dass ihre Daten auf dem Festspeicher gelandet sind. Dieser Aufruf zur Synchronisierung aktualisierte bei ext4 bislang mehr Metadaten des Dateisystems als eigentlich notwendig wären. Nun schreibt ext4 nur noch die minimal benötigten Informationen ins Journal und weil weniger Daten zu schreiben sind, wird der Vorgang schneller. Auch mit diesen ausgedünnten Metadaten kann das Dateisystem nach einem Crash anhand des Journals sicher wiederhergestellt werden.

Außerdem bringt ext4 jetzt auch „large folio support“ für reguläre Dateien. Ein Folio ist im Linux-Kernel eine logische Gruppierung von mehreren Speicherseiten (Pages, standardmäßig 4 KB). Mit Large Folios fasst der Kernel mehrere dieser Seiten zusammen, um eine einzelne, größere Einheit (beispielsweise 16 KB, 64 KB oder sogar größer) zu bilden.

Größere Folios reduzieren den Verwaltungsaufwand, da weniger einzelne Speicherblöcke gemanagt werden müssen. Das steigert insbesondere bei sequenziellen I/O-Operationen die Performance deutlich. Der Kernel kann zudem effizienter arbeiten, weil weniger Metadaten benötigt werden, um größere Datenmengen zu adressieren. Ebenfalls sinkt der Verwaltungsaufwand für die CPU und Caches, da sich auch die CPU-Operationen beim Zugreifen auf große Dateien reduzieren.

Apropos Leistungsoptimierung: Mit Version 6.16 kommt die Kernel-Build-Option X86_NATIVE_CPU hinzu. Damit lässt sich der Linux-Kernel gezielt auf die lokal vorliegende CPU anpassen, statt für eine CPU-Familie kompiliert zu werden. Dazu nutzt der Build-Prozess bei eingeschaltetem X86_NATIVE_CPU die Compiler-Optimierung `-march=native`. Der Compiler optimiert den Code dann maßgeschneidert für das lokale System und kitzelt noch das letzte Leistungsoptimum aus der CPU heraus.

Interessant ist das für den Eigenbau auf dem heimischen PC, aber auch für den Rollout eines optimierten Kernels in Server-Clustern und -Farmen. Auch Nutzer von Gentoo oder Linux from Scratch erhalten hiermit ein neues Optimierungsschräubchen.

Zu beachten ist allerdings: Der Kernel läuft dann unter Umständen nicht mehr auf anderen Systemen. Wer die Platte aus System A rausnimmt und in System B reinsteckt, kommt eventuell nicht weit, sondern provoziert einen Kernel-Crash.



Source link

Weiterlesen

Künstliche Intelligenz

Elektroautos: Preiswerte Modelle im Anflug


Wann kommen die bezahlbaren Elektroautos? Warum gibt es so wenige elektrische Kleinwagen? Und warum bietet die Autoindustrie immer mehr SUVs an? Solche Postings sind in den Kommentaren der Foren häufig zu lesen. Die Antwort auf diese drei Fragen sind Gegenfragen: Was bedeutet eigentlich bezahlbar? Wer außer Pflege- und Bringdiensten kauft Kleinwagen? Und warum sind SUVs so beliebt?

Der deutsche Markt ist geprägt vom C-Segment. Das ist die Kompaktklasse, die auch Golf-Klasse genannt wird. Tatsächlich war der VW Golf (Test) im vergangenen Jahr der meistverkaufte Pkw, gefolgt vom T-Roc und dem Tiguan sowie den Kombis Skoda Octavia und VW Passat (Test). Das ist, was Privat- und Gewerbekunden als Neuwagen übernommen haben. Mit dem Opel Corsa ist nur ein Kleinwagen unter den Top Ten, den es zwar auch mit E-Motor gibt. Ein Auto dagegen, das ausschließlich mit batterieelektrischem Antrieb angeboten wird? Fehlanzeige.

Der Volkswagen-Konzern dominiert auch bei der Verkaufsstatistik der Elektroautos im ersten Quartal 2025. Ganz vorn in der Liste ist der VW ID. 7. Unter den Top 10 kommen mit dem Tesla Model Y (Platz 7), dem BMW i4 (Platz 8) und dem BMW iX1 (Platz zehn) nur drei Elektroautos von anderen Marken. Keins davon ist klein. Bezahlt werden all diese Pkw nur noch in Ausnahmefällen sofort. Die meisten werden im Geschäfts- oder Privatkundenleasing vertrieben oder auf Kredit finanziert. Relevant sind die monatlichen Raten, nicht unbedingt der Listenpreis.


Das war die Leseprobe unseres heise-Plus-Artikels „Elektroautos: Preiswerte Modelle im Anflug“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

Der letzte Termin: Die heise security Tour – Wissen schützt!


Was bedeutet eigentlich Risiko-Management in der Praxis? Wie gefährlich ist Phishing wirklich? Kann ich vielleicht einen Teil meiner Security outsourcen? Auch im zwanzigsten Jahr bringt die heise security Tour manchmal überraschende, aber immer praxisrelevante Antworten auf konkrete Security-Fragen.

Für viele IT-Sicherheits-Verantwortliche in Unternehmen und Behörden ist das Tages-Event deshalb längst ein Muss. Die Termine im Frühsommer begeisterten die Teilnehmer; 98 Prozent wollen wiederkommen, glatte 100 würden die Tour weiterempfehlen. Am 25. September gibt es das Event ein letztes Mal als Online-Veranstaltung.

Den Einstieg macht Jürgen Schmidt mit seinem Lagebild der IT-Sicherheit. Heise-Justiziar Joerg Heidrich erklärt neue Haftungsrisiken in der IT und Christoph Wegener setzt sich damit auseinander, wie man das Buzzwort Risiko-Management in der Praxis mit Leben füllen kann. Christoph Beckmeyer widmet sich dem Thema Forensik und wie man dabei die richtige Grenze zwischen der zielgerichteten Suche nach Informationen und interessanten, aber nicht zwingend benötigten Kuriositäten findet.

Stefan Strobel beleuchtet den wachsenden Bereich der Managed Security unter der Fragestellung, was man verantwortungsbewusst auslagern könnte und wo man besser darauf verzichtet. Und schließlich demonstriert Julian Suleder eindrucksvoll, dass Phishing immer noch unterschätzt wird – und erklärt natürlich auch, wie man bei der Abwehr auf diese Weiterentwicklung reagieren sollte.

Die eintägige Veranstaltung findet an mehreren Orten in Präsenz und an separaten Terminen auch digital statt; dieses Jahr steht nur noch der letzte Online-Termin am 25. September an. Das Event richtet sich an technisch und organisatorisch Verantwortliche für IT-Sicherheit und Datenschutz in Unternehmen aller Größen. Wie immer bei heise-security-Veranstaltungen gibt es keine Werbevorträge, alle Themen und Referenten wurden von der Redaktion ausgesucht. Das Ticket für den Online-Termin, das auch den Zugang zu den aufgezeichneten Vorträgen enthält, kostet regulär 595 €; bis zum 14. August gilt noch der rabattierte Frübuchertarif von 545 €. Es lohnt also, bald zuzugreifen.

Das komplette Programm der Tour und die Möglichkeit, dich anzumelden, findest du auf:

Bei heise Security PRO ist das Ticket zur Tour schon dabei; du findest den Code dazu im Event-Kalender des PRO-Forums. Ferner kannst du an allen heise security Webinaren kostenlos teilnehmen, dich mit anderen Security-Professionals im exklusiven PRO-Forum und bei den monatlichen PRO-Talks austauschen und du bekommst den wöchentlichen Pro-Newsletter. In der Kombination lohnt sich das. Mehr dazu findest du hier:


heise Security Pro

heise Security Pro


(ju)



Source link

Weiterlesen

Beliebt