Künstliche Intelligenz
Kommentar: Beim MacBook Neo muss man erstaunlich wenig Kompromisse machen
Ein portabler Mac für 700 Euro – und das in Zeiten der Inflation: Das hatten wohl die wenigsten Beobachter des IT-Marktes auf dem Zettel. Während es in der PC-Welt zu massiven Aufschlägen für RAM und SSDs kommt, gar die ganze Kategorie des Einsteiger-Notebooks vor dem Aus zu stehen scheint, kommt Apple einfach mal so mit einem MacBook Neo um die Ecke, bei dem Käufer erstaunlich wenige Kompromisse machen müssen. Im Gegenteil: Man hätte kaum erwartet, dass eine derartige Maschine zu diesem Preis denkbar ist – gerade bei Apple, wo man stets wie ein Luchs auf eine hohe Marge achtet.
Weiterlesen nach der Anzeige
Der Umkehrschluss ist wohl richtig: Nur Apple kann ein Gerät wie das MacBook Neo in dieser Qualität und mit diesen Features massenhaft bauen, die anderen können es einfach nicht, weil die Skaleneffekte fehlen. Der Konzern aus Cupertino hat etwa (nur für ihn dank Massenproduktion!) günstige iPhone-Chips in der Supply Chain, die viele x86-PCs locker toppen – und große Teile der ARM-Konkurrenz auch. Die werden dann eben im Neo verbaut und alle sind glücklich. Es ist denkbar, dass der Konzern auch so noch erstaunlich gut an dem Gerät verdient – und sei es vor allem indirekt durch bezahlte Dienste oder die Tatsache, dass Nutzer eine neue Einstiegsdroge ins Ökosystem bekommen.
An den richtigen Stellen gespart
Meine ersten Erfahrungen mit dem Neo sind sehr einfach auf den Punkt zu bringen: Das ist ein richtiger Mac, mit einer Hardwarestabilität, Geschwindigkeit und Nutzungsbequemlichkeit, wie man sie vor Jahren noch zum doppelten Preis (wenn nicht mehr) bekommen hätte. Einschränkungen gibt es genau an den Stellen, die die Zielgruppe – Mac-Neulinge – vermutlich eh nicht juckt: Bei den Ports (nur ein schneller USB-3-Anschluss, sonst USB 2.0), beim Trackpad (mechanisch statt rein haptisch, aber das macht überhaupt nichts, keiner baut bessere physische Trackpads als Apple) und beim Bildschirm (Features wie Farbtemperaturanpassung und Helligkeitssensor weggelassen).
Was mich hingegen nach den ersten Nutzungstagen überhaupt nicht stört, ist der geringe RAM-Ausbau von nur 8 GByte oder die vergleichsweise lahme SSD. Letztere merkt man fast nicht, weil sie eben nur im Vergleich zu den besseren Geräten langsam ist, bei normaler Nutzung für Alltagsarbeiten und Medienkonsum (und sogar kleinere bis mittelgroße Videoschnittprojekte) stört es nicht. Selbst bei vielen offenen Apps fällt das notwendige Swapping kaum auf.
Kein Wegwerfgerät
Das MacBook Neo ist also eine komplett ausreichende Maschine für Otto Normalnutzer. Hinzu kommt die Apple-typische Bauqualität. Da ruckelt nichts, das Alugehäuse in wirklich hübschen Farben (ich empfehle „Zitrus“) wirkt bombensicher, es gibt keine Spaltmaße und das Öffnen und Schließen des Displays ist äußerst befriedigend. Man kann das Neo wie jeden Mac auch mal kurz aufs Sofa werfen, es stört nicht. Auch die Tastatur ist gut (also nicht schlechter als bei einem Air oder gar Pro) und das Trackpad lässt sich oben wie unten beliebig klicken.
Weiterlesen nach der Anzeige

Mac & i-Redakteur Ben Schwan schreibt seit 1994 über Technikthemen und richtet sein Augenmerk mittlerweile insbesondere auf Apple-Geräte. Er mag das Design von Mac, iPhone und iPad und glaubt, dass Apple nicht selten die benutzerfreundlicheren Produkte abliefert. Immer perfekt ist die Hard- und Software-Welt aus Cupertino für ihn aber nicht.
Am auffälligsten ist am MacBook Neo, wie unauffällig es ist: Man nutzt es eben wie einen Mac, minus der Tatsache, dass es keinen Arm und kein Bein gekostet hat. (Und wer wirklich etwas mehr will, kauft eben für noch unter 1000 Euro ein MacBook Air M4 (ab 968,99 €), das gerade im Abverkauf ist.)
Heute kam dann noch bei ersten Teardowns heraus, dass Apple es geschafft hat, beim Neo auch die Reparatur deutlich zu vereinfachen. Es gibt keinerlei Vernagelung durch Kleber und Pull-Tabs, nur Schrauben, plus die Möglichkeit, selbst kleine Komponenten wie Ports oder Lautsprecher in wenigen Minuten zu tauschen. Das Neo ist also günstig, aber trotzdem kein Wegwerfgerät. Das ist doch mal eine schöne Kombination.
(bsc)
Künstliche Intelligenz
20 Jahre Amazon S3: Der goldene Käfig der Cloud-Ära
Amazon S3 löste 2006 ein echtes Problem. Storage-Beschaffung war teuer, langsam und riskant: Hardware bestellen, RAID konfigurieren, Kapazitäten planen, Backup-Strategien entwerfen – alles Monate bevor die erste Anwendung lief. S3 reduzierte das auf einen HTTP-Request. PUT, GET, fertig. Kein hoher Kapitaleinsatz, keine Vorabplanung, Abrechnung nach Verbrauch.
Weiterlesen nach der Anzeige
Das vereinfachte für Jungunternehmen den Start und war für Konzerne ein willkommener Weg, Investitionskosten in Betriebskosten umzuwandeln. Aber es war eben auch ein Tauschgeschäft: Kontrolle gegen Bequemlichkeit. Und wie bei den meisten Tauschgeschäften in der Tech-Branche merkten viele erst spät, was sie abgegeben hatten.
Die Zahlen beeindrucken – und verschleiern
AWS präsentiert zum Jubiläum stolz Kennzahlen, die zweifellos beeindrucken: über 200 Millionen Requests pro Sekunde, Hunderte Exabyte Daten, 123 Availability Zones, 39 Regionen. Die maximale Objektgröße ist von 5 GByte auf 50 TByte gewachsen, der Preis pro Gigabyte von 15 auf gut 2 US-Cent gefallen – ein Rückgang von 85 Prozent.
Was AWS nicht erwähnt: Die Hardwarekosten pro Gigabyte sind im selben Zeitraum um weit mehr als 85 Prozent gesunken. Die Preissenkungen spiegeln also zu einem erheblichen Teil die allgemeine Kostenentwicklung bei Speichermedien wider, nicht aber großzügigen Margenverzicht. Laut Analystenberichten operiert AWS insgesamt mit Betriebsmargen von über 30 Prozent – das dürfte für S3 genauso gelten.
Auch der Hinweis, Kunden hätten durch S3 Intelligent-Tiering kollektiv mehr als 6 Milliarden US-Dollar gespart, verdient einen zweiten Blick. Gespart im Vergleich wozu? Zum eigenen S3-Standard-Tarif, meint AWS. Das ist, als würde ein Automobilhersteller damit werben, dass Kunden Geld sparen, wenn sie das günstigere Modell kaufen. Die eigentliche Frage – ob dieselben Workloads bei alternativer Infrastruktur oder bei regionalen Cloud-Anbietern günstiger liefen – bleibt unbeantwortet.
Der API-Standard, den nur AWS kontrolliert
Die vielleicht folgenreichste Wirkung von S3 jedoch ist die Standardisierung. Das S3-API hat sich als Lingua franca für Objektspeicher durchgesetzt. MinIO, Ceph, Cloudflare R2, Wasabi, Backblaze B2 – sie alle implementieren S3-kompatible Schnittstellen für Objektspeicher. Auf den ersten Blick sieht das nach einem offenen Ökosystem aus. Auf den zweiten ist es das Gegenteil.
Weiterlesen nach der Anzeige
Denn das S3-API ist kein offener Standard. Es gibt kein Normungsgremium, kein RFC, kein Governance-Modell. AWS definiert die Spezifikation, AWS erweitert sie, AWS entscheidet, welche Features hinzukommen. Kompatible Anbieter laufen strukturell hinterher – sie können das Kern-API nachbauen, aber proprietäre Erweiterungen wie S3 Tables, S3 Vectors, S3 Metadata, Object Lambda oder Event Notifications in ihrer vollen Integration nicht replizieren.
Das Ergebnis ist ein Standard, der Portabilität suggeriert, aber nicht vollständig einlöst. Einfache PUT/GET-Workloads lassen sich tatsächlich gut migrieren. Aber wer S3-Events in Lambda-Funktionen verarbeitet, Lifecycle-Policies mit Glacier-Tiering kombiniert und Zugriffe über IAM-Policies steuert, hat kein Storage-Problem – er hat ein Plattform-Problem. Und genau das ist die Absicht.
Egress: Die unsichtbare Mauer
Über kaum ein Thema wird in der Cloud-Ökonomie so viel geklagt und so wenig gehandelt wie über Egress-Gebühren. AWS berechnet für den Datentransfer aus S3 heraus nach wie vor Gebühren, die in keinem nachvollziehbaren Verhältnis zu den tatsächlichen Transitkosten stehen. Zwar hat AWS die Preise punktuell gesenkt und bietet seit 2024 kostenlosen Egress für den Anbieterwechsel an – aber nur einmalig und nur für den vollständigen Abzug.
Für Unternehmen mit Hunderten Terabyte oder Petabyte in S3 ist die Rechnung schnell gemacht: Allein die Transferkosten für eine Migration können sechsstellige Beträge erreichen – bevor das erste Byte auf der neuen Plattform liegt. Das ist kein Bug, das ist ein Geschäftsmodell. Daten fließen günstig hinein – und teuer heraus.
Die Plattform-Wette: S3 als Datenmonopol
Die jüngsten Erweiterungen machen die strategische Richtung unmissverständlich. S3 Tables bringt verwaltete Apache-Iceberg-Tabellen direkt in den Speicherdienst. S3 Vectors liefert nativen Vektorspeicher für RAG-Anwendungen – laut AWS wurden in nur vier Monaten über 250.000 Indizes angelegt und mehr als eine Milliarde Abfragen ausgeführt. S3 Metadata eliminiert die Notwendigkeit, Buckets rekursiv zu listen.
Die Botschaft ist klar: Daten sollen in S3 gespeichert, in S3 abgefragt, in S3 analysiert und aus S3 heraus für KI-Modelle bereitgestellt werden. Ohne Kopien, ohne Zwischensysteme, ohne Umwege – und ohne Grund, die AWS-Plattform zu verlassen. Was AWS als Vereinfachung verkauft, ist eine vertikale Integration, die den Wettbewerb auf der Analyseschicht systematisch untergräbt. Warum sollte ein Unternehmen noch einen separaten Vektorspeicher evaluieren, wenn S3 Vectors zum S3-Preis mitgeliefert wird?
Fazit: Technisch brillant, strategisch kalkuliert
20 Jahre S3 sind eine technische Erfolgsgeschichte, an der es wenig zu deuteln gibt. Der Dienst hat Storage für Start-ups demokratisiert, eine API zum Branchenstandard gemacht und bewiesen, dass Rückwärtskompatibilität selbst über zwei Jahrzehnte funktionieren kann. Die Durability-Garantien sind real, die Skalierung ist beispiellos, das Engineering ist erstklassig.
Aber die Erfolgsgeschichte hat eine Rückseite, über die AWS verständlicherweise nicht spricht. S3 ist nicht nur ein Speicherdienst – es ist ein ökonomisches Gravitationsfeld, das Daten anzieht und nicht mehr loslässt. Der offene API-Standard ist keiner. Die Preissenkungen folgen der Hardware-Kurve, nicht der Großzügigkeit. Und jede neue Funktion – Tables, Vectors, Metadata – macht die Plattform nützlicher und den Ausstieg teurer.
Die IT-Branche hat sich in den vergangenen 20 Jahren sehenden Auges in diese Abhängigkeit begeben. Das war in vielen Fällen die rationale Entscheidung – die Alternative hieß eigene Infrastruktur mit allen Kosten und deutlich höheren Risiken. Aber rational und alternativlos sind zwei verschiedene Dinge. Wer heute seine Daten- und KI-Strategie auf S3 aufbaut, sollte zumindest wissen, dass er nicht nur einen Speicherdienst bucht. Er bucht eine Beziehung, aus der man nicht ohne Weiteres wieder herauskommt.
(fo)
Künstliche Intelligenz
#TGIQF: Das Nerdquiz um den Ig-Nobelpreis
Eine Schlagzeile der Woche: Der IG-Nobelpreis zieht aus den USA in die Schweiz. Der Preis, der sich selbst nicht ganz ernst nimmt und dessen Verleihung „erst zum Lachen, dann zum Andenken anregen soll“, findet aufgrund der politischen Situation in den Vereinigten Staaten am 3. September 2026 in Zürich und erstmals außerhalb der USA statt.
Weiterlesen nach der Anzeige
Doch was ist der Ig-Nobelpreis? Seit 1991 werden die Preise alljährlich auf einer bunten Veranstaltung verliehen, in ähnlichen Kategorien wie die echten Nobelpreise. Mal legen die Veranstalter einen satirischen Fokus auf skurrile Forschungen, mal schwingt bei den Preisverleihungen auch Sarkasmus mit. Dennoch wird der Preis in der Wissenschafts-Community geschätzt: Die Preisübergabe erfolgt oftmals durch echte Nobelpreisträger.

„Thank God It’s Quiz Friday!“ Jeden Freitag gibts ein neues Quiz aus den Themenbereichen IT, Technik, Entertainment oder Nerd-Wissen:
In den vergangenen 35 Jahren fanden die Verleihungen stets in Massachusetts statt: Sie wechselten zwischen Harvard University und dem MIT (The Massachusetts Institute of Technology). In diesem Jahr findet die Verleihung in Zusammenarbeit der Eidgenössischen Technischen Hochschulen und der Universität Zürich statt, wie die Veranstalter mitteilten. In Boston findet stattdessen wenige Wochen danach eine Ig-Nobelpreis-Veranstaltung statt.
Als kleine Instanz für Klugscheißerwissen wollen wir den etwas anderen Wissenschaftspreis mit einem Freitagsquiz ehren.
In der heiseshow stellte Moderatorin Anna Bicker der Stammbesatzung Dr. Volker Zota und Malte Kirchner drei Fragen vorab: Nicht jede Herleitung war angesichts der schwierigen Fragen nobelpreisverdächtig, aber sie fanden sich gut durch.
Sie können in Ruhe in 10 Fragen maximal 100 Punkte erreichen. Die Punktzahl kann gern im Forum mit anderen Mitspielern verglichen werden. Halten Sie sich dabei aber bitte mit Spoilern zurück, um anderen Teilnehmern nicht die Freude am Quiz zu verhageln. Lob und Kritik sind wie immer gern gelesen.
Weiterlesen nach der Anzeige
Bleiben Sie zudem auf dem Laufenden und erfahren Sie das Neueste aus der IT-Welt: Folgen Sie uns bei Mastodon, auf Facebook oder Instagram. Und schauen Sie auch gern beim Redaktionsbot Botti vorbei.
Und falls Sie Ideen für eigene Quizze haben, schreiben Sie einfach eine Mail an den Quizmaster aka Herr der fiesen Fragen.
(mawi)
Künstliche Intelligenz
Post zum Freitag: Apple bringt Neo, Schnäppchenfallen, Filmtipp fürs Wochenende
In dieser Woche gab es gleich mehrere Ankündigungen von Apple. Ich muss zugeben, dass ich die Keynotes zu den Produktvorstellungen vermisse, hauptsächlich diejenigen, die nicht perfekt durchinszeniert waren. Aber nun zu den Produkten: Zum einen hat Apple mit dem MacBook Neo ein Einsteigernotebook ab 700 Euro vorgestellt, das den Markt gehörig aufmischen dürfte. Erstmals seit dem Kunststoff-MacBook von 2009 gibt es wieder ein Apple-Notebook, das gezielt unter die 1000-Euro-Marke zielt – eine echte Kampfansage an die Windows-Konkurrenz, die dieses Segment 15 Jahre lang für sich hatte. Um den Preis zu drücken, hat Apple allerdings den Rotstift angesetzt: Keine Tastaturbeleuchtung, kein Thunderbolt, kein MagSafe, und statt eines M-Prozessors steckt ein iPhone-Chip im Inneren – ein Novum für die MacBook-Reihe. Ob der Spagat zwischen Sparsamkeit und Schnelligkeit gelingt, hat mein Kollege Holger Zelder im ausführlichen Test des MacBook Neo untersucht.
Weiterlesen nach der Anzeige
Am anderen Ende der Apple-Preisskala stehen die neuen MacBook Pros mit M5 Pro und M5 Max, die gerade in den Handel gekommen sind. Die neue Fusion-Architektur kombiniert erstmals zwei Dies zu einem SoC, das SSD-Tempo hat sich verdoppelt, und die Leistung ist beeindruckend. Allerdings produzieren die Max-Chips unter Dauerlast ordentlich Wärme und damit Lüfterlärm. Und die Preise? Nun ja, ich sage es mal so: Das Neo am anderen Ende der Skala hat durchaus seine Daseinsberechtigung.
Apropos teure Hardware: Wer gerade eine neue Grafikkarte braucht, hat es nicht leicht. Die Preise sind durch den KI-bedingten Speicherhunger der Industrie massiv gestiegen, und wer nach vermeintlichen Schnäppchen bei Grafikkarten mit viel RAM sucht, tappt schnell in die Falle. Ob ausgenudelte Gebrauchtkarten von Auktionsplattformen oder Uraltmodelle mit beeindruckenden Speicherzahlen – die Kollegen erklären, worauf Sie achten müssen, und haben einige alte wie neue Karten mit aktuellen Treibern erneut auf den Prüfstand gestellt.
Deutlich günstiger als Grafikkarten sind Klemmbausteine. Mit „Smart Play“ macht Lego einen gewagten Schritt: Der neue Smart Brick bringt Licht, Sound und Bewegungssensorik in die Klemmbausteinwelt – und zwar, ohne dass man dafür ein Smartphone benötigt. Die ersten Sets sind Star-Wars-Modelle, X-Wing und TIE Fighter. Alexander Spier hat sie ausgiebig getestet. Ich fand besonders spannend, wie viel Technik Lego in einen einzelnen Stein gepackt hat: Sensoren, Akku, Bluetooth – alles geschützt durch zahlreiche Patente. Das Spielerlebnis bleibt dabei erfreulich analog, die App wird nur für Firmware-Updates benötigt.

Lego startet seine „Smart Play“-Serie mit Sets aus der Star-Wars-Reihe.
(Bild: Alexander Spier / heise medien)
Ob Legos Smart Play ein richtiger Schritt in die Zukunft ist, muss sich ebenso zeigen wie beim digitalen Euro. Die Europäische Zentralbank zielt darauf ab, ihn im Jahr 2029 einzuführen. Klingt noch weit weg, aber die Vorbereitungsphase läuft bereits, Rahmenabkommen für zentrale Komponenten sind geschlossen, und die Diskussionen über die Architektur – zentral oder Blockchain-basiert – werden intensiver. Gleichzeitig wächst die Kritik, die längst über reine Kostenfragen hinausgeht. Ich habe den aktuellen Stand in einem Hintergrundartikel zusammengetragen.
Weiterlesen nach der Anzeige
Kennen Sie das? Man hat sich gemütlich eingerichtet – die Notizen in der Cloud, alles synchron, alles bequem – und dann kommt dieser nagende Gedanke: Was passiert eigentlich, wenn der Dienst mal nicht erreichbar ist? Oder schlimmer: wenn er mich aussperrt? Genau dieses Unbehagen hat Liane Dubowy zum Anlass genommen, den Umzug der eigenen Wissensdatenbank von Notion zu Obsidian durchzuspielen. Obsidian speichert alles lokal in Markdown-Dateien, die sich jederzeit sichern und sogar ohne die App bearbeiten lassen. Wer also sein „zweites Gehirn“ lieber auf der eigenen Festplatte wissen möchte, findet in dem Artikel eine praxiserprobte Anleitung – inklusive Lösungen für die Stolpersteine, die beim Import unweigerlich auftauchen.
Zum Schluss habe ich noch einen Filmtipp fürs Wochenende, der nichts mit Technik im engeren Sinne zu tun hat – und doch alles: „Der Astronaut – Project Hail Mary“ ist die beste Science-Fiction seit „Interstellar“, findet meine Kollegin Sabrina Patsch. Die Verfilmung von Andy Weirs Roman verzichtet auf die üblichen Katastrophenfilm-Klischees und erzählt stattdessen eine intime Geschichte über einen Mann, der zwölf Lichtjahre von der Erde entfernt aufwacht, ohne Erinnerung, ohne Kontakt zur Heimat – und trotzdem Hoffnung findet. Ryan Gosling spielt die Hauptrolle, und wer „Der Marsianer“ mochte, wird diesen Film lieben.
In dem Sinne: Ich wünsche Ihnen ein erholsames Wochenende und eine gute Lese- und Filmzeit!
Ihr
Volker Zota
(Chefredakteur heise medien)
(vza)
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 1 MonatCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 3 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Künstliche Intelligenzvor 3 MonatenDigital Health: „Den meisten ist nicht klar, wie existenziell IT‑Sicherheit ist“
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
UX/UI & Webdesignvor 1 MonatEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 3 MonatenEMEC vereint Gezeitenkraft, Batteriespeicher und H₂-Produktion in einer Anlage
