Connect with us

Künstliche Intelligenz

Mobilitätsdaten: Deutsche Carsharing-Anbieter fürchten um ihre Existenz


Die geplante Neuregelung zur digitalen Bereitstellung von Mobilitätsdaten sorgt für Zündstoff in der deutschen Verkehrslandschaft. Die Bundesregierung will mit dem Rechtsrahmen die digitale Transformation des Sektors vorantreiben und europäische Vorgaben in nationales Recht umsetzen. Doch eine Anhörung im Verkehrsausschuss des Bundestags am Montag zeichnete ein Bild tiefer Verunsicherung.

Weiterlesen nach der Anzeige

Im Kern geht es um die verpflichtende Weitergabe von Informationen über einen nationalen Zugangspunkt. Entsprechende Daten sollen nach dem Willen der Regierung unentgeltlich und ohne Zweckbindung zur Verfügung gestellt werden.

Besonders scharf kritisiert nun der Bundesverband Carsharing (bcs) die Vorlage. Dessen Geschäftsführer Gunnar Nehrke bezeichnete den Entwurf als existenzbedrohend für die gesamte Branche. Deutschland gilt dem bcs zufolge mit rund 5,5 Millionen angemeldeten Nutzern und über 45.000 Fahrzeugen als europäischer Leitmarkt für geteilte Autos. Dort gehörten viele mittelständische Anbieter weltweit zu den wenigen, die profitabel arbeiteten. Dieser Erfolg basiere maßgeblich auf jahrelangem Know-how bei der präzisen Steuerung von Fahrzeugverfügbarkeit und Auslastung.

Die Branche befürchtet jetzt, dass durch die geplante Offenlegung dynamischer Mobilitätsdaten genau diese Geschäftsgeheimnisse für jeden beliebigen Zweck nutzbar werden. Werden sensible Echtzeitdaten frei zugänglich, so die Sorge, könnten Wettbewerber aus dem In- und Ausland die bisher geschützten Geschäftsmodelle detailliert analysieren und kopieren. Aus den Daten ließen sich Informationen über die Flottengröße pro Standort, die spezifische Auslastung einzelner Gebiete und sogar Umsatzschätzungen rekonstruieren.

Dies könne vor allem die Expansion in die Fläche gefährden, befürchtet bcs. Bisher finanzierten stationsbasierte Anbieter nachfrageschwache Standorte in Stadtrandlagen oder im ländlichen Raum durch Gewinne aus urbanen Zentren quer. Wenn Wettbewerber nun punktgenau nur noch die lukrativsten Standorte angreifen könnten, breche dieses System zusammen. Dies könnte letztlich zu einem massiven Angebotsrückgang außerhalb der Großstädte führen, da die Perspektive auf einen Rückfluss der Investitionen fehlt.

Weiterlesen nach der Anzeige

Auch der Datenschutz bereitet den Carsharing-Experten Kopfzerbrechen. Durch die Kombination von Kennzeichen und dynamischen Standortdaten ließen sich theoretisch Bewegungsmuster von Privatpersonen rekonstruieren. Dies berge das Risiko, dass Trackingtools entstehen könnten, mit denen Bewegungsprofile erstellt werden. Der Verband fordert daher eine Registrierungspflicht für Datennutzer sowie die Möglichkeit, den Einsatz auf legitime Zwecke wie Reiseauskünfte oder Forschung zu begrenzen.

Neben diesen strategischen Gefahren belasten bürokratische Hürden die Branche. Die Umstellung auf spezifische Datenformate sowie neue Pflichten zu Eigenerklärungen und zur Prüfung fremder IT-Fehlermeldungen würden immense Mehrkosten verursachen. Der bcs rechnet allein fürs erste Jahr mit einer Belastung von rund 4,5 Millionen Euro für die Mitglieder. Da das Gesetz gleichzeitig eine kostenlose Bereitstellung vorschreibe, könne keine Refinanzierung erfolgen. Die Kosten müssten so wohl an die Nutzer weitergegeben werden.

Demgegenüber stehen Befürworter des Vorhabens wie Felix Gündling von der Firma Triptix, der in der Öffnung der Mobilitätsdaten eine Chance für die digitale Souveränität Europas sieht. Bisher hätten vor allem US-Konzerne wie Google oder Apple die Mittel, Verkehrsinformationen in großem Stil einzukaufen. Offene Daten seien ein notwendiger Grundbaustein, um auch kleineren deutschen Unternehmen die Entwicklung konkurrenzfähiger Routing-Dienste zu ermöglichen. Auch das Wuppertal Institut sieht Potenziale für klimaneutrale Mobilität, fordert jedoch eine noch weitreichendere Bereitstellungspflicht. Die Debatte verweist auf ein Dilemma der Verkehrswende: Während den einen die Öffnung von Daten als Innovationsmotor gilt, stehen etablierte mittelständische Strukturen vor der Zerreißprobe.


(mki)



Source link

Künstliche Intelligenz

20 Jahre Amazon S3: Der goldene Käfig der Cloud-Ära


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Amazon S3 löste 2006 ein echtes Problem. Storage-Beschaffung war teuer, langsam und riskant: Hardware bestellen, RAID konfigurieren, Kapazitäten planen, Backup-Strategien entwerfen – alles Monate bevor die erste Anwendung lief. S3 reduzierte das auf einen HTTP-Request. PUT, GET, fertig. Kein hoher Kapitaleinsatz, keine Vorabplanung, Abrechnung nach Verbrauch.

Weiterlesen nach der Anzeige

Das vereinfachte für Jungunternehmen den Start und war für Konzerne ein willkommener Weg, Investitionskosten in Betriebskosten umzuwandeln. Aber es war eben auch ein Tauschgeschäft: Kontrolle gegen Bequemlichkeit. Und wie bei den meisten Tauschgeschäften in der Tech-Branche merkten viele erst spät, was sie abgegeben hatten.

AWS präsentiert zum Jubiläum stolz Kennzahlen, die zweifellos beeindrucken: über 200 Millionen Requests pro Sekunde, Hunderte Exabyte Daten, 123 Availability Zones, 39 Regionen. Die maximale Objektgröße ist von 5 GByte auf 50 TByte gewachsen, der Preis pro Gigabyte von 15 auf gut 2 US-Cent gefallen – ein Rückgang von 85 Prozent.

Was AWS nicht erwähnt: Die Hardwarekosten pro Gigabyte sind im selben Zeitraum um weit mehr als 85 Prozent gesunken. Die Preissenkungen spiegeln also zu einem erheblichen Teil die allgemeine Kostenentwicklung bei Speichermedien wider, nicht aber großzügigen Margenverzicht. Laut Analystenberichten operiert AWS insgesamt mit Betriebsmargen von über 30 Prozent – das dürfte für S3 genauso gelten.

Auch der Hinweis, Kunden hätten durch S3 Intelligent-Tiering kollektiv mehr als 6 Milliarden US-Dollar gespart, verdient einen zweiten Blick. Gespart im Vergleich wozu? Zum eigenen S3-Standard-Tarif, meint AWS. Das ist, als würde ein Automobilhersteller damit werben, dass Kunden Geld sparen, wenn sie das günstigere Modell kaufen. Die eigentliche Frage – ob dieselben Workloads bei alternativer Infrastruktur oder bei regionalen Cloud-Anbietern günstiger liefen – bleibt unbeantwortet.

Die vielleicht folgenreichste Wirkung von S3 jedoch ist die Standardisierung. Das S3-API hat sich als Lingua franca für Objektspeicher durchgesetzt. MinIO, Ceph, Cloudflare R2, Wasabi, Backblaze B2 – sie alle implementieren S3-kompatible Schnittstellen für Objektspeicher. Auf den ersten Blick sieht das nach einem offenen Ökosystem aus. Auf den zweiten ist es das Gegenteil.

Weiterlesen nach der Anzeige

Denn das S3-API ist kein offener Standard. Es gibt kein Normungsgremium, kein RFC, kein Governance-Modell. AWS definiert die Spezifikation, AWS erweitert sie, AWS entscheidet, welche Features hinzukommen. Kompatible Anbieter laufen strukturell hinterher – sie können das Kern-API nachbauen, aber proprietäre Erweiterungen wie S3 Tables, S3 Vectors, S3 Metadata, Object Lambda oder Event Notifications in ihrer vollen Integration nicht replizieren.

Das Ergebnis ist ein Standard, der Portabilität suggeriert, aber nicht vollständig einlöst. Einfache PUT/GET-Workloads lassen sich tatsächlich gut migrieren. Aber wer S3-Events in Lambda-Funktionen verarbeitet, Lifecycle-Policies mit Glacier-Tiering kombiniert und Zugriffe über IAM-Policies steuert, hat kein Storage-Problem – er hat ein Plattform-Problem. Und genau das ist die Absicht.

Über kaum ein Thema wird in der Cloud-Ökonomie so viel geklagt und so wenig gehandelt wie über Egress-Gebühren. AWS berechnet für den Datentransfer aus S3 heraus nach wie vor Gebühren, die in keinem nachvollziehbaren Verhältnis zu den tatsächlichen Transitkosten stehen. Zwar hat AWS die Preise punktuell gesenkt und bietet seit 2024 kostenlosen Egress für den Anbieterwechsel an – aber nur einmalig und nur für den vollständigen Abzug.

Für Unternehmen mit Hunderten Terabyte oder Petabyte in S3 ist die Rechnung schnell gemacht: Allein die Transferkosten für eine Migration können sechsstellige Beträge erreichen – bevor das erste Byte auf der neuen Plattform liegt. Das ist kein Bug, das ist ein Geschäftsmodell. Daten fließen günstig hinein – und teuer heraus.

Die jüngsten Erweiterungen machen die strategische Richtung unmissverständlich. S3 Tables bringt verwaltete Apache-Iceberg-Tabellen direkt in den Speicherdienst. S3 Vectors liefert nativen Vektorspeicher für RAG-Anwendungen – laut AWS wurden in nur vier Monaten über 250.000 Indizes angelegt und mehr als eine Milliarde Abfragen ausgeführt. S3 Metadata eliminiert die Notwendigkeit, Buckets rekursiv zu listen.

Die Botschaft ist klar: Daten sollen in S3 gespeichert, in S3 abgefragt, in S3 analysiert und aus S3 heraus für KI-Modelle bereitgestellt werden. Ohne Kopien, ohne Zwischensysteme, ohne Umwege – und ohne Grund, die AWS-Plattform zu verlassen. Was AWS als Vereinfachung verkauft, ist eine vertikale Integration, die den Wettbewerb auf der Analyseschicht systematisch untergräbt. Warum sollte ein Unternehmen noch einen separaten Vektorspeicher evaluieren, wenn S3 Vectors zum S3-Preis mitgeliefert wird?

20 Jahre S3 sind eine technische Erfolgsgeschichte, an der es wenig zu deuteln gibt. Der Dienst hat Storage für Start-ups demokratisiert, eine API zum Branchenstandard gemacht und bewiesen, dass Rückwärtskompatibilität selbst über zwei Jahrzehnte funktionieren kann. Die Durability-Garantien sind real, die Skalierung ist beispiellos, das Engineering ist erstklassig.

Aber die Erfolgsgeschichte hat eine Rückseite, über die AWS verständlicherweise nicht spricht. S3 ist nicht nur ein Speicherdienst – es ist ein ökonomisches Gravitationsfeld, das Daten anzieht und nicht mehr loslässt. Der offene API-Standard ist keiner. Die Preissenkungen folgen der Hardware-Kurve, nicht der Großzügigkeit. Und jede neue Funktion – Tables, Vectors, Metadata – macht die Plattform nützlicher und den Ausstieg teurer.

Die IT-Branche hat sich in den vergangenen 20 Jahren sehenden Auges in diese Abhängigkeit begeben. Das war in vielen Fällen die rationale Entscheidung – die Alternative hieß eigene Infrastruktur mit allen Kosten und deutlich höheren Risiken. Aber rational und alternativlos sind zwei verschiedene Dinge. Wer heute seine Daten- und KI-Strategie auf S3 aufbaut, sollte zumindest wissen, dass er nicht nur einen Speicherdienst bucht. Er bucht eine Beziehung, aus der man nicht ohne Weiteres wieder herauskommt.


(fo)



Source link

Weiterlesen

Künstliche Intelligenz

Kommentar: Beim MacBook Neo muss man erstaunlich wenig Kompromisse machen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Ein portabler Mac für 700 Euro – und das in Zeiten der Inflation: Das hatten wohl die wenigsten Beobachter des IT-Marktes auf dem Zettel. Während es in der PC-Welt zu massiven Aufschlägen für RAM und SSDs kommt, gar die ganze Kategorie des Einsteiger-Notebooks vor dem Aus zu stehen scheint, kommt Apple einfach mal so mit einem MacBook Neo um die Ecke, bei dem Käufer erstaunlich wenige Kompromisse machen müssen. Im Gegenteil: Man hätte kaum erwartet, dass eine derartige Maschine zu diesem Preis denkbar ist – gerade bei Apple, wo man stets wie ein Luchs auf eine hohe Marge achtet.

Weiterlesen nach der Anzeige

Der Umkehrschluss ist wohl richtig: Nur Apple kann ein Gerät wie das MacBook Neo in dieser Qualität und mit diesen Features massenhaft bauen, die anderen können es einfach nicht, weil die Skaleneffekte fehlen. Der Konzern aus Cupertino hat etwa (nur für ihn dank Massenproduktion!) günstige iPhone-Chips in der Supply Chain, die viele x86-PCs locker toppen – und große Teile der ARM-Konkurrenz auch. Die werden dann eben im Neo verbaut und alle sind glücklich. Es ist denkbar, dass der Konzern auch so noch erstaunlich gut an dem Gerät verdient – und sei es vor allem indirekt durch bezahlte Dienste oder die Tatsache, dass Nutzer eine neue Einstiegsdroge ins Ökosystem bekommen.

Meine ersten Erfahrungen mit dem Neo sind sehr einfach auf den Punkt zu bringen: Das ist ein richtiger Mac, mit einer Hardwarestabilität, Geschwindigkeit und Nutzungsbequemlichkeit, wie man sie vor Jahren noch zum doppelten Preis (wenn nicht mehr) bekommen hätte. Einschränkungen gibt es genau an den Stellen, die die Zielgruppe – Mac-Neulinge – vermutlich eh nicht juckt: Bei den Ports (nur ein schneller USB-3-Anschluss, sonst USB 2.0), beim Trackpad (mechanisch statt rein haptisch, aber das macht überhaupt nichts, keiner baut bessere physische Trackpads als Apple) und beim Bildschirm (Features wie Farbtemperaturanpassung und Helligkeitssensor weggelassen).

Was mich hingegen nach den ersten Nutzungstagen überhaupt nicht stört, ist der geringe RAM-Ausbau von nur 8 GByte oder die vergleichsweise lahme SSD. Letztere merkt man fast nicht, weil sie eben nur im Vergleich zu den besseren Geräten langsam ist, bei normaler Nutzung für Alltagsarbeiten und Medienkonsum (und sogar kleinere bis mittelgroße Videoschnittprojekte) stört es nicht. Selbst bei vielen offenen Apps fällt das notwendige Swapping kaum auf.

Das MacBook Neo ist also eine komplett ausreichende Maschine für Otto Normalnutzer. Hinzu kommt die Apple-typische Bauqualität. Da ruckelt nichts, das Alugehäuse in wirklich hübschen Farben (ich empfehle „Zitrus“) wirkt bombensicher, es gibt keine Spaltmaße und das Öffnen und Schließen des Displays ist äußerst befriedigend. Man kann das Neo wie jeden Mac auch mal kurz aufs Sofa werfen, es stört nicht. Auch die Tastatur ist gut (also nicht schlechter als bei einem Air oder gar Pro) und das Trackpad lässt sich oben wie unten beliebig klicken.

Weiterlesen nach der Anzeige


Ein Kommentar von Ben Schwan

Ein Kommentar von Ben Schwan

Mac & i-Redakteur Ben Schwan schreibt seit 1994 über Technikthemen und richtet sein Augenmerk mittlerweile insbesondere auf Apple-Geräte. Er mag das Design von Mac, iPhone und iPad und glaubt, dass Apple nicht selten die benutzerfreundlicheren Produkte abliefert. Immer perfekt ist die Hard- und Software-Welt aus Cupertino für ihn aber nicht.

Am auffälligsten ist am MacBook Neo, wie unauffällig es ist: Man nutzt es eben wie einen Mac, minus der Tatsache, dass es keinen Arm und kein Bein gekostet hat. (Und wer wirklich etwas mehr will, kauft eben für noch unter 1000 Euro ein MacBook Air M4 (ab 968,99 €), das gerade im Abverkauf ist.)

Heute kam dann noch bei ersten Teardowns heraus, dass Apple es geschafft hat, beim Neo auch die Reparatur deutlich zu vereinfachen. Es gibt keinerlei Vernagelung durch Kleber und Pull-Tabs, nur Schrauben, plus die Möglichkeit, selbst kleine Komponenten wie Ports oder Lautsprecher in wenigen Minuten zu tauschen. Das Neo ist also günstig, aber trotzdem kein Wegwerfgerät. Das ist doch mal eine schöne Kombination.


(bsc)



Source link

Weiterlesen

Künstliche Intelligenz

#TGIQF: Das Nerdquiz um den Ig-Nobelpreis


Eine Schlagzeile der Woche: Der IG-Nobelpreis zieht aus den USA in die Schweiz. Der Preis, der sich selbst nicht ganz ernst nimmt und dessen Verleihung „erst zum Lachen, dann zum Andenken anregen soll“, findet aufgrund der politischen Situation in den Vereinigten Staaten am 3. September 2026 in Zürich und erstmals außerhalb der USA statt.

Weiterlesen nach der Anzeige

Doch was ist der Ig-Nobelpreis? Seit 1991 werden die Preise alljährlich auf einer bunten Veranstaltung verliehen, in ähnlichen Kategorien wie die echten Nobelpreise. Mal legen die Veranstalter einen satirischen Fokus auf skurrile Forschungen, mal schwingt bei den Preisverleihungen auch Sarkasmus mit. Dennoch wird der Preis in der Wissenschafts-Community geschätzt: Die Preisübergabe erfolgt oftmals durch echte Nobelpreisträger.


#TGIQF: Das heise-online-Quiz

#TGIQF: Das heise-online-Quiz

„Thank God It’s Quiz Friday!“ Jeden Freitag gibts ein neues Quiz aus den Themenbereichen IT, Technik, Entertainment oder Nerd-Wissen:

In den vergangenen 35 Jahren fanden die Verleihungen stets in Massachusetts statt: Sie wechselten zwischen Harvard University und dem MIT (The Massachusetts Institute of Technology). In diesem Jahr findet die Verleihung in Zusammenarbeit der Eidgenössischen Technischen Hochschulen und der Universität Zürich statt, wie die Veranstalter mitteilten. In Boston findet stattdessen wenige Wochen danach eine Ig-Nobelpreis-Veranstaltung statt.

Als kleine Instanz für Klugscheißerwissen wollen wir den etwas anderen Wissenschaftspreis mit einem Freitagsquiz ehren.

In der heiseshow stellte Moderatorin Anna Bicker der Stammbesatzung Dr. Volker Zota und Malte Kirchner drei Fragen vorab: Nicht jede Herleitung war angesichts der schwierigen Fragen nobelpreisverdächtig, aber sie fanden sich gut durch.

Sie können in Ruhe in 10 Fragen maximal 100 Punkte erreichen. Die Punktzahl kann gern im Forum mit anderen Mitspielern verglichen werden. Halten Sie sich dabei aber bitte mit Spoilern zurück, um anderen Teilnehmern nicht die Freude am Quiz zu verhageln. Lob und Kritik sind wie immer gern gelesen.

Weiterlesen nach der Anzeige

Bleiben Sie zudem auf dem Laufenden und erfahren Sie das Neueste aus der IT-Welt: Folgen Sie uns bei Mastodon, auf Facebook oder Instagram. Und schauen Sie auch gern beim Redaktionsbot Botti vorbei.

Und falls Sie Ideen für eigene Quizze haben, schreiben Sie einfach eine Mail an den Quizmaster aka Herr der fiesen Fragen.


(mawi)





Source link

Weiterlesen

Beliebt