Connect with us

Künstliche Intelligenz

Digitaler „Omnibus”: Europa-Parlament bremst Kommissionspläne für Daten und KI


Die EU-Kommission hat am Montag im EU-Parlament für ihre Gesetzesvorstöße zu Digitalisierung und KI-Regulierung geworben – mit mäßigem Erfolg. Fast alle Fraktionen kritisieren die im Dezember 2025 vorgelegten Vorschläge und warnten davor, hart erkämpfte Schutzstandards zugunsten von „Big Tech“-Unternehmen aufzuweichen.

Weiterlesen nach der Anzeige

Die Kommission will mit einem digitalen Omnibusgesetz die Regeln im Digitalbereich vereinfachen und vier verschiedene Normenkomplexe unter ein Dach bringen: Die Verordnung für den freien Verkehr nicht-personenbezogener Daten, die Open-Data-Richtlinie, den Data Governance Act und den Data Act. Auch die in verschiedenen Digitalgesetzen verstreuten Meldepflichten bei Datenverlust sollen zusammengefasst werden, sodass Unternehmen eine zentrale Anlaufstelle dafür bekommen.

Das sei eine echte Verbesserung für Unternehmen, betonte Renate Nikolay, stellvertretende Generaldirektorin der DG Connect der EU-Kommission. Die Vereinfachung europäischer Normen und mehr Wettbewerbsfähigkeit für europäische Unternehmen seien die zentralen Ziele des Pakets.

Im Innenausschuss des Parlaments war hingegen von einer „Deregulierungsinitiative“ der Kommission die Rede. Vereinfachte Regulierung und mehr Wettbewerbsfähigkeit klängen gut, sagt der irische Berichterstatter zum KI-Akt, Michael McNamara (Renew), und nennt es erstaunlich, wenn die Kommissionsentwürfe „Artikel für Artikel Vorschläge der großen Big-Tech-Firmen wiedergeben“.

Abgeordnete von Piraten/Grünen und Sozialdemokraten warnten bei dieser ersten Erörterung des Pakets vor allem vor einer Neudefinition persönlicher Daten. Pseudonymisierte Daten etwa können künftig an Dritte weitergegeben werden, wenn sie von diesen nicht mehr re-identifiziert werden können. Welche Art von Pseudonymisierung dabei „sicher“ ist, will die Kommission selbst in Implementierungsbeschlüssen festlegen.

Weiterlesen nach der Anzeige

Birgit Sippel (S&D) kritisierte die Möglichkeit für KI Firmen, sich selbst als „High Risk“ einzustufen oder eben nicht. Ihre Parteikollegin und stellvertretende Vorsitzende des Innenausschusses, Marina Kaljurand, stellte das geplante Privileg für KI-Firmen infrage, das ihnen die Nutzung sensibler Daten erlaubt: „Ist die Verarbeitung personenbezogener Daten in KI Modellen automatisch sicherer als die Verarbeitung durch andere Anwendungen?“

Axel Voss (EVP) anerkannte, dass die Kommission die DSGVO und den AI Act zusammenführen wolle. Ob die Neumischung im Sinne von Rechtssicherheit und Klarheit gelänge, sei bei dem vorgelegten Entwurf noch unklar. Voss mahnte, sich nicht wegen der laufenden Umsetzung des AI Acts unter Zeitdruck zu setzen. Die Ausschusssitzung war die erste zu dem Paket, aber, wie Kaljurand unterstrich, nicht die letzte.


(vbr)



Source link

Künstliche Intelligenz

20 Jahre Amazon S3: Der goldene Käfig der Cloud-Ära


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Amazon S3 löste 2006 ein echtes Problem. Storage-Beschaffung war teuer, langsam und riskant: Hardware bestellen, RAID konfigurieren, Kapazitäten planen, Backup-Strategien entwerfen – alles Monate bevor die erste Anwendung lief. S3 reduzierte das auf einen HTTP-Request. PUT, GET, fertig. Kein hoher Kapitaleinsatz, keine Vorabplanung, Abrechnung nach Verbrauch.

Weiterlesen nach der Anzeige

Das vereinfachte für Jungunternehmen den Start und war für Konzerne ein willkommener Weg, Investitionskosten in Betriebskosten umzuwandeln. Aber es war eben auch ein Tauschgeschäft: Kontrolle gegen Bequemlichkeit. Und wie bei den meisten Tauschgeschäften in der Tech-Branche merkten viele erst spät, was sie abgegeben hatten.

AWS präsentiert zum Jubiläum stolz Kennzahlen, die zweifellos beeindrucken: über 200 Millionen Requests pro Sekunde, Hunderte Exabyte Daten, 123 Availability Zones, 39 Regionen. Die maximale Objektgröße ist von 5 GByte auf 50 TByte gewachsen, der Preis pro Gigabyte von 15 auf gut 2 US-Cent gefallen – ein Rückgang von 85 Prozent.

Was AWS nicht erwähnt: Die Hardwarekosten pro Gigabyte sind im selben Zeitraum um weit mehr als 85 Prozent gesunken. Die Preissenkungen spiegeln also zu einem erheblichen Teil die allgemeine Kostenentwicklung bei Speichermedien wider, nicht aber großzügigen Margenverzicht. Laut Analystenberichten operiert AWS insgesamt mit Betriebsmargen von über 30 Prozent – das dürfte für S3 genauso gelten.

Auch der Hinweis, Kunden hätten durch S3 Intelligent-Tiering kollektiv mehr als 6 Milliarden US-Dollar gespart, verdient einen zweiten Blick. Gespart im Vergleich wozu? Zum eigenen S3-Standard-Tarif, meint AWS. Das ist, als würde ein Automobilhersteller damit werben, dass Kunden Geld sparen, wenn sie das günstigere Modell kaufen. Die eigentliche Frage – ob dieselben Workloads bei alternativer Infrastruktur oder bei regionalen Cloud-Anbietern günstiger liefen – bleibt unbeantwortet.

Die vielleicht folgenreichste Wirkung von S3 jedoch ist die Standardisierung. Das S3-API hat sich als Lingua franca für Objektspeicher durchgesetzt. MinIO, Ceph, Cloudflare R2, Wasabi, Backblaze B2 – sie alle implementieren S3-kompatible Schnittstellen für Objektspeicher. Auf den ersten Blick sieht das nach einem offenen Ökosystem aus. Auf den zweiten ist es das Gegenteil.

Weiterlesen nach der Anzeige

Denn das S3-API ist kein offener Standard. Es gibt kein Normungsgremium, kein RFC, kein Governance-Modell. AWS definiert die Spezifikation, AWS erweitert sie, AWS entscheidet, welche Features hinzukommen. Kompatible Anbieter laufen strukturell hinterher – sie können das Kern-API nachbauen, aber proprietäre Erweiterungen wie S3 Tables, S3 Vectors, S3 Metadata, Object Lambda oder Event Notifications in ihrer vollen Integration nicht replizieren.

Das Ergebnis ist ein Standard, der Portabilität suggeriert, aber nicht vollständig einlöst. Einfache PUT/GET-Workloads lassen sich tatsächlich gut migrieren. Aber wer S3-Events in Lambda-Funktionen verarbeitet, Lifecycle-Policies mit Glacier-Tiering kombiniert und Zugriffe über IAM-Policies steuert, hat kein Storage-Problem – er hat ein Plattform-Problem. Und genau das ist die Absicht.

Über kaum ein Thema wird in der Cloud-Ökonomie so viel geklagt und so wenig gehandelt wie über Egress-Gebühren. AWS berechnet für den Datentransfer aus S3 heraus nach wie vor Gebühren, die in keinem nachvollziehbaren Verhältnis zu den tatsächlichen Transitkosten stehen. Zwar hat AWS die Preise punktuell gesenkt und bietet seit 2024 kostenlosen Egress für den Anbieterwechsel an – aber nur einmalig und nur für den vollständigen Abzug.

Für Unternehmen mit Hunderten Terabyte oder Petabyte in S3 ist die Rechnung schnell gemacht: Allein die Transferkosten für eine Migration können sechsstellige Beträge erreichen – bevor das erste Byte auf der neuen Plattform liegt. Das ist kein Bug, das ist ein Geschäftsmodell. Daten fließen günstig hinein – und teuer heraus.

Die jüngsten Erweiterungen machen die strategische Richtung unmissverständlich. S3 Tables bringt verwaltete Apache-Iceberg-Tabellen direkt in den Speicherdienst. S3 Vectors liefert nativen Vektorspeicher für RAG-Anwendungen – laut AWS wurden in nur vier Monaten über 250.000 Indizes angelegt und mehr als eine Milliarde Abfragen ausgeführt. S3 Metadata eliminiert die Notwendigkeit, Buckets rekursiv zu listen.

Die Botschaft ist klar: Daten sollen in S3 gespeichert, in S3 abgefragt, in S3 analysiert und aus S3 heraus für KI-Modelle bereitgestellt werden. Ohne Kopien, ohne Zwischensysteme, ohne Umwege – und ohne Grund, die AWS-Plattform zu verlassen. Was AWS als Vereinfachung verkauft, ist eine vertikale Integration, die den Wettbewerb auf der Analyseschicht systematisch untergräbt. Warum sollte ein Unternehmen noch einen separaten Vektorspeicher evaluieren, wenn S3 Vectors zum S3-Preis mitgeliefert wird?

20 Jahre S3 sind eine technische Erfolgsgeschichte, an der es wenig zu deuteln gibt. Der Dienst hat Storage für Start-ups demokratisiert, eine API zum Branchenstandard gemacht und bewiesen, dass Rückwärtskompatibilität selbst über zwei Jahrzehnte funktionieren kann. Die Durability-Garantien sind real, die Skalierung ist beispiellos, das Engineering ist erstklassig.

Aber die Erfolgsgeschichte hat eine Rückseite, über die AWS verständlicherweise nicht spricht. S3 ist nicht nur ein Speicherdienst – es ist ein ökonomisches Gravitationsfeld, das Daten anzieht und nicht mehr loslässt. Der offene API-Standard ist keiner. Die Preissenkungen folgen der Hardware-Kurve, nicht der Großzügigkeit. Und jede neue Funktion – Tables, Vectors, Metadata – macht die Plattform nützlicher und den Ausstieg teurer.

Die IT-Branche hat sich in den vergangenen 20 Jahren sehenden Auges in diese Abhängigkeit begeben. Das war in vielen Fällen die rationale Entscheidung – die Alternative hieß eigene Infrastruktur mit allen Kosten und deutlich höheren Risiken. Aber rational und alternativlos sind zwei verschiedene Dinge. Wer heute seine Daten- und KI-Strategie auf S3 aufbaut, sollte zumindest wissen, dass er nicht nur einen Speicherdienst bucht. Er bucht eine Beziehung, aus der man nicht ohne Weiteres wieder herauskommt.


(fo)



Source link

Weiterlesen

Künstliche Intelligenz

Kommentar: Beim MacBook Neo muss man erstaunlich wenig Kompromisse machen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Ein portabler Mac für 700 Euro – und das in Zeiten der Inflation: Das hatten wohl die wenigsten Beobachter des IT-Marktes auf dem Zettel. Während es in der PC-Welt zu massiven Aufschlägen für RAM und SSDs kommt, gar die ganze Kategorie des Einsteiger-Notebooks vor dem Aus zu stehen scheint, kommt Apple einfach mal so mit einem MacBook Neo um die Ecke, bei dem Käufer erstaunlich wenige Kompromisse machen müssen. Im Gegenteil: Man hätte kaum erwartet, dass eine derartige Maschine zu diesem Preis denkbar ist – gerade bei Apple, wo man stets wie ein Luchs auf eine hohe Marge achtet.

Weiterlesen nach der Anzeige

Der Umkehrschluss ist wohl richtig: Nur Apple kann ein Gerät wie das MacBook Neo in dieser Qualität und mit diesen Features massenhaft bauen, die anderen können es einfach nicht, weil die Skaleneffekte fehlen. Der Konzern aus Cupertino hat etwa (nur für ihn dank Massenproduktion!) günstige iPhone-Chips in der Supply Chain, die viele x86-PCs locker toppen – und große Teile der ARM-Konkurrenz auch. Die werden dann eben im Neo verbaut und alle sind glücklich. Es ist denkbar, dass der Konzern auch so noch erstaunlich gut an dem Gerät verdient – und sei es vor allem indirekt durch bezahlte Dienste oder die Tatsache, dass Nutzer eine neue Einstiegsdroge ins Ökosystem bekommen.

Meine ersten Erfahrungen mit dem Neo sind sehr einfach auf den Punkt zu bringen: Das ist ein richtiger Mac, mit einer Hardwarestabilität, Geschwindigkeit und Nutzungsbequemlichkeit, wie man sie vor Jahren noch zum doppelten Preis (wenn nicht mehr) bekommen hätte. Einschränkungen gibt es genau an den Stellen, die die Zielgruppe – Mac-Neulinge – vermutlich eh nicht juckt: Bei den Ports (nur ein schneller USB-3-Anschluss, sonst USB 2.0), beim Trackpad (mechanisch statt rein haptisch, aber das macht überhaupt nichts, keiner baut bessere physische Trackpads als Apple) und beim Bildschirm (Features wie Farbtemperaturanpassung und Helligkeitssensor weggelassen).

Was mich hingegen nach den ersten Nutzungstagen überhaupt nicht stört, ist der geringe RAM-Ausbau von nur 8 GByte oder die vergleichsweise lahme SSD. Letztere merkt man fast nicht, weil sie eben nur im Vergleich zu den besseren Geräten langsam ist, bei normaler Nutzung für Alltagsarbeiten und Medienkonsum (und sogar kleinere bis mittelgroße Videoschnittprojekte) stört es nicht. Selbst bei vielen offenen Apps fällt das notwendige Swapping kaum auf.

Das MacBook Neo ist also eine komplett ausreichende Maschine für Otto Normalnutzer. Hinzu kommt die Apple-typische Bauqualität. Da ruckelt nichts, das Alugehäuse in wirklich hübschen Farben (ich empfehle „Zitrus“) wirkt bombensicher, es gibt keine Spaltmaße und das Öffnen und Schließen des Displays ist äußerst befriedigend. Man kann das Neo wie jeden Mac auch mal kurz aufs Sofa werfen, es stört nicht. Auch die Tastatur ist gut (also nicht schlechter als bei einem Air oder gar Pro) und das Trackpad lässt sich oben wie unten beliebig klicken.

Weiterlesen nach der Anzeige


Ein Kommentar von Ben Schwan

Ein Kommentar von Ben Schwan

Mac & i-Redakteur Ben Schwan schreibt seit 1994 über Technikthemen und richtet sein Augenmerk mittlerweile insbesondere auf Apple-Geräte. Er mag das Design von Mac, iPhone und iPad und glaubt, dass Apple nicht selten die benutzerfreundlicheren Produkte abliefert. Immer perfekt ist die Hard- und Software-Welt aus Cupertino für ihn aber nicht.

Am auffälligsten ist am MacBook Neo, wie unauffällig es ist: Man nutzt es eben wie einen Mac, minus der Tatsache, dass es keinen Arm und kein Bein gekostet hat. (Und wer wirklich etwas mehr will, kauft eben für noch unter 1000 Euro ein MacBook Air M4 (ab 968,99 €), das gerade im Abverkauf ist.)

Heute kam dann noch bei ersten Teardowns heraus, dass Apple es geschafft hat, beim Neo auch die Reparatur deutlich zu vereinfachen. Es gibt keinerlei Vernagelung durch Kleber und Pull-Tabs, nur Schrauben, plus die Möglichkeit, selbst kleine Komponenten wie Ports oder Lautsprecher in wenigen Minuten zu tauschen. Das Neo ist also günstig, aber trotzdem kein Wegwerfgerät. Das ist doch mal eine schöne Kombination.


(bsc)



Source link

Weiterlesen

Künstliche Intelligenz

#TGIQF: Das Nerdquiz um den Ig-Nobelpreis


Eine Schlagzeile der Woche: Der IG-Nobelpreis zieht aus den USA in die Schweiz. Der Preis, der sich selbst nicht ganz ernst nimmt und dessen Verleihung „erst zum Lachen, dann zum Andenken anregen soll“, findet aufgrund der politischen Situation in den Vereinigten Staaten am 3. September 2026 in Zürich und erstmals außerhalb der USA statt.

Weiterlesen nach der Anzeige

Doch was ist der Ig-Nobelpreis? Seit 1991 werden die Preise alljährlich auf einer bunten Veranstaltung verliehen, in ähnlichen Kategorien wie die echten Nobelpreise. Mal legen die Veranstalter einen satirischen Fokus auf skurrile Forschungen, mal schwingt bei den Preisverleihungen auch Sarkasmus mit. Dennoch wird der Preis in der Wissenschafts-Community geschätzt: Die Preisübergabe erfolgt oftmals durch echte Nobelpreisträger.


#TGIQF: Das heise-online-Quiz

#TGIQF: Das heise-online-Quiz

„Thank God It’s Quiz Friday!“ Jeden Freitag gibts ein neues Quiz aus den Themenbereichen IT, Technik, Entertainment oder Nerd-Wissen:

In den vergangenen 35 Jahren fanden die Verleihungen stets in Massachusetts statt: Sie wechselten zwischen Harvard University und dem MIT (The Massachusetts Institute of Technology). In diesem Jahr findet die Verleihung in Zusammenarbeit der Eidgenössischen Technischen Hochschulen und der Universität Zürich statt, wie die Veranstalter mitteilten. In Boston findet stattdessen wenige Wochen danach eine Ig-Nobelpreis-Veranstaltung statt.

Als kleine Instanz für Klugscheißerwissen wollen wir den etwas anderen Wissenschaftspreis mit einem Freitagsquiz ehren.

In der heiseshow stellte Moderatorin Anna Bicker der Stammbesatzung Dr. Volker Zota und Malte Kirchner drei Fragen vorab: Nicht jede Herleitung war angesichts der schwierigen Fragen nobelpreisverdächtig, aber sie fanden sich gut durch.

Sie können in Ruhe in 10 Fragen maximal 100 Punkte erreichen. Die Punktzahl kann gern im Forum mit anderen Mitspielern verglichen werden. Halten Sie sich dabei aber bitte mit Spoilern zurück, um anderen Teilnehmern nicht die Freude am Quiz zu verhageln. Lob und Kritik sind wie immer gern gelesen.

Weiterlesen nach der Anzeige

Bleiben Sie zudem auf dem Laufenden und erfahren Sie das Neueste aus der IT-Welt: Folgen Sie uns bei Mastodon, auf Facebook oder Instagram. Und schauen Sie auch gern beim Redaktionsbot Botti vorbei.

Und falls Sie Ideen für eigene Quizze haben, schreiben Sie einfach eine Mail an den Quizmaster aka Herr der fiesen Fragen.


(mawi)





Source link

Weiterlesen

Beliebt