Connect with us

Künstliche Intelligenz

Softwareentwicklung: Abstraktion ist überbewertet | heise online


Kaum ein Prinzip genießt in der Softwareentwicklung so viel Ansehen wie die Abstraktion. Wer abstrahiert, gilt als vorausschauend. Wer Gemeinsamkeiten erkennt und zusammenführt, gilt als erfahren. Wer Code dupliziert, gilt als nachlässig. Sei es in Code-Reviews, in Architektur-Diskussionen oder in Vorstellungsgesprächen: Abstraktion ist der Maßstab, an dem sich guter Code messen lassen muss. Zumindest wird das häufig so vermittelt.

Weiterlesen nach der Anzeige


the next big thing – Golo Roden

the next big thing – Golo Roden

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.

Ich habe das selbst lange geglaubt. Ich habe abstrahiert, wo es ging, habe Gemeinsamkeiten gesucht, wo keine waren, und habe mich gut dabei gefühlt. Erst mit den Jahren habe ich gelernt, dass das Gegenteil oft näher an der Wahrheit liegt: Dass viele Abstraktionen Code nicht besser machen, sondern schlechter. Dass sie Kopplung erzeugen, wo Unabhängigkeit sein sollte. Und dass eine falsche Abstraktion langfristig teurer ist als gar keine.

Wenn Entwicklerinnen und Entwickler über Abstraktion sprechen, fällt früher oder später das Akronym DRY: „Don’t Repeat Yourself“. Es ist eines der meistzitierten Prinzipien der Softwareentwicklung, und es wird fast überall als technische Anweisung verstanden: „Dupliziere keinen Code“. Es gibt sogar Tools, die Codebasen nach Copy-&-Paste-Mustern durchsuchen und Alarm schlagen, wenn zwei Blöcke zu ähnlich aussehen.

Das Problem: Diese Interpretation hat mit dem, was die Autoren des Prinzips gemeint haben, wenig zu tun. DRY stammt aus dem Buch „The Pragmatic Programmer“ von David Thomas und Andrew Hunt. Dort wird ausdrücklich gesagt, dass es nicht um technische Duplikation geht, sondern um fachliche: Ein fachliches Konzept soll nicht an mehreren Stellen im System implementiert sein, weil das zu Inkonsistenzen bei Geschäftsregeln führt. Hunt und Thomas bringen in ihrem Buch sogar ein explizites Beispiel für technische Duplikation und stellen klar, dass das keine Verletzung von DRY sei!

Das hindert die Branche aber nicht daran, DRY weiterhin als „kopiere keinen Code“ zu verkaufen. Und genau das führt zu einer der häufigsten Formen falscher Abstraktion: Technisch ähnlicher Code wird zusammengeführt, obwohl er fachlich völlig unterschiedliche Dinge repräsentiert.

Um ein Beispiel zu nennen, das viele so oder so ähnlich kennen dürften: Stellen Sie sich vor, eine Anwendung verfügt über eine User-Klasse. Diese Klasse wird für die Persistenz verwendet, für die HTTP-API und für die Fachlogik. Drei verschiedene Kontexte, aber nur eine Klasse, weil die Felder dieselben sind. Wer braucht schon drei User-Klassen?

Weiterlesen nach der Anzeige

Die Antwort zeigt sich spätestens nach ein paar Monaten: Für die Persistenz und die API braucht man JSON-Annotationen. Plötzlich trägt die Fachlogik-Klasse Annotationen, die ihr völlig egal sein sollten. Dann ändert sich das Persistenzformat, aber die Annotationen lassen sich nicht einfach anpassen, weil das die API brechen würde. Also fügt man weitere Annotationen hinzu. Dann kommt ein internes Feld dazu, das über die API jedoch nicht sichtbar sein soll. Also braucht man Logik, die bestimmte Felder ausblendet. Und so wächst die Klasse nach und nach zu einer immer größeren Müllhalde, auf der sich immer mehr Sonderfälle und Ausnahmen ansammeln.

Die Lösung wäre so einfach gewesen: drei separate Klassen, eine pro Kontext. Ja, das bedeutet, zwischen ihnen mappen zu müssen. Ja, das ist ein wenig mehr Tipparbeit. Aber jede Klasse existiert aus einem eigenen Grund, ist unabhängig von den anderen evolvierbar, und der Code ist explizit und nachvollziehbar. In der Sprache der Softwarearchitektur: niedrige Kopplung und hohe Kohäsion. Nicht zufällig sind das die beiden grundlegenden Prinzipien guter Architektur. Und nicht zufällig verletzt die zusammengeführte User-Klasse beide.

Viele Entwicklerinnen und Entwickler wehren sich gegen diesen Ansatz. Es wird argumentiert: Drei Klassen für dasselbe Konzept, das sei zu viel Aufwand und zu viel Redundanz. Aber die drei Klassen existieren aus unterschiedlichen Gründen. Sie haben unterschiedliche Lebenszyklen, unterschiedliche Änderungsgründe, unterschiedliche Abhängigkeiten. Sie gehören nicht zusammen, auch wenn sie ähnlich oder (zunächst) sogar gleich aussehen.

Das Muster dahinter ist immer dasselbe: Technische Ähnlichkeit wird mit fachlicher Zusammengehörigkeit verwechselt. Die resultierende Abstraktion erzeugt eine Kopplung zwischen Dingen, die nichts miteinander zu tun haben. Änderungen an einem Kontext ziehen Änderungen in einem anderen nach sich, oder man muss den jeweiligen Kontext durch die Abstraktion hindurchschleifen, was die Komplexität weiter erhöht. Und all das nur, weil jemand irgendwann gesagt hat: „Das sieht doch fast gleich aus, das kann man zusammenfassen.“

Falsche Abstraktionen entstehen jedoch nicht nur durch missverstandene Prinzipien. Sie werden auch von Frameworks geliefert, fertig verpackt und als Feature beworben. Das Versprechen lautet: „Sie müssen das Darunterliegende nicht verstehen. Wir kümmern uns darum. Konzentrieren Sie sich auf Ihre Geschäftslogik.“

Das klingt verlockend, und es funktioniert. Solange man auf dem getrampelten Pfad bleibt, ist alles in Ordnung. Die Dokumentation beschreibt den Happy Path, die Tutorials führen durch den Happy Path, die Community beantwortet Fragen zum Happy Path. Das Problem beginnt, wenn man davon abweichen muss. Und in realen Projekten muss man das früher oder später immer.

Nehmen Sie React als Beispiel: JSX ist eine Abstraktion, die es erlaubt, HTML-ähnliche Syntax in JavaScript zu schreiben. Die meisten React-Entwicklerinnen und -Entwickler nutzen JSX täglich, aber nur wenige können erklären, was dabei eigentlich passiert. Wie wird aus JSX am Ende JavaScript, das der Browser versteht und ausführen kann? Welche Transformationsschritte sind involviert? Warum darf eine Render-Funktion nur einen einzigen Root-Knoten zurückgeben und nicht mehrere?

Die Antwort auf die letzte Frage ist aufschlussreich: In JSX wird jedes Element in einen Funktionsaufruf (sinngemäß: createElement) übersetzt, das heißt, die Render-Funktion gibt das Ergebnis dieses Funktionsaufrufs zurück. Und da eine Funktion in JavaScript nur einen Rückgabetyp haben kann, kann eine Render-Funktion naturgemäß nicht mehrere Elemente auf oberster Ebene zurückgeben – auch wenn sich das in JSX zunächst wie eine valide HTML-Struktur liest.

Wer versteht, was unter der Haube passiert, für den ist die Einschränkung selbstverständlich. Für alle anderen ist sie eine willkürliche Regel, die man auswendig lernt, ohne sie zu begreifen.

Solange alles funktioniert, fällt das fehlende Verständnis nicht auf. Doch sobald man auf ein Problem stößt, das nicht auf dem Happy Path liegt, ändert sich die Situation. Man versteht nicht nur das Problem nicht, sondern auch das Werkzeug nicht, mit dem man es lösen müsste. Statt mit dem Framework zu arbeiten, arbeitet man gegen es. Das ist der Moment, in dem die Abstraktion leckt.

Dasselbe Muster zeigt sich auf einer anderen Ebene auch bei Programmiersprachen beziehungsweise Compilern, beispielsweise TypeScript. TypeScript ist eine Abstraktion über JavaScript, die statische Typisierung hinzufügt. Das Versprechen: mehr Sicherheit, bessere Tooling-Unterstützung, weniger Laufzeitfehler. Und dieses Versprechen löst TypeScript in vielen Fällen auch ein.

Was TypeScript nicht einlöst, ist das implizite Versprechen, dass man JavaScript nicht mehr verstehen müsse. Viele Entwicklerinnen und Entwickler steigen heute direkt mit TypeScript ein, ohne je ernsthaft JavaScript geschrieben zu haben. Sie lernen TypeScript-Syntax, TypeScript-Pattern, TypeScript-Tooling. JavaScript ist für sie eine Art Kompilierungsziel, das man nie direkt anfasst.

Das funktioniert, bis es nicht mehr funktioniert. Viele der Einschränkungen und vermeintlich seltsamen Verhaltensweisen von TypeScript ergeben nur dann Sinn, wenn man JavaScript versteht. Warum verhält sich das Typsystem in bestimmten Fällen unerwartet? Warum gibt es Design-Entscheidungen, die auf den ersten Blick unlogisch wirken? Die Antwort ist fast immer dieselbe: Weil TypeScript abwärtskompatibel zu JavaScript sein will und muss, und es anders schlicht nicht funktioniert.

Wer JavaScript kennt, versteht diese Entscheidungen. Wer JavaScript nicht kennt, steht vor einer Wand aus unerklärlichen Regeln. Die Abstraktion verdeckt genau das Wissen, das man braucht, wenn sie an ihre Grenzen stößt. Und das Paradoxe daran: Auch die meisten Entwicklerinnen und Entwickler, die JavaScript nutzen, kennen JavaScript zu wenig. Die Sprache hat einen Ruf als einfach, der täuscht. Unter der Oberfläche verbergen sich Konzepte, deren Verständnis erheblich dabei hilft, sowohl JavaScript als auch TypeScript besser einzusetzen.

Die jüngste Iteration desselben Musters liefert die künstliche Intelligenz. KI-basierte Coding-Assistenten und -Agenten versprechen, die Softwareentwicklung grundlegend zu vereinfachen. Sie generieren Code, vervollständigen Funktionen, schlagen Architekturen vor, schreiben Tests. Das Versprechen ist vertraut: „Sie müssen sich nicht um die Details kümmern. Die KI übernimmt das. Konzentrieren Sie sich auf die großen Zusammenhänge.“

Das klingt nach demselben Versprechen, das Frameworks seit Jahren geben. Und es funktioniert auf dieselbe Weise: hervorragend auf dem Happy Path. Solange die Anforderungen im Bereich dessen liegen, wofür ausreichend Trainingsmaterial existiert, liefert KI beeindruckende Ergebnisse. In Sekunden entsteht Code, der kompiliert, Tests besteht und auf den ersten Blick korrekt aussieht.

Die Probleme beginnen, wenn die Anforderungen exotischer werden. Wenn die Kombination aus Technologien, Randbedingungen und fachlichen Regeln so spezifisch ist, dass kein Trainingsmaterial dafür existiert. Oder wenn der generierte Code subtile Fehler enthält, die man nicht erkennt, weil man nie gelernt hat, wie der Code unter der Haube funktioniert. Ein Off by One Error in einer Schleife, eine Race Condition in asynchronem Code, ein falsch gesetzter Index in einer Datenbankabfrage: Solche Fehler fallen nur auf, wenn man den Code tatsächlich liest und versteht. Wer das nicht macht, weil die KI es vermeintlich übernimmt, hat ein Problem, das er möglicherweise erst Monate später bemerkt.

Noch bedenklicher ist der schleichende Verlust von Kompetenz. Wer jahrelang Code von Hand geschrieben hat und nun KI einsetzt, verfügt über das Wissen, die Ergebnisse zu beurteilen. Wer aber nie ohne KI gearbeitet hat oder das eigene Wissen nicht mehr pflegt, verliert genau die Fähigkeit, die nötig wäre, um die Grenzen der Abstraktion zu erkennen.

Das Muster ist immer dasselbe. Eine Abstraktion verspricht Einfachheit. Sie löst dieses Versprechen ein, solange alles nach Plan läuft. Und sie versagt genau dann, wenn man sie am dringendsten brauchte: in den Situationen, die vom Plan abweichen. Joel Spolsky hat das 2002 in seinem Artikel „The Law of Leaky Abstractions“ auf den Punkt gebracht: Alle nichttrivialen Abstraktionen sind bis zu einem gewissen Grad undicht. Das galt für Frameworks, es galt für Programmiersprachen, und es gilt für KI.

Nach vier Negativbeispielen wäre es leicht, den Schluss zu ziehen, dass Abstraktion grundsätzlich schädlich ist. Das wäre falsch. Es gibt nämlich durchaus sinnvolle Abstraktionen, die funktionieren, und das seit Jahrzehnten.

Das vielleicht beste Beispiel stammt aus der Unix-Welt: „Everything is a file“. Das bedeutet: In Unix sind Dateien, Geräte, Pipes und Sockets über dasselbe Interface ansprechbar: open, read, write, close. Diese Abstraktion ist inzwischen über fünfzig Jahre alt und funktioniert noch immer hervorragend. Sie ist zu einem Fundament geworden, auf dem ganze Ökosysteme aufbauen.

Was macht diese Abstraktion anders als die gescheiterten Beispiele? Erstens ist sie minimal. Sie versteckt nicht zu viel, sondern genau so viel, wie nötig ist, um eine gemeinsame Schnittstelle zu bieten. Zweitens basiert sie auf einem tiefen Verständnis des Problems. Die Unix-Entwickler haben nicht zuerst abstrahiert und dann geschaut, was man damit machen kann. Sie haben erst verstanden, was sie brauchen, und dann die kleinstmögliche gemeinsame Abstraktion gefunden. Und drittens: Wenn sie leckt (und das tut sie), ist das Leck nachvollziehbar, weil die Abstraktion dünn genug ist, um hindurchzuschauen.

Genau das unterscheidet eine gelungene Abstraktion von einer gescheiterten. Gelungene Abstraktionen setzen Verständnis voraus und machen es nicht überflüssig. Sie entstehen aus Erfahrung, nicht aus Annahmen. Und sie respektieren, dass die Kopplung niedrig und die Kohäsion hoch bleiben muss.

Was lässt sich aus all dem lernen? Joel Spolsky hat neben dem Artikel zu den leckenden Abstraktionen noch einen zweiten Artikel geschrieben, der hierher gehört: „Back to Basics“. Darin kritisiert er, dass zu vielen Entwicklerinnen und Entwicklern die Grundlagen fehlen (und das war, wohlgemerkt, bereits 2001). Dass die Meinung vorherrsche, die Garbage Collection werde es schon richten, ohne dass man verstanden hat, was ein Stack und was ein Heap ist, wann was verwendet wird und welche Auswirkungen das hat.

Natürlich muss man nicht in allem Expertin oder Experte sein, das ist allein aufgrund der Menge an Themen auch gar nicht machbar. Aber die Grundlagen des eigenen Werkzeugs zu verstehen ist keine optionale Zusatzqualifikation, sondern die Voraussetzung dafür, die Abstraktion über diesem Werkzeug sinnvoll nutzen zu können. Wer nicht weiß, wie JavaScript funktioniert, wird an TypeScript scheitern. Wer nicht versteht, was JSX unter der Haube tut, wird an React scheitern. Wer nicht in der Lage ist, Code selbst zu beurteilen, wird an KI scheitern.

Mein Rat lautet daher nicht, auf Abstraktion grundsätzlich zu verzichten. Mein Rat lautet, mit Abstraktion zu warten, also nicht mit einer Abstraktion starten, sondern alles erst einmal explizit machen. Jede Klasse, jede Funktion, jede Schnittstelle so schreiben, dass sie für sich allein verständlich ist. Code wird nur einmal geschrieben, aber viele Male gelesen. Lesbarkeit, Nachvollziehbarkeit und Verständlichkeit sind wichtiger als drei Zeilen weniger Tipparbeit.

Erst wenn man genau weiß, wie sich die Anforderungen verhalten, welche Teile sich tatsächlich gemeinsam ändern und welche nur zufällig ähnlich aussehen, dann und nur dann kann man über Abstraktion nachdenken. Und selbst dann lohnt sich die Frage: Brauche ich die Abstraktion wirklich? Oder mache ich den Code damit nur kürzer, aber nicht besser? Senkt die Abstraktion die Kopplung und erhöht die Kohäsion, oder bewirkt sie das Gegenteil?

Viele der besten Codebasen, die ich in über 30 Jahren Berufserfahrung gesehen habe, zeichneten sich nicht durch clevere Abstraktionen aus, sondern durch Klarheit. Durch Code, den man lesen und verstehen konnte, ohne erst drei Indirektionsebenen nachzuverfolgen. Durch explizite Strukturen, die auf den ersten Blick verrieten, was sie taten und warum. Das ist die wahre Kunst der Softwareentwicklung, und abschließend kann man sagen: Abstraktion ist überbewertet, Verständnis nicht.


(rme)



Source link

Künstliche Intelligenz

Marvell: Bericht über Verhandlungen mit Google zur Entwicklung zweier KI-Chips


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Der US-Konzern Google befindet sich in Gesprächen mit dem Chipdesigner Marvell Technology über die Entwicklung zweier neuer Chips, die KI-Modelle effizienter ausführen sollen. Das berichtete am Sonntag das Techportal The Information mit Verweis auf zwei Personen, die mit den Gesprächen direkt vertraut sind.

Weiterlesen nach der Anzeige

Dem Bericht zufolge könnte der mögliche Deal zwei unterschiedliche Chips umfassen: eine Speicherverarbeitungseinheit als Ergänzung zu Googles Tensor Processing Unit (TPU) und eine neue TPU zur effizienteren Ausführung von KI-Modellen.

Googles mögliche Kooperation mit Marvell deutet laut dem Finanzportal Finanzen.net auf eine Doppelstrategie hin. Die konzerneigenen TPUs sollen technologisch weiterentwickelt und die Chips stärker als eigenständige Cloud-Produkte positioniert werden.

Parallel dazu versuche Google, den Absatz seiner eigenen KI-Hardware über Partnerschaften mit anderen Cloud-Anbietern und Großkunden auszuweiten. Gerade erst wurde bekannt, dass Anthropic im großen Stil Googles TPUs einsetzen will, um auf ihnen seine Claude-Modelle laufen zu lassen.

Bislang arbeitet Google bei der Chipentwicklung vor allem mit dem US-Halbleiterkonzern Broadcom zusammen. Laut The Information strebt die Alphabet-Tochter angesichts der stark steigenden Nachfrage nach ihren Chips aber eine Diversifizierung der Lieferantenbeziehungen zu Broadcom an. Das liegt im Trend. Infolge des zunehmenden Wettbewerbs im Bereich Künstliche Intelligenz (KI) versuchen Tech-Konzerne wie eben Google oder auch Meta ihre Abhängigkeit von externen Chipherstellern zu verringern und zunehmend eigene Chips zu entwickeln.

Weiterlesen nach der Anzeige

Für Marvell wäre eine Zusammenarbeit mit Google hingegen ein weiterer prestigeträchtiger Auftrag. Nach dem Bekanntwerden der Gespräche mit Google legte der Kurs der Marvell-Aktie laut einem Bericht der Nachrichtenagentur Reuters an den Börsen stark zu.

Ende März investierte bereits der US-Chip-Konzern Nividia zwei Milliarden US-Dollar in Marvell. Beide Unternehmen gehen zudem eine strategische Partnerschaft ein. Diese soll Kunden, die auf Nvidia-Architekturen aufbauen, die Nutzung der von Marvell entwickelten, kundenspezifischen KI-Chips in Kombination mit Nvidias Netzwerkkomponenten und Prozessoren erleichtern. Marvell positioniert sich seit einigen Jahren gezielt als Anbieter solch maßgeschneiderter Spezialchips für Hyperscaler. Die Nachfrage nach solchen kundenspezifischen Lösungen wächst rasant, wie das Interesse von Nvidia und nun auch Google zeigt.


(akn)



Source link

Weiterlesen

Künstliche Intelligenz

Google Gemini weitet Zugriff auf El Salvadors Gesundheitssystem aus


El Salvadors Präsident Nayib Bukele startet in seinem Land ein neues Tech-Experiment. In einer landesweiten Radio- und Fernsehansprache kündigte er in der vergangenen Woche die Ausweitung eines KI-gestützten Telemedizinprogramms zur Versorgung und Nachsorge von Menschen mit chronischen Erkrankungen an. Laut Bukele beginnt nunmehr die nächste Etappe des Programms.

Weiterlesen nach der Anzeige

„Dies ist die zweite Phase, die sich auf Patienten mit chronischen Erkrankungen konzentriert … wir befinden uns auf einem neuen Niveau; wir sprechen über Diabetes, Bluthochdruck, Nierenerkrankungen“, so Bukele. Er sei „sehr begeistert, denn wir schaffen das beste Gesundheitssystem der Welt“.

Im Mittelpunkt des Programms steht die mobile Smartphone-Anwendung „DoctorSV“. Die Regierung hatte diese im November 2025 eingeführt. Es handelt sich um eine Plattform, die Videokonsultationen mit Ärzten, elektronische Rezepte und eine digitale Patientenakte integriert. Künftig soll sie auch die Behandlung von Patienten mit chronischen Erkrankungen wie Diabetes, Bluthochdruck und hohem Cholesterinspiegel überwachen. Das in Zusammenarbeit mit dem US-Konzern Google entwickelte System nutzt Googles KI-Agenten Gemini. Ein bedeutender Teil der Verwaltung des öffentlichen Gesundheitssystems El Salvadors wird also an ein KI-System von Google übergeben.

Die Ankündigung erfolgt, nachdem die Regierung erst im vergangenen Jahr 7.700 Beschäftigte im Gesundheitswesen entlassen hat, darunter Allgemeinmediziner, Fachärzte, Internisten, Pflegekräfte und Mitarbeiter der Primärversorgung, und dafür viel Kritik einstecken musste.

Bei seinem Auftritt wurde Bukele von Guy Nae, Direktor von Google Cloud für den öffentlichen Sektor in Lateinamerika, sowie mehreren salvadorianischen Gesundheitsexperten begleitet. Einer von ihnen, der Facharzt Edgardo Von Euw, erläuterte, dass das Programm darauf abzielt, Menschen mit chronischen Erkrankungen zu identifizieren. „Künstliche Intelligenz wird dabei eine große Hilfe sein, da sie die in den Krankenakten vorhandenen Risikofaktoren auswertet.“

Im Wesentlichen funktioniert das Programm so, dass jeder Salvadorianer die DoctorSV-App herunterladen, eine Patientenakte anlegen und seine Symptome in ein Formular eingeben kann. Das System wertet die Daten aus und vereinbart dann einen Termin mit einem Arzt, der die Diagnose stellt. Anschließend empfiehlt die KI die notwendigen Untersuchungen und überwacht die Behandlung – sowohl bei gelegentlichen Konsultationen als auch bei chronischen Erkrankungen.

Weiterlesen nach der Anzeige

Die Regierung von El Salvador und Google Cloud hatten im Sommer 2023 eine Vereinbarung über sieben Jahre öffentlich gemacht, die „das Land auf seinem Weg zu einem Technologiezentrum in Zentralamerika unterstützen“ soll. Bukeles Regierungspartei Nuevas Ideas (NI) verabschiedete kurz darauf eine Verordnung, wonach der Staat El Salvador mindestens 500 Millionen US-Dollar für die Umsetzung dieser „strategischen Allianz“ mit Google bereitstellen muss. Die Projektdetails allerdings blieben vertraulich.

Präsident Bukele setzt nicht nur im Bereich Gesundheitswesen auf globale Tech-Konzerne. Ende vergangenen Jahres vereinbarte er mit X-Chef Elon Musk den Einsatz des KI-Chatbots Grok in El Salvadors öffentlichen Schulen, um das weltweit erste landesweite KI-gestützte Bildungsprogramm zu starten.

Zuvor hatte El Salvador im September 2021 als erstes Land der Welt Bitcoin zum gesetzlichen Zahlungsmittel erklärt. Die Regierung versprach einen besseren Zugang zu Zahlungssystemen für Arme, leichtere Rücküberweisungen von Auslandssalvadorianern und mehr ausländische Investitionen. Nichts von alledem trat ein; nur ein sehr geringer Prozentsatz der Bevölkerung nutzte die Kryptowährung als Zahlungsmittel. Kritiker hingegen warnten wegen der großen Volatilität des Bitcoins von Beginn an vor Gefahren für die währungspolitische Stabilität, fehlender Transparenz und möglicher Geldwäsche. Anfang 2025 hob El Salvadors Parlament auf Druck des Internationalen Währungsfonds IWF die Anerkennung von Bitcoin als gesetzliches Zahlungsmittel wieder auf. Dennoch hält das Land weiterhin große Bitcoin-Reserven.


(akn)



Source link

Weiterlesen

Künstliche Intelligenz

Illegale Preisabsprachen: Kalifornien untermauert Vorwürfe gegen Amazon


Der US-Onlineversandhändler Amazon soll Levi’s und andere namhafte Marken zu Preisabsprachen gezwungen haben. Das geht aus am Montag freigegebenen Gerichtsdokumenten hervor, über die unter anderem die Nachrichtenagentur Bloomberg berichtete. Die mutmaßlichen Absprachen beeinflussten wiederum die Preise für eine Vielzahl von Waren auf den Websites von US-Einzelhändlern wie Walmart, Home Depot und anderen.

Weiterlesen nach der Anzeige

Die nun bekannt gewordenen Dokumente sind Teil einer im Jahr 2022 eingereichten Kartellklage des US-Bundesstaats Kalifornien gegen Amazon. Kaliforniens Generalstaatsanwalt Rob Bonta beschuldigt in der Klage (PDFPDF) Amazon, Drittanbietern Knebelverträge aufzuzwingen, die es ihnen verbieten, ihre Waren günstiger auf anderen Handelsplattformen zu verkaufen. Amazon nutze seine Marktmacht dazu, Endkundenpreise in die Höhe zu treiben, um seine Gewinnmargen zu schützen, so der Vorwurf. Der Prozessbeginn ist für Januar 2027 geplant.

Kalifornien beantragte im Februar bei einem Gericht in San Francisco, Amazon die als Preisabsprachen bezeichneten Praktiken bis zum Prozessauftakt zu untersagen. Die nun veröffentlichte Akte ist eine Version dieses Antrags, in der die zuvor geschwärzten internen Dokumente entfernt wurden.

Das Dokument zeigt, wie Amazon Marken mutmaßlich unter Druck setzte, andere Händler zu Preiserhöhungen zu bewegen. „Die im Rahmen der Beweisaufnahme gewonnenen Erkenntnisse zeigen, dass Amazon, seine Lieferanten und konkurrierende Einzelhändler Preisabsprachen treffen“, heißt es da. „Immer wieder, über Jahre und Produktkategorien hinweg, kontaktiert Amazon seine Lieferanten und weist sie an, die Preise auf den Websites der Konkurrenz zu manipulieren. Sollten die Lieferanten dieser Anweisung nicht Folge leisten, drohen sie mit schwerwiegenden Konsequenzen.“ Den Gerichtsdokumenten zufolge ließen sich Händler von Amazons Verhandlungsmacht einschüchtern und stimmten aus Angst vor Strafen Preiserhöhungen auf konkurrierenden Websites zu.

„So explizit und eklatant wird Preisabsprache selten schriftlich festgehalten“, sagte der kalifornische Generalstaatsanwalt Rob Bonta gegenüber der US-Tageszeitung New York Times.

Die Akte dokumentiert die Geschäftspraktiken von Amazon mehr als einem Dutzend Fälle, in denen Amazon-Mitarbeiter Lieferanten kontaktierten, nachdem sie Produkte mit niedrigeren Preisen auf konkurrierenden Websites entdeckt hatten. Amazon versuchte demnach auf diese Weise, sich die besten Preise für eine breite Palette an Produkten zu sichern, darunter Levi’s-Bekleidung, Dünger, Augentropfen, tragbare Generatoren und Audio-Equipment.

Weiterlesen nach der Anzeige

Amazon sieht sich zudem einer Klage wegen Kartellrechtsverstößen in mehreren Fällen durch die US-Handelsbehörde Federal Trade Commission (FTC) und 17 US-Bundesstaaten gegenüber. Sie beschuldigen den Online-Händler der Benachteiligung von Drittverkäufern auf seiner Plattform Amazon Marketplace und der Aufrechterhaltung eines illegalen Monopols im Online-Handel durch die Bevorzugung eigener Produkte. Laut der Klage habe dies zu „künstlich überhöhten Preisen“ geführt.

Zudem wurde Amazon vorgeworfen, Kunden unwissentlich mittels sogenannter „Dark Pattern“-Technik zum Abschluss eines Amazon Prime-Abos verleitet und die Kündigung des kostenpflichtigen Dienstes für US-Kunden erschwert zu haben. Im Fall der untergeschobenen Prime-Abos einigte sich die FTC mit Amazon im September. Der Onlinehandelsriese sowie zwei verantwortliche Amazon-Manager akzeptieren einen Vergleich, in dessen Rahmen der Konzern eine Milliarde US-Dollar Strafe zahlt. Zusätzlich muss Amazon 1,5 Milliarden US-Dollar an übervorteilte US-Kunden zurückzahlen.

Die noch offenen FTC-Klagen sollen ab März verhandelt werden. Auch deshalb werde der Fall in Kalifornien laut der Nachrichtenagentur Bloomberg mit besonderer Spannung erwartet, da er ab Januar kommenden Jahres noch vor den anderen Verfahren verhandelt wird. Jedes dieser Verfahren könnte zur Zerschlagung von Amazons Einzelhandelsgeschäft führen, so Bloomberg.


(akn)



Source link

Weiterlesen

Beliebt