Künstliche Intelligenz
Amazon mit neuem KI-Beschleuniger und künftig mit Nvidia-Technologie
Die Amazon-Tochter Amazon Web Services (AWS) hat am Dienstag im Rahmen seiner Cloud-Computing-Konferenz AWS re:Invent 2025 in Las Vegas eine neue Version seines Trainingschips für künstliche Intelligenz (KI) namens Trainium3 vorgestellt – nur gut ein Jahr nach der Einführung des Vorgängermodells. Der neue hochmoderne 3-Nanometer-Chip wurde kürzlich bereits in einigen Rechenzentren installiert und ist ab sofort für Kunden verfügbar. Das erklärte der Vizepräsident für AWS-Rechen- und Maschinelles Lernen-Dienste, Dave Brown, in einem Interview mit der Nachrichtenagentur Bloomberg. „Anfang nächsten Jahres werden wir sehr, sehr schnell mit der Skalierung beginnen“, sagte er.
Weiterlesen nach der Anzeige
Die Chip-Entwicklung gilt als Schlüsselfaktor von Amazons KI-Strategie. Die Cloud-Sparte AWS gehört zu den größten Anbietern von gemieteter Rechenleistung und Datenspeicher und treibt das Wachstum von Amazon. Bei der Entwicklung von KI-Tools steht der US-Konzern aber im Schatten von Google und Microsoft, das an ChatGPT-Hersteller OpenAI beteiligt ist.
Mehr Rechenleistung, weniger Energieverbrauch
Mit seinen Trainium-Chips hofft Amazon, eine kostengünstige Alternative zur Konkurrenz anbieten zu können, so Brown gegenüber der Nachrichtenagentur Reuters. „Wir müssen ihnen beweisen, dass wir ein Produkt haben, das ihnen die Leistung bietet, die sie benötigen, und einen angemessenen Preis erzielen, damit sie diesen Preis-Leistungs-Vorteil erhalten“, so Brown. Nach Angaben des Unternehmens sind die Trainium-Prozessoren in der Lage, die intensiven Berechnungen hinter KI-Modellen kostengünstiger und effizienter durchzuführen als beispielsweise die Grafikprozessoren von Marktführer Nvidia.
Im harten KI-Wettbewerb versucht AWS, energieeffizientere Systeme zu entwickeln. Die neuen AWS-Server auf Basis des Trainium3-Chips, Trainium3 UltraServer, enthalten laut Brown jeweils 144 Chips und verfügen über mehr als die vierfache Rechenleistung der vorherigen KI-Generation von AWS. Das macht die neuen Server mehr als viermal schneller; und sie verfügen über viermal mehr Speicher. Und vielleicht noch wichtiger angesichts des immensen Energiebedarfs von KI-Rechenzentren: Die Chips und Systeme verbrauchen laut AWS 40 Prozent weniger Strom als die Vorgängergeneration.
Nvidia-Technologie in neuer Chip-Genenration
Weiterlesen nach der Anzeige
In dem Bemühen, große KI-Kunden für die Nutzung seiner Dienste zu gewinnen, gab AWS ebenfalls am Dienstag bekannt, dass ab der bereits in der Entwicklung befindlichen vierten Generation seines KI-Beschleunigers Trainium die Nvidia-Technologie „NVLink Fusion” zum Einsatz kommen wird. Die NVLink-Technologie schafft schnelle Verbindungen zwischen verschiedenen Arten von Chips und gilt laut Reuters als eine der „Kronjuwelen von Nvidia“. Chiphersteller wie Intel oder Qualcomm nutzen demnach die Hochgeschwindigkeits-Chip-Verbindungstechnologie von Nividia bereits.
NVLink soll dem Trainium4-Chip einen weiteren großen Leistungssprung bringen und AWS dabei helfen, größere KI-Server zu bauen, die sich schneller erkennen und miteinander kommunizieren können. Beim Training großer KI-Modelle, bei denen Tausende Einheiten miteinander verbunden werden müssen, ist dies ein entscheidender Faktor. Die mit Trainium4 betriebenen Systeme könnten es laut dem Tech-Portal TechCrunch einfacher machen, große KI-Anwendungen, die für Nvidia-Grafikprozessoren entwickelt wurden, für die Cloud von Amazon zu gewinnen.
Darüber hinaus stellte Amazon am Dienstag neue Versionen seines KI-Modells Nova vor. Gegenüber Konkurrenten wie ChatGPT von OpenAI, Claude von Anthropic oder Gemini von Google hat Nova bislang nur einen geringen Marktanteil. Das soll sich mit den neuen Versionen ändern. Zu den neuen Nova 2-Produkten gehört eine Variante namens Omni, die in der Lage ist, auf Text-, Bild-, Sprach- oder Videoeingaben sowohl mit Text als auch mit Bildern zu reagieren. Ein weiteres Modell namens Sonic kann auf Sprachbefehle per Sprachausgabe antworten, in einer Art und Weise, die AWS-CEO Matt Garman laut Reuters als „menschenähnlich“ bezeichnete.
(akn)
Künstliche Intelligenz
DocuSeal 2.3.0: Open-Source-Alternative zu DocuSign mit KI-Features
DocuSeal hat Version 2.3.0 seines Open-Source-Tools für elektronische Unterschriften veröffentlicht. Das Update bringt vor allem Verbesserungen für den Formular-Editor sowie eine wichtige Sicherheitsänderung für Docker-Installationen.
Weiterlesen nach der Anzeige
Hauptneuerung ist eine KI-gestützte Felderkennung, die Formularfelder in PDF-Dokumenten automatisch identifiziert. Nutzer können die Funktion über das neue Kontextmenü aufrufen, per Rechtsklick auf Felder. Damit lassen sich Formulare schneller für elektronische Signaturen vorbereiten. Das Kontextmenü umfasst darüber hinaus Funktionen zum Konfigurieren, Kopieren und Einfügen von Feldern.
Ein weiteres Feature ist der neue Select-Modus, den Anwender über die Tab-Taste oder das Kontextmenü aktivieren können. Im Select-Modus lassen sich mehrere Felder gleichzeitig auswählen und gemeinsam verschieben, skalieren oder konfigurieren. Die Mehrfachauswahl funktioniert wie gewohnt über Strg+Klick.
Mehr Sicherheit in Docker-Umgebungen
Für Docker-Nutzer bringt Version 2.3.0 eine wichtige Sicherheitsverbesserung: Die Docker-App läuft nun mit der Rolle docuseal:docuseal statt mit Root-Rechten. Dies erhöht die Sicherheit bei Standard-Docker-Compose-Installationen, bei denen Speicher und Umgebungsvariablen auf dem Host-System liegen. Nutzer mit alternativen Installationen, die Umgebungsvariablen anders einbinden oder S3-Speicher verwenden, sind von dieser Änderung nicht betroffen.
Open-Source-Alternative zu DocuSign
DocuSeal bezeichnet sich als selbst gehostete Alternative zu proprietären Diensten wie DocuSign. Die Software steht unter AGPL-3.0-Lizenz und lässt sich auf eigenen Servern oder in der Cloud betreiben.
Weiterlesen nach der Anzeige
Die Plattform bietet einen WYSIWYG-PDF-Formular-Editor mit zwölf Feldtypen, darunter Signatur-, Datums-, Datei- und Checkbox-Felder. Mehrere Unterzeichner können gleichzeitig an einem Dokument arbeiten. Die Software versendet automatisierte E-Mails über SMTP und speichert Daten wahlweise lokal, auf AWS S3, Google Cloud Storage oder Microsoft Azure. Die elektronischen Signaturen sind nach PDF-Standard verifizierbar.
Zusätzlich zur kostenlosen Version bietet DocuSeal Pro-Features wie White-Labeling, Nutzerrollen, Erinnerungen, SMS-Verifikation, bedingte Felder, Massen-Versand über CSV oder XLSX sowie Single Sign-on per SAML. Die Plattform ist SOC-2- und ISO-27001-zertifiziert.
DocuSeal lässt sich per Docker mit wenigen Befehlen installieren und nutzt standardmäßig SQLite als Datenbank. Optional unterstützt die Software PostgreSQL und MySQL. Weitere Informationen finden sich auf der GitHub-Seite des Projekts.
(fo)
Künstliche Intelligenz
Abzug aus USA: Bund gibt 30 Millionen Euro für unabhängige Forschungsdaten
Die Zeiten, in denen sich die deutsche Wissenschaft blind auf die kostenlose Bereitstellung medizinischer Forschungsdaten aus den USA verlassen konnte, scheinen endgültig vorbei zu sein. Die Bundesregierung blickt mit wachsender Sorge auf die volatile Lage jenseits des Atlantiks und zieht nun erste finanzielle Konsequenzen: Der Bund stellt ein Sofortbudget von rund 30 Millionen Euro bereit, um gefährdete Forschungsdatenbestände zu sichern. Das geht aus einer Antwort der Exekutive auf eine Anfrage der Bundestagsfraktion der Grünen hervor.
Weiterlesen nach der Anzeige
Die Finanzmittel werden laut der Auskunft über die Deutsche Forschungsgemeinschaft (DFG) in einem wissenschaftsgeleiteten Verfahren vergeben. Die ersten Anträge durchlaufen bereits die Begutachtungsphase.
Hintergrund ist die veränderte Schwerpunktsetzung in der US-Haushaltspolitik, die den Betrieb zentraler Infrastrukturen wie der Literaturdatenbank PubMed oder des Studienregisters ClinicalTrials.gov ins Wanken bringen könnte. Besonders die Befürchtung, dass die US-Regierung unter Donald Trump die Mittel für die National Institutes of Health (NIH) drastisch kürzt, sorgt für Unruhe. Zudem gibt es Bedenken, dass politische Einflussnahmen die wissenschaftliche Integrität und den freien Zugang zu diesen globalen Standardressourcen beeinträchtigen könnten. PubMed, betrieben von der National Library of Medicine (NLM) als Abteilung der NIH, ist mit über 30 Millionen Zitaten die weltweit wichtigste Ressource für biomedizinische Literatur.
Dass diese Sorgen nicht unbegründet sind, zeigte sich bereits Anfang März 2025, als PubMed kurzzeitig komplett ausfiel. Die Plattform war zwar einen Tag später wieder erreichbar. Das federführende Forschungsministerium betont auch, dass bisher keine dauerhaften signifikanten Einschränkungen vorlägen. Trotzdem wird die uneingeschränkte Verfügbarkeit dieser Ressourcen in Berlin nicht mehr als selbstverständlich erachtet.
Europäische Wissenschaftscloud im Fokus
Die Deutsche Zentralbibliothek für Medizin (ZB MED) hat bereits angekündigt, mit dem Projekt Open Life Science Publication Database (OLSPub) eine offene, zuverlässige und nachhaltige europäische Alternative zu PubMed schaffen zu wollen. Ziel ist es, die technologische Unabhängigkeit mit Offenheit und Transparenz zu verbinden, um die Innovationskraft der Forschung zu schützen. Das Projekt wird aktuell im Rahmen der DFG-Fördermaßnahmen begutachtet.
Die Bundesregierung setzt parallel dazu auf eine langfristige europäische Datensouveränität. Um diesen Prozess zu koordinieren, hat sie eine nationale Arbeitsgruppe ins Leben gerufen, die den Austausch mit der Wissenschaftscommunity und den europäischen Partnern bündeln soll. Als zentraler Ankerpunkt dient dabei insbesondere die European Open Science Cloud (EOSC). Im Rahmen dieser Initiative werden laut der Exekutive Fragen zur Sicherung bedrohter Datenbestände bereits „mit sehr großem Anwendungs- und Umsetzungsbezug diskutiert und perspektivisch koordiniert“.
Weiterlesen nach der Anzeige
Trotz dieser Ambitionen bleibt die diplomatische Informationslage dünn. Ein offizieller Austausch mit US-Behörden über künftige Finanzierungsentscheidungen finde auf Regierungsebene nicht statt, heißt es. Auch ein systematisches Monitoring für US-Haushaltsentscheidungen existiert bisher nicht. Stattdessen vertraut die Exekutive auf die bestehende Vernetzung innerhalb der Forschung und die finanzielle Beteiligung an europäischen Großprojekten wie dem EMBL-EBI, das eine wichtige Spiegelung der PubMed-Inhalte betreibt. Die mobilisierten 30 Millionen Euro sind so ein erster Schutzwall, um die hiesige Wissenschaft vor dem Verlust von Datenzugängen abzuschirmen.
(mack)
Künstliche Intelligenz
Die vergessenen App Stores: Ein Nachruf auf große Erwartungen
Erinnert sich noch jemand an die alternativen App Stores? Richtig, da war doch was! Sie waren nach der Darstellung des iPhone-Herstellers der drohende Untergang des Apple-Landes und ein Quell unentwegter öffentlicher Streitereien zwischen dem iPhone-Hersteller und der EU-Kommission. Der Stein des Anstoßes: Die EU hat Apple per Digital Markets Act (DMA) dazu verpflichtet, in seiner virtuellen Marktstraße neben dem eigenen App-Kaufhaus auch anderen Geschäftsleuten die Eröffnung eines Ladenlokals zu ermöglichen.
Weiterlesen nach der Anzeige

Malte Kirchner ist seit 2022 Redakteur bei heise online. Neben der Technik selbst beschäftigt ihn die Frage, wie diese die Gesellschaft verändert. Sein besonderes Augenmerk gilt Neuigkeiten aus dem Hause Apple. Daneben befasst er sich mit Entwicklung und Podcasten.
Die Meldung, dass Setapp seinen App-Marktplatz bereits schließt, dürfte das Thema bei vielen überhaupt erst wieder ins Bewusstsein gerückt haben. Und auch wenn dies nur ein Anbieter von insgesamt vier bis fünf bekannten Stores ist, so ist es doch recht bezeichnend, dass der erste Laden schon wieder schließt, bevor es überhaupt irgendeine Art von Blütephase gegeben hat.
Keine Begeisterung hervorgerufen
Die Gelehrten streiten bereits darüber, woran es gelegen hat. Diejenigen, die den DMA für ein fehlgeleitetes Bürokratiemonster mit Risiken und Nebenwirkungen halten und damit auf der Seite Apples stehen, sehen sich in ihren Prophezeiungen bestätigt. Andere werfen Apple vor, die Maßgaben des DMA extra umständlich umgesetzt zu haben, sodass auf diesem toxischen Boden gar nichts gedeihen konnte. In dieses Horn stößt auch Setapp in seiner Begründung.
Die Wahrheit dürfte, wie so oft, irgendwo in der Mitte liegen. Nicht wegzudiskutieren ist allerdings, dass das in Brüssel ersonnene Konzept der alternativen Marktplätze niemals so recht Begeisterung bei Entwicklern und Nutzern hervorgerufen hat. Die meisten von ihnen dürften eher Verbesserungen im Vorhandenen herbeigesehnt haben, anstatt neue Marktplätze zu schaffen.
Woran liegt das?
Weiterlesen nach der Anzeige
Zuvorderst dürfte eine Rolle spielen, dass Europa zwar ein großer Wirtschaftsraum ist. Im Kontext der digitalen Märkte ist aber selbst ein Gebilde mit 440 Millionen Einwohnern und einer immensen Wirtschaftskraft für sich genommen zu wenig, dass Entwickler den Aufwand auf sich nehmen, nur für Europa – oder mittlerweile Europa und Japan – einen Sonderweg zu beschreiten. Das ist auch bei anderen Vorgaben des DMA zu sehen, etwa bei den Browser-Engines. Wenn selbst Google mit seinen immensen Geld- und Personalressourcen nicht motiviert ist, seine Browser-Engine in Europa an den Start zu schicken: Wer kann es dann den vielen kleinen und mittleren Entwicklern verdenken, dass sie diesem Beispiel folgen?
Was die Regulierung bewirkt hat
War die ganze Regulierung damit also für die Katz? Gab es vielleicht gar nicht das dem staatlichen Eingreifen zugrundeliegende klassische Marktversagen? Also eine Situation, in der Nutzer und Entwickler unter einem Problem leiden, das sie selbst nicht lösen können?
So einfach ist es auch nicht. Der DMA ist der Versuch einer Lösung für ein Problem, das von Entwicklern – großen wie kleinen – seit Jahren beklagt wird. Sie monierten, dass die großen Plattformbetreiber, wie Apple und Google, mangels geeigneter Mitbewerber in ihren Ökosystemen die Verkaufsprovisionen willkürlich festlegen können. Im Wettbewerb sehen die Regulierer die Möglichkeit, dass der Markt die Preise auf ein angemessenes Maß einpegelt.
Apple versucht, dieses Problem auf die großen Player wie Epic und Spotify zu reduzieren. Schon vor dem DMA hat Apple mit dem Small Business Program für kleinere Entwickler die Möglichkeit geschaffen, der vorher starren 30-Prozent-Abgabe zu entkommen. Am eigentlichen Kritikpunkt änderte das allerdings wenig.
Nicht völlig erfolglos
Der DMA ist in Sachen Apps nicht völlig erfolglos geblieben. Er hat bewirkt, dass Entwickler unabhängig von ihrer Größe von Gebührensenkungen profitieren, die durch die Druckkulisse der Regulierung ausgelöst wurden. Apple wird natürlich stets behaupten, dass das kein Verdienst des DMA ist. Andererseits räumte der iPhone-Hersteller jüngst nach einer von ihm selbst finanzierten Studie selbst ein, dass die Entwickler von gesunkenen Abgaben profitieren. 86 Prozent davon gingen zwar an Entwickler außerhalb der EU und die geben die Ersparnis nicht an die Käufer weiter, heißt es darin – das stärkt also nicht primär den Europäischen Wirtschaftsraum. Aber eine Bevorzugung europäischer Unternehmen hätte den DMA angreifbar gemacht und war auch nie dessen Absicht.
Die Nutzer hätten nach der Lesart des DMA durch einen Wettbewerb der Marktplätze von sinkenden Preisen profitiert. Dies würde aber voraussetzen, dass die App-Stores mit den gleichen Apps gegeneinander antreten. Das passiert in der Realität aktuell aber nicht, weshalb Nutzer keinen Vorteil für sich sehen.
Neben der Flaute der alternativen App-Stores sind auch viele Sorgen verpufft, die Apple der EU-Anordnung entgegensetzte. Die befürchtete Kompromittierung der Sicherheit ist bislang ausgeblieben. Vielleicht verläuft die Einführung DMA-ähnlicher Regeln in Japan auch deshalb geräuschloser, weil Apple aus der EU einige Erkenntnisse mitbrachte – und nicht nur, weil die Japaner nach Ansicht Apples behutsamer vorgegangen sind.
Neuer Hauptschauplatz Interoperabilität
Die Hauptschauplätze des Konflikts zwischen Apple und der EU haben sich indessen verlagert: Inzwischen wird um mehr Interoperabilität gerungen. In iOS 26.3 werden neue Funktionen eingeführt, die von der EU angewiesen wurden. Und es ist zu erwarten, dass die EU weitere Schneisen in Apples geschlossenes Ökosystem schlägt. Apple wiederum wird damit reagieren, dass neue Features teilweise später, teilweise gar nicht in die EU kommen – aus Sicherheitsgründen, wie es heißt.
Man kann über die Glücklosigkeit der bisherigen Regulierung lachen, man kann und sollte sicher auch einiges infrage stellen, auch die Radikalität der Gangart und die Polarisierung, die von beiden Seiten betrieben wurde. Fairerweise muss den Regulierern aber auch die Chance eingeräumt werden, erst einmal zu erlernen, wie eine angemessene Ordnung für die digitalen Märkte aussehen kann. Es darf aber vom Bürger vorausgesetzt werden, dass auch wirklich die Bereitschaft da ist, etwas zu lernen und nicht einfach nur stur weiterzumachen. Auch daran haben uns die bei vielen bereits wieder in Vergessenheit geratenen alternativen Marktplätze erinnert.
(mki)
-
Entwicklung & Codevor 2 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
UX/UI & Webdesignvor 3 MonatenArndt Benedikt rebranded GreatVita › PAGE online
-
Künstliche Intelligenzvor 3 WochenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Entwicklung & Codevor 1 MonatKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGoogle „Broadwing“: 400-MW-Gaskraftwerk speichert CO₂ tief unter der Erde
-
Apps & Mobile Entwicklungvor 2 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Social Mediavor 1 MonatDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Apps & Mobile Entwicklungvor 2 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
