Connect with us

Künstliche Intelligenz

Alibaba Cloud erhöht Preise um bis zu 34 Prozent


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Der chinesische Cloudanbieter Alibaba Cloud passt zum 18. April 2026 die Preise für zahlreiche Dienste an. Betroffen sind insbesondere KI-Computing-Ressourcen, Speicherdienste und Datenbankprodukte. Die Erhöhungen fallen je nach Dienst unterschiedlich aus und reichen von 5 bis 34 Prozent.

Weiterlesen nach der Anzeige

Als Grund nennt Alibaba Cloud in seiner Service-Ankündigung die stark gestiegene weltweite Nachfrage nach KI-Rechenleistung sowie höhere Beschaffungskosten für Hardware in der gesamten Branche. Wörtlich heißt es, „aufgrund des Anstiegs der globalen KI-Nachfrage und steigender Lieferkettenkosten“ seien die „Beschaffungskosten für zentrale Hardware in der Branche erheblich gestiegen“. Nach sorgfältiger Prüfung habe man sich entschieden, die Preise anzupassen.

Während viele Dienste und Instanztypen um 5 Prozent teurer werden, trifft es GPU-basierte High-End-Instanzen deutlich stärker: Hier liegen die Aufschläge zwischen 25 und 34 Prozent. Konkret betroffen sind unter anderem Instanzen mit dem hauseigenen KI-Beschleuniger Zhenwu 810E von T-Head (Pingtouge), Alibabas Chipdesign-Tochter. Diese Recheneinheiten sind in etwa mit Nvidias H20 für den chinesischen Markt vergleichbar.

Auch der Cloud Parallel File Storage (CPFS) in der KI-Computing-Edition für Lingjun wird um 30 Prozent teurer. PAI-Lingjun ist Alibabas PaaS-Angebot für große KI-Trainings- und HPC-Workloads. Die Plattform integriert heterogenes Computing mit Panjiu-Servern, RDMA-Netzwerken und CPFS-Speicher und ist auf das Training von Modellen mit Billionen Parametern ausgelegt. Darüber hinaus steigen die Preise für die Cloud-native-Datenbank PolarDB.

Weiterlesen nach der Anzeige

Ein weiterer Treiber der Preisanpassung ist offenbar die explodierende Nutzung von Alibabas Model-as-a-Service-Plattform Bailian. Der Anbieter verzeichnete im ersten Quartal 2026 ein Rekordwachstum bei KI‑bezogenen Umsätzen und Nutzung. Folglich wächst die Inferenz‑Last stark, was erhebliche Rechenressourcen bindet. Alibaba priorisiert diese Kapazitäten zunehmend, was die Kosten für andere Dienste nach oben treibt.

Für Bestandskunden gibt es eine Übergangsfrist: Bereits vor dem 18. April 2026 abgeschlossene Verträge bleiben bis zum nächsten Verlängerungszyklus unverändert – je nach Vertragslaufzeit also für ein bis zwei Jahre oder drei bis neun Monate. Rabatte oder Kompensationen für Enterprise-Kunden hat Alibaba Cloud nicht angekündigt.

Die Preisanpassung gilt global. Regionale Unterschiede für den europäischen Markt oder die DACH-Region sind nicht vorgesehen. Kunden, die Alibabas Rechenzentrum in Frankfurt nutzen, müssen mit denselben Aufschlägen rechnen. Alibaba Cloud betreibt den Standort seit 2016.

Der Schritt reiht sich in einen branchenweiten Trend ein. Ab 1. April erhöht der Hosting-Anbieter Hetzner seine Preise. Auch Hetzner begründete dies mit drastisch gestiegenen Betriebskosten und höheren Beschaffungspreisen für neue Hardware, insbesondere für RAM und SSDs.


(fo)



Source link

Künstliche Intelligenz

#heiseshow: .de-Domain-Probleme, EU-Digitalsteuer, Commodore 64C


Anna Bicker, heise-online-Chefredakteur Dr. Volker Zota und Malte Kirchner sprechen in dieser Ausgabe der #heiseshow unter anderem über folgende Themen:

Weiterlesen nach der Anzeige

  • Kein Anschluss unter dieser Domain: Warum es bei .de hakte – Ein DNS-Problem beim DENIC sorgte dafür, dass Millionen .de-Domains zeitweise nicht aufgelöst werden konnten – unabhängig von Provider und DNS-Resolver. Was genau ist im Domain Name System schiefgelaufen? Wie anfällig ist die zentrale Internet-Infrastruktur für solche Ausfälle? Und welche Konsequenzen sollte ein solches Ereignis für Betreiber und Nutzer haben?
  • Kasse 1, bitte: Kann der EU-Plan für eine Digitalsteuer funktionieren? Das EU-Parlament fordert eine Milliardenabgabe für große Technologiekonzerne. Eine eigene Digitalsteuer auf EU-Ebene soll Big Tech stärker zur Finanzierung des Gemeinwesens heranziehen. Ist ein solches Modell überhaupt umsetzbar – und würde es die richtigen Unternehmen treffen? Wie reagieren die USA auf europäische Digitalsteuerpläne? Und wäre eine EU-weite Regelung besser als die bisher uneinheitlichen nationalen Ansätze?
  • Comeback des Brotkastens: Braucht die Welt einen neuen Commodore 64C? Jahrzehnte nach seinem ursprünglichen Erscheinen soll der Commodore 64C in einer modernisierten, schlankeren Version zurückkehren. Was steckt hinter dem Neuauflageprojekt – Nostalgie, Spielerei oder mehr? Für wen ist so ein Gerät heute überhaupt gedacht? Und was sagt der anhaltende Retro-Computing-Boom über unsere Beziehung zur Technikgeschichte aus?

Außerdem wieder mit dabei: ein Nerd-Geburtstag, das WTF der Woche und knifflige Quizfragen.

Fragen an die Moderatoren und Gäste können während der Sendung im YouTube-Chat und in unserem Twitch-Kanal (twitch.tv/heiseonline) sowie vorab per E-Mail und im heise-Forum gestellt werden. Die Redaktion freut sich bereits auf zahlreiche Zuschauer und auf reges Feedback.

Weiterlesen nach der Anzeige

Die #heiseshow wird jeden Donnerstag um 17 Uhr live auf heise online gestreamt. Nach der Live-Übertragung ist die Sendung zum Nachschauen und -hören auf YouTube und als Podcast verfügbar:


(mki)



Source link

Weiterlesen

Künstliche Intelligenz

Anthropic erhöht Claude-Nutzung für KI-Abonnenten durch Kooperation mit SpaceX


Anthropic ist eine Partnerschaft mit SpaceX eingegangen und hat sich dabei einen Großteil der KI-Rechenkapazitäten in dessen großen Supercomputer Colossus gesichert. Gleichzeitig und vielleicht auch deshalb erhöhte das KI-Unternehmen die Nutzungslimits für Abonnenten seiner KI-Modelle dramatisch. Anwender von Claude Code bekommen deutlich mehr Nutzungszeit, und das bisherige Limit in Spitzenzeiten wird aufgehoben. Zudem werden die API-Grenzen für Token von Claude Opus deutlich angehoben.

Weiterlesen nach der Anzeige

Der Grund dürfte im Zukauf neuer Rechenkapazitäten liegen. Bei seiner Fertigstellung im Herbst 2024 galt Colossus als womöglich schnellster Supercomputer der Welt und wurde zunächst für das Training von Grok, dem KI-Modell von xAI, genutzt. Doch jetzt schreibt Anthropic, dass sich die KI-Firma „die gesamte Rechenkapazität“ dieses Rechenzentrums gesichert hat. Das läuft demnach auf eine Rechenleistung von 300 Megawatt pro Monat hinaus, basierend auf mehr als 220.000 Nvidia-GPUs.

Die zusätzliche Rechenkapazität soll Abonnenten von Claude Pro und Max zugutekommen. Deshalb verdoppelt Anthropic nach eigenen Angaben die bisherige Tarifbegrenzung von fünf Stunden für Pro-, Max-, Team- und Enterprise-Abos von Claude Code. Pro- und Max-Abonnenten dieses KI-Agenten für Programmieraufgaben werden zudem von der Begrenzung in Spitzenzeiten befreit. Diese Upgrades sind ab sofort nutzbar.

Für Claude Opus, das Mitte April in der Version 4.7 freigegeben wurde und Anweisungen substanziell besser befolgen soll, wurden die Token-Limits bei der Nutzung per API auch ab sofort dramatisch erhöht. In der niedrigsten Stufe (Tier 1) wurden die Input-Token mehr als verzehnfacht (von 30.000 auf 500.000 pro Minute) und die Output-Token exakt verzehnfacht (von 8000 auf 80.000 pro Minute). In der höchsten Stufe (Tier 4) sind es nun 10 statt 2 Millionen Input-Token pro Minute und 800.000 statt 400.000 Output-Token pro Minute.

Weiterlesen nach der Anzeige

Anthropic erwägt zukünftig auch die Nutzung von Rechenzentren im Weltall für die eigenen KI-Modelle. „Wir haben außerdem unser Interesse an einer Partnerschaft mit SpaceX zur Entwicklung einer orbitalen KI-Rechenkapazität von mehreren Gigawatt bekundet“, heißt es seitens der KI-Firma. Einen Zeitplan gibt es bislang nicht, aber bei der Übernahme von xAI samt Grok und X durch SpaceX im Februar 2026 hatte Konzernchef Elon Musk erklärt, dass der Erdorbit aufgrund der Sonnenenergie schon in wenigen Jahren der günstigste Ort für KI-Rechenzentren sein werde.

Lesen Sie auch


(fds)



Source link

Weiterlesen

Künstliche Intelligenz

Souveräne KI aus Deutschland | heise online


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

STACKIT, der Cloud-Anbieter der Schwarz Gruppe, und das Kölner KI-Unternehmen neuland.ai wollen gemeinsam eine durchgängig in Deutschland betriebene KI-Architektur etablieren. Dazu kombinieren sie die Cloud-Infrastruktur von STACKIT mit dem neuland.ai HUB, einer KI-Management- und Orchestrierungsplattform. Kunden können darüber verschiedene KI-Modelle über einheitliche Schnittstellen ansprechen, darunter Llama, Mistral, Qwen und große Open-Source-Modelle mit bis zu 120 Milliarden Parametern.

Weiterlesen nach der Anzeige

Die KI-Modelle laufen dabei wahlweise „on prem“ auf der Hardware des Nutzers, in der souveränen Cloud von STACKIT auf Rechenzentren in Deutschland oder – falls gewünscht – auch bei US-Hyperscalern, ohne dass das auf Anwendungsseite einen Unterschied macht. neuland.ai verspricht, dass Kundendaten Ende-zu-Ende-verschlüsselt gespeichert sind und das Unternehmen keinen Zugriff darauf hat, sodass sie nicht für Modelltraining verwendet werden können. Der neuland.ai HUB soll zudem im STACKIT Marketplace verfügbar werden.

Das gemeinsame Angebot richtet sich an Unternehmen, die ihre Daten nicht an US-amerikanische Unternehmen wie OpenAI oder Anthropic schicken wollen oder dürfen. Unter dem US Cloud Act können US-amerikanische Behörden auf bei US-Unternehmen gespeicherte Daten zugreifen, selbst wenn diese Daten in Rechenzentren in Europa liegen. Mit dem KI-Angebot von neuland.ai und STACKIT sollen deutsche Unternehmen die regulatorischen Anforderungen aus NIS2, DORA und dem EU AI Act erfüllen können.


(odi)



Source link

Weiterlesen

Beliebt