Künstliche Intelligenz
1 Terawatt an KI-Chips – Elon Musk will größte Chipfabrik bauen
In der texanischen Haupstadt Austin hat Elon Musk am Samstag sein Projekt „Terafab“ angekündigt. Unter diesem Namen soll die größte voll integrierte Chipfabrik der Welt entstehen. Sie soll vorwiegend KI-Beschleuniger für Training und Inferencing herstellen, aber auch Solarzellen und Speicherbausteine. In der Terafab sollen auch die für die Belichtung von Halbleitern nötigen Masken selbst gefertigt werden und die fertigen Chips in Gehäuse gesetzt werden, das so gennannte „packaging“.
Weiterlesen nach der Anzeige
Elon Musk verspricht sich von diesem integrierten Ansatz eine „um eine Größenordnung bessere“ Geschwindigkeit bei der Entwicklung der Chips. Sie sollen vollständig im selben Gebäude hergestellt und getestet werden. Sind Verbesserungen nötig, sollen neue Masken gefertigt werden, und der Prozess beginnt von vorne. Musk sagte, dass seines Wissens nach niemand in der Halbleiterindustrie diesen Ansatz verfolge.
In seinem knapp halbstündigen Vortrag, der bei X gestreamt wurde, machte Musk keinerlei Angaben zu den dafür nötigen Basistechnologien oder Zulieferern für Material oder die Maschinen, welche die Chips herstellen sollen. Firmen wie ASML, Weltmarktführer bei EUV-Lithographie, oder Trumpf, welche die Laser für diese Belichter herstellen, wurden nicht genannt. Auch Zeitpläne oder den Kostenrahmen ließ der Unternehmer offen.
2-Nanometer-Technik, Partner unbekannt
Aus früheren Äußerungen von Musk ist nur bekannt, dass die Terafab 2 Nanometer kleine Strukturen auf den Chips erreichen soll. In diesen, bei verschiedenen Prozessen schlecht vergleichbaren, Dimensionen arbeitet derzeit auch Fertigungs-Technologieführer TSMC. Üblicherweise dauert die Entwicklung von derartigen Prozessen mehrere Jahre, wenn ein Unternehmen entsprechende Erfahrung, Personal und Maschinen besitzt.
Die Fabrik, die von Tesla, SpaceX und xAI gemeinsam betrieben werden soll, ist laut einem Renderbild in der Nähe des Tesla-Hauptquartiers bei Austin geplant. Auch zur Energieversorgung oder der Größe der Fläche machte Musk keine Angaben. Gleiches gilt für mögliche Partner. Der Unternehmer hatte jedoch früher angedeutet, dass seine Halbleiterfertigung mit Intel zusammenarbeiten könnte. Auch dieses Unternehmen, oder das auch in Austin ansässige AMD, erwähnte Musk nicht.
Nötig ist die eigene Halbleiterfertigung für die drei Musk-Unternehmen dem Vortrag zufolge nicht nur für die bisherigen Produkte von SpaceX, xAI und Tesla. In der ersten Hälfte seiner Ausführungen betonte Musk wieder einmal seine Vision von einem Leben der Menschheit im All. Um das zu erreichen, bräuchte man demnach ein Mehrfaches der Rechenleistung für Künstliche Intelligenz, die bisher auf der Erde zur Verfügung steht. Die bräuchte aber auch ein mehrfaches an Energie.
Weiterlesen nach der Anzeige

Musks Vision: Optimus baut Raketen und Satelliten, und die stellen im All mehr KI-Rechenleistung als auf der gesamten Erde zur Verfügung.
(Bild: SpaceX, Screenshot: heise medien)
1 Terawatt Rechenleistung im All als Ziel
Folglich sollen die künftigen Rechenzentren vorwiegend mit Satelliten im All realisiert werden. Musk zeigte dazu Rendergrafiken eines „AI Sat Mini“ genannten Satelliten, dessen ausgefaltete Solarzellen das aktuelle Starship V3 von SpaceX überragen. Dieses ist rund 124 Meter hoch. Um 1 Terawatt Rechenleistung im All zu ermöglichen – das ist ein Ziel der Terafab – sollen die Satelliten von einem nochmals größeren Starship V4 von rund 140 Metern befördert werden. Dessen Nutzlast soll bei 200 Tonnen liegen.
Einer der AI Sat Mini soll eine Leistungsaufnahme von rund 100 Kilowatt bereitstellen. Dass die Frage der Kühlung von solchen Systemen im All ungeklärt sei, bezeichnete Musk als „bizarre Debatte“. SpaceX wisse durch die zehntausenden Starlink-Satelliten, wie man solche Geräte kühle. Andere KI-Unternehmer sehen das anders. Sam Altman von OpenAI nannte vor einem Monat die Idee von Rechenzentren im All „lächerlich“ – vor allem wegen der Kosten des Transports und der fehlenden Reparaturmöglichkeiten von orbitalen Systemen.
Milliarden humanoide Roboter
Die in der Terafab hergestellten Chips sollen auch auf der Erde in konkreten Produkten zum Einsatz kommen, auch denen der Musk-Firmen. Der Unternehmer nannte als ein boomendes Segment mehrfach humanoide Roboter wie das System „Optimus“ von Tesla. Diese würden bald mehrfach häufiger hergestellt werden als Autos: „Ich schätze, die Produktion humanoider Roboter wird irgendwo zwischen einer und zehn Milliarden Einheiten pro Jahr liegen, das ist also eine ganze Menge.“
Lesen Sie auch
(nie)
Künstliche Intelligenz
#heiseshow: .de-Domain-Probleme, EU-Digitalsteuer, Commodore 64C
Anna Bicker, heise-online-Chefredakteur Dr. Volker Zota und Malte Kirchner sprechen in dieser Ausgabe der #heiseshow unter anderem über folgende Themen:
Weiterlesen nach der Anzeige
- Kein Anschluss unter dieser Domain: Warum es bei .de hakte – Ein DNS-Problem beim DENIC sorgte dafür, dass Millionen .de-Domains zeitweise nicht aufgelöst werden konnten – unabhängig von Provider und DNS-Resolver. Was genau ist im Domain Name System schiefgelaufen? Wie anfällig ist die zentrale Internet-Infrastruktur für solche Ausfälle? Und welche Konsequenzen sollte ein solches Ereignis für Betreiber und Nutzer haben?
- Kasse 1, bitte: Kann der EU-Plan für eine Digitalsteuer funktionieren? Das EU-Parlament fordert eine Milliardenabgabe für große Technologiekonzerne. Eine eigene Digitalsteuer auf EU-Ebene soll Big Tech stärker zur Finanzierung des Gemeinwesens heranziehen. Ist ein solches Modell überhaupt umsetzbar – und würde es die richtigen Unternehmen treffen? Wie reagieren die USA auf europäische Digitalsteuerpläne? Und wäre eine EU-weite Regelung besser als die bisher uneinheitlichen nationalen Ansätze?
- Comeback des Brotkastens: Braucht die Welt einen neuen Commodore 64C? Jahrzehnte nach seinem ursprünglichen Erscheinen soll der Commodore 64C in einer modernisierten, schlankeren Version zurückkehren. Was steckt hinter dem Neuauflageprojekt – Nostalgie, Spielerei oder mehr? Für wen ist so ein Gerät heute überhaupt gedacht? Und was sagt der anhaltende Retro-Computing-Boom über unsere Beziehung zur Technikgeschichte aus?
Außerdem wieder mit dabei: ein Nerd-Geburtstag, das WTF der Woche und knifflige Quizfragen.
Jeden Donnerstag ab 17 Uhr live
Fragen an die Moderatoren und Gäste können während der Sendung im YouTube-Chat und in unserem Twitch-Kanal (twitch.tv/heiseonline) sowie vorab per E-Mail und im heise-Forum gestellt werden. Die Redaktion freut sich bereits auf zahlreiche Zuschauer und auf reges Feedback.
Weiterlesen nach der Anzeige
Die #heiseshow wird jeden Donnerstag um 17 Uhr live auf heise online gestreamt. Nach der Live-Übertragung ist die Sendung zum Nachschauen und -hören auf YouTube und als Podcast verfügbar:
(mki)
Künstliche Intelligenz
Anthropic erhöht Claude-Nutzung für KI-Abonnenten durch Kooperation mit SpaceX
Anthropic ist eine Partnerschaft mit SpaceX eingegangen und hat sich dabei einen Großteil der KI-Rechenkapazitäten in dessen großen Supercomputer Colossus gesichert. Gleichzeitig und vielleicht auch deshalb erhöhte das KI-Unternehmen die Nutzungslimits für Abonnenten seiner KI-Modelle dramatisch. Anwender von Claude Code bekommen deutlich mehr Nutzungszeit, und das bisherige Limit in Spitzenzeiten wird aufgehoben. Zudem werden die API-Grenzen für Token von Claude Opus deutlich angehoben.
Weiterlesen nach der Anzeige
Der Grund dürfte im Zukauf neuer Rechenkapazitäten liegen. Bei seiner Fertigstellung im Herbst 2024 galt Colossus als womöglich schnellster Supercomputer der Welt und wurde zunächst für das Training von Grok, dem KI-Modell von xAI, genutzt. Doch jetzt schreibt Anthropic, dass sich die KI-Firma „die gesamte Rechenkapazität“ dieses Rechenzentrums gesichert hat. Das läuft demnach auf eine Rechenleistung von 300 Megawatt pro Monat hinaus, basierend auf mehr als 220.000 Nvidia-GPUs.
Token- und Nutzungslimits deutlich erhöht
Die zusätzliche Rechenkapazität soll Abonnenten von Claude Pro und Max zugutekommen. Deshalb verdoppelt Anthropic nach eigenen Angaben die bisherige Tarifbegrenzung von fünf Stunden für Pro-, Max-, Team- und Enterprise-Abos von Claude Code. Pro- und Max-Abonnenten dieses KI-Agenten für Programmieraufgaben werden zudem von der Begrenzung in Spitzenzeiten befreit. Diese Upgrades sind ab sofort nutzbar.
Für Claude Opus, das Mitte April in der Version 4.7 freigegeben wurde und Anweisungen substanziell besser befolgen soll, wurden die Token-Limits bei der Nutzung per API auch ab sofort dramatisch erhöht. In der niedrigsten Stufe (Tier 1) wurden die Input-Token mehr als verzehnfacht (von 30.000 auf 500.000 pro Minute) und die Output-Token exakt verzehnfacht (von 8000 auf 80.000 pro Minute). In der höchsten Stufe (Tier 4) sind es nun 10 statt 2 Millionen Input-Token pro Minute und 800.000 statt 400.000 Output-Token pro Minute.
Anthropic-Interesse an orbitalen Rechenzentren
Weiterlesen nach der Anzeige
Anthropic erwägt zukünftig auch die Nutzung von Rechenzentren im Weltall für die eigenen KI-Modelle. „Wir haben außerdem unser Interesse an einer Partnerschaft mit SpaceX zur Entwicklung einer orbitalen KI-Rechenkapazität von mehreren Gigawatt bekundet“, heißt es seitens der KI-Firma. Einen Zeitplan gibt es bislang nicht, aber bei der Übernahme von xAI samt Grok und X durch SpaceX im Februar 2026 hatte Konzernchef Elon Musk erklärt, dass der Erdorbit aufgrund der Sonnenenergie schon in wenigen Jahren der günstigste Ort für KI-Rechenzentren sein werde.
Lesen Sie auch
(fds)
Künstliche Intelligenz
Souveräne KI aus Deutschland | heise online
STACKIT, der Cloud-Anbieter der Schwarz Gruppe, und das Kölner KI-Unternehmen neuland.ai wollen gemeinsam eine durchgängig in Deutschland betriebene KI-Architektur etablieren. Dazu kombinieren sie die Cloud-Infrastruktur von STACKIT mit dem neuland.ai HUB, einer KI-Management- und Orchestrierungsplattform. Kunden können darüber verschiedene KI-Modelle über einheitliche Schnittstellen ansprechen, darunter Llama, Mistral, Qwen und große Open-Source-Modelle mit bis zu 120 Milliarden Parametern.
Weiterlesen nach der Anzeige
Die KI-Modelle laufen dabei wahlweise „on prem“ auf der Hardware des Nutzers, in der souveränen Cloud von STACKIT auf Rechenzentren in Deutschland oder – falls gewünscht – auch bei US-Hyperscalern, ohne dass das auf Anwendungsseite einen Unterschied macht. neuland.ai verspricht, dass Kundendaten Ende-zu-Ende-verschlüsselt gespeichert sind und das Unternehmen keinen Zugriff darauf hat, sodass sie nicht für Modelltraining verwendet werden können. Der neuland.ai HUB soll zudem im STACKIT Marketplace verfügbar werden.
Das gemeinsame Angebot richtet sich an Unternehmen, die ihre Daten nicht an US-amerikanische Unternehmen wie OpenAI oder Anthropic schicken wollen oder dürfen. Unter dem US Cloud Act können US-amerikanische Behörden auf bei US-Unternehmen gespeicherte Daten zugreifen, selbst wenn diese Daten in Rechenzentren in Europa liegen. Mit dem KI-Angebot von neuland.ai und STACKIT sollen deutsche Unternehmen die regulatorischen Anforderungen aus NIS2, DORA und dem EU AI Act erfüllen können.
(odi)
-
Künstliche Intelligenzvor 3 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 3 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 3 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 3 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 2 MonatenBlade‑Battery 2.0 und Flash-Charger: BYD beschleunigt Laden weiter
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Der beste Luftgütesensor im Test – CO₂, Schadstoffe & Schimmel im Blick
