Künstliche Intelligenz
Warum humanoide Roboter ihre eigenen Sicherheitsregeln brauchen
Im vergangenen Jahr wurde erstmals ein humanoider Lagerroboter namens Digit für die Handhabung von Kartons bei der US-Firma Spanx eingesetzt. Digit kann Pakete mit einem Gewicht von bis zu 16 Kilogramm zwischen Rollwagen und Förderbändern heben und so seinen menschlichen Kollegen einige der schweren Aufgaben abnehmen. Er arbeitet in einem begrenzten, definierten Bereich, der durch Wände oder Lasersperren von den menschlichen Mitarbeitern getrennt ist.
Und das ist auch notwendig: Digit steht zwar normalerweise sicher auf seinen Roboterbeinen, es kommt aber auch vor, dass er stürzt. Dann funktioniert die charakteristische Rückwärtsbeugung seiner mechanischen Knie nicht. Auf einer Messe im März schien er beispielsweise über einen längeren Zeitraum geschickt Kartons zu transportieren. Dann brach der Humanoide plötzlich zusammen und landete auf dem Betonboden. Alles, was er gerade trug, fiel natürlich ebenfalls herunter.
Verletzungsgefahr durch humanoide Roboter
Das Risiko, dass solche Fehlfunktionen in der Nähe von Menschen auftreten, ist also durchaus vorhanden – und es kann gefährlich werden. Niemand möchte unter einer 1,80 Meter großen und 65 Kilogramm schweren Maschine begraben werden. Dass ein Roboterarm versehentlich auf eine empfindliche Körperstelle trifft, wäre ebenfalls sehr unangenehm. „Die Kehle ist ein gutes Beispiel“, sagt Pras Velagapudi, Chief Technology Officer von Agility Robotics, dem Hersteller von Digit. „Wenn ein Roboter die treffen würde, selbst mit dem Bruchteil der Kraft, die er zum Tragen einer 22 Kilogramm schweren Tragetasche benötigt, könnte er eine Person schwer verletzen.“
Physische Stabilität humanoider Roboter – also die Fähigkeit, nicht umzukippen – gehört dementsprechend zu den wichtigsten Sicherheitsanliegen eines Projekts, das neue Standards für humanoide Roboter erarbeitet. Die Humanoid Study Group der Ingenieursorganisation IEEE argumentiert, dass sich Humanoide in wesentlichen Punkten von anderen Automaten wie Industrierobotern oder bestehenden mobilen Robotiksystemen unterscheiden. Sie machen daher neue Standards notwendig, um die Sicherheit von Bedienpersonal, Endnutzern und der Öffentlichkeit zu gewährleisten.
Die Gruppe hat ihre Ergebnisse gegenüber der US-Ausgabe von MIT Technology Review erstmals öffentlich vorgestellt und plant, ihren vollständigen Bericht im Laufe des Sommers zu veröffentlichen. Darin werden verschiedene Herausforderungen identifiziert, darunter physische und psychosoziale Risiken sowie Fragen wie Datenschutz und Sicherheit, die den Experten zufolge von Normungsorganisationen angegangen werden müssen. Und zwar bevor Humanoide in mehr industriellen Szenarien eingesetzt werden, als das bisher geschieht.
Humanoide Roboter müssen „dynamisch stabil“ sein
Die Systeme machen derzeit erste vorsichtige Schritte in Richtung Produktiveinsatz. Ultimatives Ziel ist eine enge Zusammenarbeit mit Menschen. Ein Grund dafür, Roboter überhaupt menschenähnlich zu gestalten, ist, dass sie sich so leichter in den von uns geschaffenen Umgebungen zurechtfinden. Das bedeutet, dass sie in der Lage sein müssen, einen Raum mit Menschen zu teilen und nicht nur hinter Schutzbarrieren zu bleiben. Aber zuerst muss sichergestellt werden, dass sie keine Gefahr darstellen.
Ein charakteristisches Merkmal von Humanoiden ist, dass sie „dynamisch stabil“ sein müssen, sagt Aaron Prather, Direktor bei der Normungsorganisation ASTM International und Vorsitzender der IEEE-Expertengruppe. Das bedeutet, dass sie Energie benötigen, um aufrecht bleiben zu können. Sie üben Kraft über ihre Beine (oder andere Gliedmaßen) aus, um das Gleichgewicht zu halten. „In der traditionellen Robotik drückt man bei einem Problem den kleinen roten Knopf, die Stromversorgung wird unterbrochen und der Roboter bleibt stehen“, sagt Prather. „Bei einem Humanoiden geht das nicht wirklich.“ Wenn man das tut, fällt der Roboter wahrscheinlich um – was ein noch größeres Risiko darstellen kann, als ihn weiterlaufen zu lassen.
Aber wie könnte eine Sicherheitsfunktion aussehen, die keine Notbremsung ist? Agility Robotics führt in der neuesten Version von Digit einige neue Funktionen ein, um das Problem des Umkippens zu beheben. Anstatt sofort die Stromversorgung zu unterbrechen (und wahrscheinlich umzufallen), könnte der Humanoide beispielsweise sanft abbremsen, wenn eine Person zu nahe kommt. „Der Roboter muss eine bestimmte Zeit bekommen, um sich in einen sicheren Zustand zu versetzen“, sagt Velagapudi. Vielleicht legt er alles, was er gerade trägt, zuerst ab und geht auf Hände und Knie, bevor er sich ausschaltet.
Verschiedene Roboter könnten das Problem auf unterschiedliche Weise lösen. „Wir wollen nur das Ziel standardisieren, nicht den Weg dorthin“, sagt Federico Vicentini, Leiter der Produktsicherheit bei Boston Dynamics. Vicentini leitet eine Arbeitsgruppe der Internationalen Organisation für Normung (ISO), die ebenfalls einen neuen Standard für die Sicherheit von Industrierobotern entwickelt, die zur Aufrechterhaltung ihrer Stabilität aktiv gesteuert werden müssen (auch Experten von Agility Robotics sind beteiligt). Die Idee ist, klare Sicherheitsanforderungen festzulegen, ohne die Innovationsfreiheit der Roboter- und Komponentenhersteller einzuschränken: „Wie das Problem gelöst wird, bleibt dem Konstrukteur überlassen.“ Der Versuch, universelle Standards festzulegen und gleichzeitig die Gestaltungsfreiheit zu wahren, kann jedoch Herausforderungen mit sich bringen. Zunächst einmal: Wie definiert man überhaupt einen humanoiden Roboter? Muss er Beine haben? Arme? Einen Kopf?
„Eine unserer Empfehlungen lautet, den Begriff ‚Humanoid‘ vielleicht ganz fallen zu lassen“, sagt Prather. Seine Gruppe befürwortet ein Klassifizierungssystem für humanoide Roboter, das deren Fähigkeiten, Verhalten und Verwendungszweck berücksichtigt und nicht ihr Aussehen. Die ISO-Norm, an der Vicentini arbeitet, bezieht sich auf alle industriellen mobilen Roboter „mit aktiv gesteuerter Stabilität“. Dies würde sowohl für den vierbeinigen Spot von Boston Dynamics gelten als auch für den zweibeinigen humanoiden Atlas und könnte ebenso Roboter mit Rädern oder einer anderen Art von Mobilitätskomponente umfassen.
Wie spricht man mit einem Roboter?
Abgesehen von Fragen der physischen Sicherheit, stellen Humanoide auch eine Herausforderung für die Kommunikation dar. Wenn sie sich den Raum mit Menschen teilen sollen, müssen sie erkennen, wenn jemand ihren Weg kreuzt. Sie müssen ihre eigenen Absichten so kommunizieren, dass jeder verstehen kann, was sie gerade tun. Das ist ähnlich wie beim Auto mit Bremslicht und Blinker. Digit verfügt bereits über Lichter, die seinen Status und seine Fahrtrichtung anzeigen, sagt Velagapudi, aber es brauche noch bessere Anzeigen, wenn er kooperativ und letztlich kollaborativ mit Menschen zusammenarbeiten soll. „Wenn Digit vor Ihnen in einen Gang hineinläuft, möchten Sie davon nicht überrascht werden“, sagt er. Der Roboter könnte Sprachausgaben nutzen, aber Audio allein ist in einer lauten Industrieumgebung nicht praktikabel. Noch verwirrender könnte es werden, wenn sich mehrere Roboter im selben Raum befinden – welcher versucht gerade, unsere Aufmerksamkeit zu erregen?
Es gibt auch einen psychologischen Effekt, der Humanoide von anderen Robotertypen unterscheidet, sagt Prather. Wir vermenschlichen Roboter, die wie wir aussehen. Das ist ganz natürlich, was dazu führen kann, dass wir ihre Fähigkeiten überschätzen und frustriert sind, wenn sie diese Erwartungen nicht erfüllen. „Manchmal lassen wir in puncto Sicherheit nach oder die Erwartungen an das, was der Roboter leisten kann, sind im Vergleich zur Realität zu hoch“, sagt er. Diese Probleme sind besonders gravierend, wenn Roboter Aufgaben übernehmen sollen, die normalerweise menschliche Emotionen oder die Unterstützung schutzbedürftiger Menschen erfordern. Der IEEE-Bericht empfiehlt, dass die Standards Bewertungsmaßstäbe für die „emotionale Sicherheit“ und Richtlinien zur „Minderung von psychischem Stress oder Entfremdung“ enthalten sollten.
Um den Bericht zu erstellen, führte Greta Hilburn, Expertin für User-Centric Design an der US Defense Acquisition University, Umfragen unter einer Vielzahl von Nicht-Ingenieuren durch, um ein Gefühl für deren Erwartungen an humanoide Roboter zu bekommen. Die überwiegende Mehrheit der Befragten wünschte sich Roboter, die Gesichtsausdrücke haben, Mikroexpressionen lesen und zur Kommunikation Gesten, Sprache und Haptik einsetzen können. „Sie wollen also alles – etwas, das es noch nicht gibt“, sagt sie. Das richtige Design der Mensch-Roboter-Interaktion könnte entscheidend sein, wenn Humanoide aus industriellen Bereichen in andere Kontexte wie Krankenhäuser, Altenpflegeeinrichtungen oder Privathaushalte vordringen. Dies ist besonders wichtig für Roboter, die mit schutzbedürftigen Bevölkerungsgruppen kooperieren sollen, sagt Hilburn. Es könne großer Schaden entstehen, wenn ein Roboter falsch kommuniziert, insbesondere im Kontext mit Kindern oder älteren Menschen.
Die Empfehlungen der IEEE-Gruppe umfassen unter anderem Eingriffsmöglichkeiten für Benutzer, die Standardisierung einiger visueller und akustischer Signale und die Anpassung des Aussehens eines Roboters an seine Fähigkeiten, um die Benutzer nicht zu verwirren. Wenn ein Roboter menschlich aussieht, erwarten die Menschen inzwischen laut Prather, dass er in der Lage ist, eine Unterhaltung zu führen und eine gewisse emotionale Intelligenz zu zeigen. Wenn er hingegen nur grundlegende mechanische Aufgaben ausführen kann, könnte dies zu Frustration und Vertrauensverlust führen.
Ein Roboter ist keine Selbstbedienungskasse
„Denken Sie an Selbstbedienungskassen“, sagt er. „Niemand erwartet, dass sie mit Ihnen plaudern oder Ihnen beim Einkaufen helfen, denn sie sind eindeutig Maschinen. Aber wenn sie wie freundliche Mitarbeiter aussehen und dann nur wiederholen: ‚Bitte scannen Sie den nächsten Artikel‘, würden sich die Leute ärgern.“
Prather und Hilburn betonen beide die Notwendigkeit der Inklusivität und Anpassungsfähigkeit, wenn es um die Interaktion zwischen Mensch und Roboter geht. Kann ein Roboter mit gehörlosen oder blinden Menschen kommunizieren? Kann er sich darauf einstellen, etwas länger zu warten, wenn Menschen mehr Zeit für eine Antwort benötigen? Versteht er verschiedene Akzente?
Möglicherweise müssen auch unterschiedliche Standards für Roboter festgelegt werden, die in unterschiedlichen Umgebungen eingesetzt werden, sagt Prather. Ein Roboter, der in einer Fabrik neben Menschen arbeitet, die für die Interaktion mit ihm geschult sind, ist eine Sache. Aber ein Roboter, der im Haushalt helfen oder mit Kindern in einem Freizeitpark interagieren soll, ist etwas anderes. Mit einigen allgemeinen Grundregeln sollte die Öffentlichkeit jedoch in der Lage sein, zu verstehen, was Roboter tun, wo immer sie ihnen begegnen. Es gehe nicht darum, Vorschriften zu machen oder Innovationen zu bremsen, sagt er, sondern darum, einige grundlegende Richtlinien festzulegen, damit Hersteller, Regulierungsbehörden und Endnutzer alle wissen, was sie zu erwarten haben: „Wir sagen, dass Mindestanforderungen erfüllt sein müssen – und wir sind uns alle einig, dass alles darunter schlecht ist.“
Der IEEE-Bericht soll eine Aufforderung zum Handeln für Normungsorganisationen wie Vicentinis ISO-Gruppe sein, um mit der Festlegung dieser Mindestanforderungen zu beginnen. So jung die Branche auch ist: Standards helfen Herstellern, Vertrauen in ihre Produkte aufzubauen und sie leichter auf internationalen Märkten zu verkaufen. Und Regulierungsbehörden stützen sich oft auf sie, wenn sie ihre eigenen Vorschriften erlassen. Angesichts der Vielfalt der Akteure in diesem Bereich wird es aber nicht einfach, Regeln zu schaffen, auf die sich alle einigen können, sagt Vicentini. „Wenn alle gleichermaßen unzufrieden sind, wäre das aber schon gut genug“.
Dieser Beitrag ist zuerst bei t3n.de erschienen.
(jle)
Künstliche Intelligenz
Kölner Urteil: Meta darf auch sensible Daten fürs KI-Training verwenden
Ende Mai enttäuschte das Oberlandesgericht (OLG) Köln Experten mit seiner Ansage, dass Meta die Daten aller volljährigen europäischen Nutzer von Facebook und Instagram für das Training eigener KI-Anwendungen wie dem großen Sprachmodell LLaMA nutzen darf. Die Bundesdatenschutzbeauftragte Louisa Specht-Riemenschneider etwa kritisierte die Eilentscheidung als „unfassbar“. Weiter verärgern dürfte die Hüter der Privatsphäre nun, dass Meta und andere Betreiber sozialer Netzwerke selbst sensible Daten wie Gesundheitsinformationen oder Angaben zu politischen, religiösen oder sexuellen Einstellungen für legitime Zwecke wie das Anlernen von KI-Systemen verwenden dürfen.
Die Datenschutz-Grundverordnung (DSGVO) enthält prinzipiell in Artikel 9 ein Verbot der Verarbeitung sensibler personenbezogener Informationen. Doch dieses wird von einem langen Ausnahmekatalog eingeschränkt. Demnach greift die Untersagung etwa nicht, wenn die betroffene Person heikle Daten selbst „offensichtlich öffentlich gemacht“ hat.
Laut der jetzt veröffentlichten Urteilsbegründung sieht das OLG diese Vorgabe erfüllt, wenn ein Nutzer einschlägige Informationen über sich in sein öffentliches Nutzerkonto eines Social-Media-Dienstes einstellt oder in einem öffentlichen Posting teilt (Az.: 15 UKl 2/25). Dem durchschnittlichen User müsse in einem solchen Fall bewusst sein, „dass diese Daten von jedermann zur Kenntnis genommen werden können und sogar mittels Suchmaschinen auffindbar sind“.
Auch Daten Dritter sind kein Problem
Sogar wenn sensible Informationen Dritter betroffen sind, unterliegen diese laut den Kölner Richtern nicht dem Verbot nach Artikel 19 DSGVO. Sie gehen davon aus, dass die Untersagung im konkreten Fall einer „Aktivierung“ durch einen Antrag des betroffenen Dritten auf Herausnahme seiner Daten aus dem veröffentlichten Beitrag beziehungsweise aus dem Trainingsdatensatz bedürfte. Ganz sicher ist sich der 15. Zivilsenat hier aber nicht. Er deutet an, diese Frage dem Europäischen Gerichtshof (EuGH) vorlegen zu wollen, sollte es zu einem Hauptsacheverfahren kommen.
Das OLG begründet seine Ansicht damit, dass der europäische Gesetzgeber in der KI-Verordnung die Notwendigkeit des Trainings großer generativer KI-Modelle mit „riesigen Mengen an Text, Bildern, Videos und anderen Daten“ ausdrücklich anerkannt habe. Dabei sei seit Längerem bekannt, dass Firmen Webscraping zum Gewinnen von KI-Trainingsdaten nutzten. Das berge stets die Gefahr der – unbeabsichtigten und nicht zielgerichteten – Verarbeitung sensibler Daten. Mit dem AI Act verfolge die Politik auch das Ziel, eine „Vorreiterrolle“ der EU bei generativer Künstlicher Intelligenz zu erlangen.
Deidentifizierung statt Anonymisierung
Der von der Verbraucherzentrale NRW verklagte Social-Media-Betreiber hat laut dem Urteil auch glaubhaft gemacht, „Maßnahmen zu Deidentifizierung der Datensätze vorzunehmen“. Vollständige Namen, E-Mail-Adressen, Telefonnummern, nationale Identifikationsnummern, Benutzerkennungen, Kredit-/Debitkartennummern, Bankkonten, Fahrzeugkennzeichen, IP-Adressen und Postanschriften würden nur in unstrukturierter Form und „tokenisiert“ zusammengestellt. Damit sei zwar keine Anonymisierung verbunden. Insbesondere würden die Gesichter der auf Fotos erkennbaren Personen nicht verborgen. Trotzdem steht für den Senat außer Zweifel, dass dieses Vorgehen „insgesamt das entsprechende Risiko mindern wird“.
Valentino Halim, Rechtsanwalt bei der Wirtschaftskanzlei Oppenhoff, begrüßte gegenüber heise online die „unternehmensfreundliche und KI-Technologien ‚ermöglichende‘ Entscheidung“. Die Begründung des Gerichts sei in Teilen durchaus überraschend. Es bleibe abzuwarten, ob der EuGH „die enge Interpretation des Verarbeitungsverbots für sensitive Daten in einem etwaigen Vorlageverfahren mittragen“ würde. Daten- und Verbraucherschützer mahnen Nutzer, von ihrem Widerspruchsrecht Gebrauch zu machen.
(olb)
Künstliche Intelligenz
Milliardenprojekt einer KI-Gigafabrik deutscher Tech-Firmen vorerst gescheitert
Die EU winkt mit finanzieller Unterstützung für KI-Großprojekte in Europa und erwartet entsprechende Bewerbungen bis zum heutigen Freitag um 17 Uhr. Die Idee fünf deutscher Tech-Unternehmen war ein gemeinsames KI-Rechenzentrum in Deutschland. Doch die Deutsche Telekom, Ionos, SAP, Siemens und die Schwarz-Gruppe haben sich nicht auf einen gemeinsamen Vorschlag einigen können, heißt es jetzt. Stattdessen werden einige der beteiligten Firmen eigene Initiativen einreichen.
Die EU plant, neue KI-Gigafactories in Europa mit 20 Milliarden Euro zu unterstützen, um gegenüber anderen KI-Standorten auf der Welt aufzuholen, etwa den Vereinigten Staaten oder China. Daraufhin wollten die genannten Tech-Unternehmen eine gemeinsame Initiative entwickeln, um als deutsches Konsortium ein KI-Rechenzentrum zu bauen. Denn die EU stellt öffentliche Förderungen von bis zu 35 Prozent in Aussicht für KI-Gigafabriken mit jeweils etwa 100.000 KI-Chips der neuesten Generation, etwa viermal mehr als in aktuellen KI-Fabriken wie dem Supercomputer „Jupiter“ in Jülich.
Keine Einigung auf Führungsrolle und Standort
Doch dazu wird es vorerst nicht kommen, denn die beteiligten Unternehmen haben sich nicht auf einen gemeinsamen Vorschlag einigen können, berichtet das Handelsblatt unter Berufung auf Angaben aus den beteiligten Unternehmen und Branchenkreisen. Nun wird es demnach konkurrierende Initiativen von mindestens drei der genannten Firmen geben, von der Deutschen Telekom mit ihrer Tochterfirma T-Systems, der Schwarz-Gruppe mit dessen IT-Gruppe Schwarz Digits sowie von Cloud-Anbieter Ionos. Die letztgenannte Firma plant ein eigenes Konsortium mit Unterstützung des Landes Bayern.
Einer der Gründe für das Scheitern eines gemeinsamen Vorschlags der fünf Großunternehmen war wohl der Führungsanspruch einiger der Beteiligten, namentlich der Telekom und auch der Schwarz-Gruppe. Der börsennotierte Telekommunikationskonzern und der inhabergeführte Handelsriese mit ihren unterschiedlichen Unternehmenskulturen passen einfach nicht zusammen, heißt es etwa.
Zudem war der Standort einer KI-Gigafabrik dieses Ausmaßes umstritten. So habe die Schwarz-Gruppe auf den Bau eines Rechenzentrums in Lübbenau verwiesen, das sich für dieses Projekt eignen würde. Auch die Politik hatte sich bereits eingeschaltet. Die Ministerpräsidenten Bayerns und Nordrhein-Westfalens haben ihre Länder als Standort dieses Rechenzentrums vorgeschlagen, berichten Insider. Allerdings gilt Bayern als nicht ideal für solche Projekte aufgrund des hohen Industriestrompreises und struktureller Engpässe im Stromnetz.
Geschäftsmodell ebenfalls fraglich
Weiterhin offen ist auch das Geschäftsmodell einer solchen KI-Gigafabrik. Die Investitionen dürften laut EU mindestens drei bis fünf Milliarden betragen, wobei die Branche von mindestens sechs Milliarden Euro ausgeht. Deshalb sei es wichtig, „passende Dienstleistungen und KI-Lösungen zu wettbewerbsfähigen Preisen anzubieten, um am Markt erfolgreich zu sein“, sagt Christian Temath vom Fraunhofer-Institut IAIS. Vorgeschlagen wird auch ein phasenweiser Aufbau mit zunächst weniger als 100.000 GPUs, um die Initialkosten zu begrenzen. Ansonsten wären die Systeme in wenigen Jahren auch bereits veraltet.
Die Deutsche Telekom ist parallel zum Projekt der KI-Gigafabrik bereits auf Nvidia zugegangen. Erst vor wenigen Tagen hat die deutsche Bundesregierung verkündet, dass sich Nvidia und Telekom an einer Gigafabrik beteiligen, da Deutschland bei KI führen will. Dieses Projekt soll aber parallel zu den von der EU vorgesehenen KI-Gigafabriken laufen, denn Nvidia-Chef Jensen Huang sagte zunächst lediglich 10.000 GPUs zu, sodass das entsprechende Rechenzentrum kleiner ausfallen dürfte.
Lesen Sie auch
(fds)
Künstliche Intelligenz
Vor dem zehnten Testflug: Starship explodiert am Boden
Bei einem Triebwerkstest in Texas ist die Oberstufe des Starships von SpaceX vor dem zehnten Testflug explodiert. Die „schwere Anomalie“ ereignete sich gegen 23 Uhr Ortszeit, bestätigte SpaceX über seinen Account auf dem sozialen Netzwerk X. Mitarbeiter seien dabei glücklicherweise nicht verletzt worden, da während des Tests eine Sicherheitszone eingerichtet war. Derzeit sei man mit den zuständigen Behörden dabei, die Unfallstelle abzusichern. Eine Gefahr für die Umgebung habe nicht bestanden.
Aufnahmen von NASASpaceflight.com zeigen dramatische Bilder der Explosion: Eine massive Feuerkugel schoss in den dunklen Himmel über Texas, nachdem die 52 Meter hohe Oberstufe auf dem Teststand in Flammen aufgegangen war. Der Vorfall ereignete sich nach Angaben von SpaceX kurz vor einem geplanten Static-Fire-Test.
Weiterer Rückschlag für das Starship-Programm
Der Vorfall stellt einen weiteren Rückschlag für das Starship-Programm dar. Bei Static-Fire-Tests werden die Triebwerke kurzzeitig gezündet, während das Fahrzeug am Boden verankert bleibt – eine Standardprozedur vor jedem Start. Für die betroffene Oberstufe war bereits ein erfolgreicher Static-Fire-Test mit einem einzelnen Raptor-Triebwerk vorgenommen worden. Der gescheiterte Test sollte möglicherweise alle sechs Triebwerke der Oberstufe zünden.
Die Explosion reiht sich in eine Serie von Problemen mit Starship-Oberstufen ein. Bei den jüngsten drei Testflügen im Januar, März und Mai dieses Jahres zerbrach die Oberstufe jeweils während der Mission. Während bei den Flügen 7 und 8 die „rapid unscheduled disassembly“ (schnelle außerplanmäßige Demontage) – SpaceX-Jargon für Explosion – bereits weniger als zehn Minuten nach dem Start erfolgte, flog die Oberstufe bei Flug 9 deutlich weiter. Erst nach 46 Minuten verlor SpaceX den Kontakt, die Trümmer liegen vermutlich auf dem Grund des Indischen Ozeans.
Super Heavy deutlich zuverlässiger
Deutlich besser ist hingegen die Super-Heavy-Erststufe mit ihren 33 Raptor-Triebwerken unterwegs. Bei den Flügen 7 und 8 kehrte der Booster erfolgreich zur Starbase zurück und wurde von den „Chopstick“-Armen des Startturms gefangen – ein spektakuläres Manöver, das der Wiederverwendbarkeit dient.
Für das Starship-System, das aus der wiederverwendbaren Super-Heavy-Erststufe und der 171-Fuß-hohen Starship-Oberstufe besteht, hat SpaceX ambitionierte Pläne. Das System soll nicht nur die Marsbesiedelung ermöglichen, sondern auch andere Weltraummissionen unterstützen.
Die US-Luftfahrtbehörde FAA untersucht derzeit den Flug-9-Vorfall. Ein offizieller Starttermin für Starship-Flug 10 war daher noch nicht bekannt gegeben worden – nach der Explosion vom Mittwoch muss die Zeitplanung ohnehin überarbeitet werden. Eigentlich wollte SpaceX-Gründer Elon Musk die Testfrequenz erhöhen, um schneller Fortschritte zu machen. SpaceX entwickelt Starship als das größte und leistungsstärkste Raketensystem der Welt.
(mki)
-
Online Marketing & SEOvor 1 Woche
Aus Marketing, Medien, Agenturen & Tech: Diese 40 klugen Köpfe unter 40 müssen Sie kennen
-
Social Mediavor 5 Tagen
LinkedIn Feature-Update 2025: Aktuelle Neuigkeiten
-
Digital Business & Startupsvor 1 Woche
Von Peter Thiel finanziertes Krypto-Startup Bullish will an die Börse
-
Online Marketing & SEOvor 1 Woche
Influencer Marketing: Warum Influencer Vertrauen verlieren und klassische Medien gewinnen
-
UX/UI & Webdesignvor 6 Tagen
Wie gelingt eine einwandfreie Zusammenarbeit?
-
Künstliche Intelligenzvor 1 Woche
Amazon soll Werbung bei Prime Video verdoppelt haben
-
Apps & Mobile Entwicklungvor 5 Tagen
So gut ist Dune: Awakening: Dune sehen und durch Sandwürmer sterben
-
UX/UI & Webdesignvor 1 Woche
Kunst & KI begleitet die Münchner Standort-Eröffnung › PAGE online