Connect with us

Künstliche Intelligenz

Sechs Milliarden Tonnen pro Sekunde: Rekordwachstum eines Planeten beobachtet


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Eine internationale Forschungsgruppe hat mit dem Very Large Telescope (VLT) der Europäischen Südsternwarte (ESO) einen Planeten ohne Stern entdeckt, der mit einer Geschwindigkeit wächst, wie man das noch bei keinem anderen beobachtet hat. Insgesamt sechs Milliarden Tonnen an Gas und Staub verschlingt der Himmelskörper pro Sekunde, das entspricht dem Doppelten des Starnberger Sees. Auch sonst verhält sich der 620 Lichtjahre von uns entfernte Exoplanet mit der Bezeichnung Cha 1107-7626 gleich in unterschiedlicher Hinsicht wie ein Stern, was ihn für die Forschung besonders interessant macht. Das Team weist darauf hin, dass die Entstehung solcher „Einzelgänger-Planeten“ weiterhin ungeklärt ist.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externes Video (TargetVideo GmbH) geladen.

Animation des Wachstumsschubs von Cha 1107-7626


(Quelle: ESO/L. Calçada, M. Kornmesser)

Laut der ESO wird der sternlose Planet von einer Scheibe aus Staub und Gas umgeben, daraus fällt laufend Material auf den Himmelskörper. Dieser Prozess wird Akkretion genannt und ist beispielsweise von Schwarzen Löchern bekannt. Bei Cha 1107-7626 läuft dieser Prozess nicht gleichmäßig ab, im August hat der Planet achtmal schneller Material verschlungen als nur Monate vorher, hat die Forschungsgruppe herausgefunden. Das sei das stärkste Akkretionsereignis, das jemals bei einem Objekt mit einer planetaren Masse beobachtet wurde, erklärt Studienleiter Víctor Almendros-Abad vom Astronomischen Observatorium von Palermo. Insgesamt ist der freischwebende Planet demnach etwa fünf- bis zehnmal so groß wie der Jupiter.

Die Entdeckung des immensen Wachstums von Cha 1107-7626 verwische die Grenze zwischen Sternen und Planeten, meint die Astronomin Belinda Damian, die daran mitgearbeitet hat. Ermittelt hat ihr Team auch, dass magnetische Aktivität des einsamen Planeten eine Rolle bei dessen Wachstum spielt. Dieses Phänomen habe man bislang nur bei Sternen beobachtet. Auch die chemische Zusammensetzung der Scheibe um den Planeten habe sich im Laufe der Beobachtung verändert, Wasserstoff war nur während des Wachstumsschubs nachweisbar. Das sei ebenfalls ein Vorgang, den man bislang nur von Sternen kann.

„Die Vorstellung, dass ein Objekt planetarer Masse sich wie ein Stern verhalten kann, ist schlicht überwältigend“, ordnet die ESO-Astronomin Amelia Bayo die Bedeutung des Funds ein. Der sei eine Einladung zu der Fragestellung, wie fremde Welten in ihren frühesten Entwicklungsetappen aussehen. Während sich viele Menschen andere Planeten als ruhige und stabile Welten vorstellen, zeige Cha 1107-7626, „dass frei im All schwebende Himmelskörper planetarer Masse durchaus aufregende Orte sein können“, ergänzt Almendros-Abad. Die Forschungsarbeit haben er und sein Team jetzt in den Astrophysical Journal Letters vorgestellt.


(mho)



Source link

Künstliche Intelligenz

Aus Softwarefehlern lernen – Teil 2: Warum explodierte Ariane 5 nach dem Start?


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Zahlen wirken in Programmen so selbstverständlich, dass viele Entwicklerinnen und Entwickler sie intuitiv wie in der Mathematik behandeln: Addition, Subtraktion, Multiplikation – was soll da schon schiefgehen? In der Praxis lauern hier jedoch zahlreiche Fallstricke. Speicherbegrenzungen, Rundungsfehler, Konvertierungen zwischen Datentypen und die unterschiedliche Behandlung von Ganzzahlen und Gleitkommazahlen führen immer wieder zu katastrophalen Fehlern.


Golo Roden

Golo Roden

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.

Die Teile der Serie „Aus Softwarefehlern lernen“:

Ein ikonisches Beispiel dafür ist der Fehlschlag des ersten Ariane-5-Starts im Jahr 1996. Nur 37 Sekunden nach dem Start verließ die Rakete ihre Flugbahn, begann sich unkontrolliert zu drehen und zerstörte sich schließlich selbst. Die Ursache war nicht ein Materialproblem oder ein Defekt an der Rakete, sondern ein Softwarefehler in der Trägheitsnavigationssoftware.

Konkret versuchte das System, einen 64-Bit-Gleitkommawert in einen 16-Bit-Integer zu konvertieren. Der Wert war für die Ariane 5 jedoch zu groß und es kam zu einem Überlauf, der dann eine Ausnahme auslöste. Die Folge: Das gesamte Leitsystem schaltete sich ab. Da die Rakete zwei identische Systeme hatte, die synchron liefen, wiederholte sich der Fehler sofort auf dem Backup – die Redundanz konnte also nicht helfen.

Das wirft die Frage auf: Warum passiert so etwas in einem milliardenschweren Raumfahrtprogramm? Die Antwort ist tatsächlich lehrreich: Die Software der Ariane 5 basierte in Teilen auf dem Vorgängermodell Ariane 4. Dort waren die Wertebereiche kleiner, und ein 16-Bit-Integer war völlig ausreichend. Bei der Ariane 5 lagen die Beschleunigungen jedoch in einem anderen Bereich. Die alten Annahmen passten nicht mehr, aber die Entwickler haben die entsprechenden Codepfade nie überprüft – schließlich hatte die Software ja bereits jahrelang zuverlässig funktioniert.

Dieses Muster findet sich auch heute immer wieder in unzähligen Projekten:

  • Entwicklerinnen und Entwickler übernehmen alte Codepfade, ohne ihre Gültigkeit für neue Einsatzbedingungen zu prüfen.
  • Implizite Typumwandlungen oder fehlende Bereichsprüfungen führen im Grenzfall zu Überläufen.
  • Fehlerbehandlung fehlt oder ist zu global – wie im Fall der Ariane, bei der eine einzelne Ausnahme zum Totalausfall führte.

In der Praxis begegnen Developer diesem Risiko immer wieder – auch in völlig alltäglichen Projekten. Typische Symptome sind:

  • Plötzliche Sprünge oder negative Werte in Zählern,
  • NaN-Ergebnisse oder Inf-Werte bei Gleitkommarechnungen und
  • stille Rundungsfehler, die sich erst bei großen Zahlen oder nach langer Laufzeit bemerkbar machen.

Das Schlimmste daran ist, dass Gegenmaßnahmen durchaus bekannt sind, häufig aber aus Zeit- und Kostengründen vernachlässigt werden:

  1. Explizite Bereichsanalysen: Vor allem bei Übernahmen prüfen, ob alle Wertebereiche noch passen.
  2. Saturating Arithmetic oder Clamping: Wenn ein Wert den zulässigen Bereich überschreitet, diesen auf das Maximum setzen oder den Vorgang abbrechen, statt unbemerkt überlaufen zu lassen.
  3. Fail fast“ bei kritischen Konvertierungen: Lieber ein gezielter Fehler, der sich früh zeigt, als eine stille Datenkorruption.
  4. Telemetrie und Monitoring: Wertebereiche im Betrieb überwachen und auffällige Ausreißer melden.

Interessant dabei ist auch die psychologische Komponente: Viele Teams verlassen sich auf ihre Testabdeckung und übersehen, dass Testdaten oft zu nett sind. Grenzwerte, Extrembereiche und ungewöhnliche Kombinationen fehlen häufig. Erst Property-based Testing, Fuzzing oder gezielte Grenzwerttests decken die kritischen Fälle auf.

Der Ariane-5-Vorfall hat gezeigt, dass selbst in hochkritischen Projekten mit gefühlt unendlichem Budget ein scheinbar banales Zahlenproblem zu einer Milliardenkatastrophe führen kann. Für den Alltag in der Unternehmens-IT heißt das: Jede Zahl ist ein Modell, und Modelle haben Grenzen. Wer diese Grenzen kennt und absichert, verhindert nicht nur Abstürze, sondern spart sich auch stundenlange Fehlersuche bei subtilen Rundungsfehlern.

Diese Artikelserie stellt neun typische Fehlerklassen vor, die in der Praxis immer wieder auftauchen – unabhängig von Branche oder Technologie. In jeder Kategorie wird die Serie ein konkretes Beispiel vorstellen, dessen Ursachen analysieren und daraus ableiten, was Softwareentwicklerinnen und Softwareentwickler langfristig lernen können.

Im nächsten Teil lesen Sie: Concurrency und Scheduling: Wenn sich Prozesse gegenseitig blockieren.


(who)



Source link

Weiterlesen

Künstliche Intelligenz

Waveguides erklärt: So funktioniert das Display in Smart Glasses und AR-Brillen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Waveguides oder Wellenleiter, wie man sie auf Deutsch nennt, kann man sich als Bahnen vorstellen, die Licht, Radiowellen oder Schall gezielt von einem Ort zum nächsten führen. Die Waveguide-Displays in Smart Glasses und AR-Brillen sind eine spezielle Form von Waveguides, die für die präzise Führung von Licht entwickelt wurden. Daher spricht man in diesem Zusammenhang auch von optischen Waveguides.

Optische Waveguides sind eine weitverbreitete Form von Wellenleitern: In Gestalt von Glasfasernetzen etwa bilden sie die Grundlage für das Internet und die moderne Telekommunikation. Während Glasfasern kabelartig und biegsam sind und moduliertes Infrarotlicht über weite Strecken transportieren, sind die optischen Waveguides in Smart Glasses und AR-Brillen flach und starr und leiten sichtbares Licht über wenige Zentimeter direkt ins Auge.

Ein Waveguide-Brillendisplay besteht im Wesentlichen aus zwei Bausteinen: der Light Engine, die meist im vorderen Bereich des Brillenbügels nahe dem Scharnier sitzt, und dem Waveguide selbst, der die Linse oder einen Teil dieser bildet.

Die Light Engine hat zwei zentrale Funktionen: Zum einen liefert sie die Lichtquelle und erzeugt ein winziges Bild mithilfe eines Mikrodisplays, wobei je nach Produkt unterschiedliche Technologien wie LCoS, Micro-OLED oder MicroLED zum Einsatz kommen. Zum anderen richtet sie die Lichtstrahlen aus und führt sie im erforderlichen Winkel in den Waveguide ein.

Der Waveguide selbst besteht aus einem Substrat mit möglichst hohem Brechungsindex. Meist handelt es sich um speziell angefertigtes Glas oder Kunststoff. Der Waveguide hat drei wichtige Aufgaben: Er koppelt das Licht der Light Engine ein, führt es entlang der Linse an seinen Bestimmungsort und koppelt es dort wieder aus, sodass es gezielt ins Auge des Brillenträgers gelangt.


Ein Mann hält eine Brille mit Waveguide -Display in den Händen.

Ein Mann hält eine Brille mit Waveguide -Display in den Händen.

Auf dem Bild gut zu sehen: Beidseitige Light Engines und Waveguides.

(Bild: Schott)

Auf seinem Weg durch den Waveguide bleibt das Licht durch ein physikalisches Phänomen namens Totalreflexion im Substrat eingeschlossen und bewegt sich darin wie in einem Spiegelkorridor. Totalreflexion tritt auf, wenn Licht aus einem Medium mit höherem Brechungsindex (Waveguide-Substrat) auf ein Medium mit niedrigerem Brechungsindex (meistens Luft oder eine umgebende Trägerlinse aus Glas oder Kunststoff) trifft. Ob es im Substrat bleibt, hängt vom Einfallswinkel ab: Überschreitet dieser den sogenannten kritischen Winkel, wird das Licht vollständig reflektiert. Je größer der Unterschied zwischen den Brechungsindizes ist, desto größer ist auch der Winkelbereich, in dem das Licht im Substrat gehalten werden kann. Dadurch verbessert sich die Effizienz der Lichtführung, und die Waveguides können dünner und kompakter konstruiert werden.

Beim Auskoppeln des Lichts schließlich wird das ursprünglich winzige Bild der Light Engine vom Waveguide aufgefächert und erzeugt so den Eindruck einer im Raum schwebenden Bildfläche, die kleinere oder größere Teile des Sichtfelds füllt.

Letzten Endes muss ein Waveguide-Display zweierlei leisten: Es führt künstliches Licht gezielt ins Auge und damit ins Sichtfeld, während es zugleich natürliches Licht durch seine Oberfläche passieren lässt, sodass die Umgebung sichtbar bleibt. Aus der Kombination beider Lichtquellen ergeben sich digitale Einblendungen, die die physische Welt überlagern und erweitern.


Infografik, die die Funktionsweise eines Diffractive Waveguide veranschaulicht.

Infografik, die die Funktionsweise eines Diffractive Waveguide veranschaulicht.

Das Funktionsprinzip eines Diffractive Waveguide: Einkopplung, Führung und Auskopplung des Lichts bei gleichzeitiger Transparenz zur Außenwelt.

(Bild: Schott)

Die Transparenz ist eine entscheidende Eigenschaft: Sie unterscheidet Waveguide-Displays von klassischen Displays in Mixed-Reality-Headsets wie der Meta Quest 3 oder Apple Vision Pro. Dort sitzt ein LCD- oder OLED-Bildschirm direkt vor den Augen, der den Blick auf die Außenwelt vollständig blockiert. Das reale Umfeld wird von Kameras aufgenommen und als Videobild wiedergegeben: eine Technik, die „Passthrough“ genannt wird und sich grundlegend vom „Seethrough“ optischer Display-Systeme wie Waveguides unterscheidet. Schaltet sich ein Mixed-Reality-Headset aus, sitzt man im Dunkeln. Fällt dagegen ein Waveguide-Display aus, bleibt die Umgebung weiterhin sichtbar. Die Lichtdurchlässigkeit kann jedoch von Waveguide zu Waveguide variieren.

Es gibt verschiedene Arten von Waveguides, die sich primär darin unterscheiden, wie sie Licht ein- und auskoppeln. Die häufigste Sorte sind Diffractive Waveguides, die das Licht der Light Engine mithilfe von ins Waveguide-Substrat eingeprägten Nanostrukturen beugen („Diffraction“ ist das englische Wort für Beugung). Diffractive Waveguides kommen in vielen bekannten Geräten wie Hololens, Magic Leap, den aktuellen Snap Spectacles sowie Metas Orion-Prototyp zum Einsatz.

Eine weitere, im Aufkommen begriffene Art von Waveguide-Display sind Geometric Reflective Waveguides, deren Entwicklung maßgeblich vom Waveguide-Pionier Lumus vorangetrieben wird. Diese Sorte von Waveguide kommt in der Meta Ray-Ban Display zum Einsatz. Ihren Namen tragen diese Waveguides, weil sie auf klassischen geometrischen Lichtwegen mit Spiegeln und Prismen basieren, im Gegensatz zu Diffractive Waveguides, die das Licht durch Beugung lenken. Statt Nanostrukturen leiten hier Schichten semitransparenter Spiegelchen das Licht ins Auge. „Die Bildqualität ist über die geometrische Anordnung dieser Spiegelchen definiert“, erklärt Rüdiger Sprengard, Head of Augmented Reality beim deutschen Spezialglashersteller und Lumus-Partner Schott, der Waveguides beider Arten fertigt.


Gegenüberstellung: Links Infografik von Lumus mit Waveguide, rechts das Waveguide in Meta Ray-Ban Display, beide mit charakteristischen Spiegelstreifen.

Gegenüberstellung: Links Infografik von Lumus mit Waveguide, rechts das Waveguide in Meta Ray-Ban Display, beide mit charakteristischen Spiegelstreifen.

In der Meta Ray-Ban Display lässt sich die erste Spiegelreihe noch erkennen, die restlichen bleiben unsichtbar.

(Bild: Lumus / Meta)

Beide Waveguide-Sorten erfordern unterschiedliche Fertigungsprozesse mit jeweils eigenen Herausforderungen, die die Ausbeute beeinträchtigen können. Bei Diffractive Waveguides müssen Strukturen im Nanometerbereich über linsenartige Flächen hinweg mit nahezu null Defekten eingeprägt werden. Geometric Reflective Waveguides wiederum erfordern ein äußerst präzises Beschichten und Anordnen halbspiegelnder Oberflächen auf Glas, wobei schon kleinste Abweichungen Helligkeitsunterschiede oder Farbstörungen verursachen können.


Infografik, die die Unterschiede zwischen zwei Wellenleiter-Sorten veranschaulicht.

Infografik, die die Unterschiede zwischen zwei Wellenleiter-Sorten veranschaulicht.

Ein schematischer Vergleich zwischen Diffractive und Geometric Reflective Waveguides.

(Bild: tobe)

Lange war unklar, ob Geometric Reflective Waveguides überhaupt jemals in großen Stückzahlen produziert werden können. Inzwischen hat Schott die Serienfertigung gemeistert. Und laut Metas Technikchef Andrew Bosworth ist es Schott, das die Waveguides für die Meta Ray-Ban Display in Malaysia fertigt.

Die Vor- und Nachteile der beiden Waveguide-Sorten lassen sich gut an Metas Brillenmodellen ablesen. Vor einem Jahr präsentierte Meta den technisch eindrucksvollen AR-Brillenprototyp Orion, der Diffractive Waveguides nutzt. Diesen Monat folgte die Ankündigung der marktreifen Smart Glasses Meta Ray-Ban Display, die stattdessen auf ein Geometric Reflective Waveguide setzt. Hat Meta binnen eines Jahres die Waveguide-Sorte gewechselt? Keineswegs, denn die Modelle gehören unterschiedlichen Produktkategorien mit jeweils eigenen Anforderungen an.

Orion stellt den Versuch dar, eine vollwertige AR-Brille mit möglichst schlankem Formfaktor zu entwickeln: Sie bietet ein besonders weites Sichtfeld für digitale Einblendungen, kann die Umgebung räumlich erfassen und digitale Objekte darin verankern. Neben Blick- und Handerfassung ist sie potenziell auch in der Lage, 3D-Grafik anstelle bloßer Bildflächen darzustellen. Bis zur technologischen und kommerziellen Reife von Metas AR-Vision dürften allerdings noch ein paar Jahre vergehen.


Eine Frau trägt Metas AR-Brille Orion und hat das Fenster eines Videocalls mit ihrem Gesprächspartner im Sichtfeld eingeblendet.

Eine Frau trägt Metas AR-Brille Orion und hat das Fenster eines Videocalls mit ihrem Gesprächspartner im Sichtfeld eingeblendet.

Das Diffractive Waveguide in Meta Orion ermöglicht ein weites Sichtfeld.

(Bild: Meta)

Mit der Meta Ray-Ban Display verfolgt Meta derweil ein bescheideneres Ziel: Die bislang displaylosen Smart Glasses der Marke Ray-Ban Meta werden um eine kleine Anzeige im rechten Auge erweitert, die verschiedene Funktionen erfüllt. Sie blendet etwa Antworten des KI-Assistenten Meta AI ein, zeigt Nachrichten aus Whatsapp, Messenger und Instagram an, dient als Sucher für Fotos und Videos und unterstützt Nutzer mit visueller Navigation.


Nahaufnahme des rechten Brillenglases der Meta Ray-Ban Display mit digitaler Bildanzeige

Nahaufnahme des rechten Brillenglases der Meta Ray-Ban Display mit digitaler Bildanzeige

Die Meta Ray-Ban Display bietet ein Heads-up-Display (HUD) statt eines weiten AR-Sichtfelds. Die digitale Anzeige erscheint im Raum vor dem Nutzer, nicht auf der Linse, wie auf dem Bild dargestellt.

(Bild: Meta)

Eine der Stärken von Diffractive Waveguides ist, dass sie ein besonders weites Sichtfeld ermöglichen, weshalb Meta bei Orion auf diese Waveguide-Sorte setzte. Bei Diffractive Waveguides spielt der Brechungsindex des Substrats eine zentrale Rolle: Je höher er ist, desto größer kann das digitale Sichtfeld ausfallen. Mit einem Waveguide-Substrat aus Siliziumkarbid statt Glas erreicht Orion ein für diesen Formfaktor ungewöhnlich weites Sichtfeld von 70 Grad. Das entspricht einer rund 16-mal so großen digitalen Projektionsfläche im Vergleich zur Ray-Ban Meta Display. Gleichzeitig reduziert Siliziumkarbid eine der größten Schwächen von Diffractive Waveguides: die wellenlängenabhängige Lichtbeugung, die häufig Farbverzerrungen und Regenbogeneffekte verursacht. Der Haken: Siliziumkarbid ist in der Herstellung so aufwendig, dass eine Kommerzialisierung derzeit nicht infrage kommt.

Da für die Ray-Ban Meta Display ohnehin kein großes Sichtfeld vorgesehen ist, fiel Metas Wahl auf ein Geometric Reflective Waveguide, das günstiger herzustellen ist und in anderen Leistungsbereichen Vorteile bietet. Diese Art von Waveguide nutzt semitransparente Spiegel, die das Licht nahezu verlustfrei und unabhängig von der Wellenlänge reflektieren. Dadurch erreicht das Waveguide-Display eine deutlich höhere Bildqualität, Helligkeit und Effizienz als Diffractive Waveguides und ermöglicht so ein Smart-Glasses-Display, das einige Stunden nutzbar ist und auch im Freien bei hellem Tageslicht sichtbar bleibt.


Blick durch die Meta Ray-Ban Display auf eine visuelle Navigation.

Blick durch die Meta Ray-Ban Display auf eine visuelle Navigation.

Das Geometric Reflective Waveguide der Meta Ray-Ban Display eignet sich für den Einsatz im Freien.

(Bild: Meta)

Ein weiterer Vorteil des Geometric Reflective Waveguide ist, dass das Display für Außenstehende kaum sichtbar ist. Diffractive Waveguides erzeugen dagegen oft störende Reflexionen nach außen, die den Blickkontakt beeinträchtigen können. „Das Problem ist, dass diese Waveguides nicht richtungsselektiv sind. Die wollen genauso viel Bild zur Außenwelt schicken wie ins Auge. Die Spiegelchen [der Geometric Reflective Waveguides] hingegen haben ganz wenig Reflexionen zur Welt hin“, sagt Sprengard und bezeichnet diesen Umstand als ein „Geschenk der Natur“.

Für Sprengard ist noch offen, welche Art von Waveguide sich am Ende durchsetzen wird. Fest steht jedoch, dass sich beide Technologien weiterentwickeln werden. Substrate mit höherem Brechungsindex und neue, präzisere Prägungstechniken aus der Halbleiterfertigung könnten die Schwächen von Diffractive Waveguides verringern, während Geometric Reflective Waveguides beim Sichtfeld aufholen werden, da dieses hier weniger stark vom Brechungsindex abhängt. Lumus hat bereits angekündigt, im nächsten Jahr ein neues Waveguide-Design vorzustellen, dessen Sichtfeld mit Orion konkurrieren könnte. Abseits von Waveguides wird zugleich an leistungsfähigeren Light Engines gearbeitet, dem zweiten Baustein von Waveguide-Brillendisplays.

heise online XR-Briefing abonnieren

Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten.

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.

Neben Diffractive und Geometric Reflective Waveguides gibt es weitere Sorten von Waveguide-Displays. Sollten Smart Glasses wie die Ray-Ban Meta Display erfolgreich sein, könnte das die Forschung und Entwicklung beschleunigen und die Entstehung von neuen Arten und Unterarten vorantreiben. Zwar existieren auch ganze andere Display-Ansätze wie Birdbath-Optik, doch Waveguides gelten derzeit als die vielversprechendste Technologie, um alltagstaugliche Smart Glasses und AR-Brillen Wirklichkeit werden zu lassen.

Dass die Technologie nach vielen Jahren endlich marktreif wird und Verbraucher erreicht, sieht Sprengard als wichtigen Meilenstein: „Das ist der Anfang von etwas, das die Art und Weise, wie wir Unterhaltungselektronik im Alltag benutzen, verändern wird.“


(tobe)



Source link

Weiterlesen

Künstliche Intelligenz

Russischer Tanker unter Drohnen-Verdacht geentert


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die französische Marine hat den unter der Flagge Benins fahrenden Öltanker Boracay geentert und zwei hochrangige Besatzungsmitglieder festgenommen. Das 244 Meter lange Schiff gehört zur sogenannten russischen Schattenflotte und steht im Verdacht, mit den mysteriösen Drohnenflügen über dänischen Flughäfen in Verbindung zu stehen. Wie die französische Staatsanwaltschaft nach Angaben der Nachrichtenagentur AFP mitteilte, wurden der Kapitän und sein Erster Offizier in Gewahrsam genommen.

Laut Schiffsverfolgungsdaten lag die Boracay vom 22. bis 25. September vor der dänischen Küste – exakt im Zeitraum der Drohnensichtungen über militärischen Einrichtungen und Flughäfen. In dieser Zeit wurden in Dänemark wiederholt Drohnen über kritischer Infrastruktur beobachtet, was zur vorübergehenden Sperrung mehrerer Airports führte.

Das maritime Fachportal The Maritime Executive berichtet, dass der Tanker und möglicherweise weitere Schiffe entweder als Startplattformen für die Drohnen oder als Ablenkungsmanöver gedient haben könnten. Frankreichs Präsident Emmanuel Macron sprach bei einem EU-Gipfel in Kopenhagen von „sehr schweren Vergehen“ durch die Besatzung, vermied jedoch eine direkte Bestätigung der Verbindung zu den Drohnenflügen. Die französische Marine hatte das Schiff bereits am Samstag geentert, wie Militärquellen bestätigten.

Die Staatsanwaltschaft in Brest eröffnete ein Ermittlungsverfahren. Der 2007 gebaute Tanker, der auch unter den Namen Pushpa und Kiwala bekannt ist, wurde im Februar von der EU unter dem Namen Kiwala auf die Sanktionsliste gesetzt. Das Schiff liegt derzeit vor Saint-Nazaire an der französischen Westküste vor Anker.

Die Boracay gehört zur sogenannten Schattenflotte – einem Netzwerk von veralteten Tankern, mit denen Russland westliche Ölexportsanktionen umgeht. Diese Flotte ermöglicht es Moskau, trotz der nach der Ukraine-Invasion 2022 verhängten Beschränkungen weiterhin Rohöl zu exportieren.

Die EU hat mittlerweile Hunderte dieser Tanker sanktioniert. Die Schiffe fahren häufig unter Billigflaggen wie der von Benin und weisen oft mangelhafte Sicherheitsstandards auf. Tracking-Daten zeigen, dass die Boracay am 20. September den russischen Hafen Primorsk bei Sankt Petersburg verließ und eigentlich am 20. Oktober in Vadinar im Nordwesten Indiens ankommen sollte.

Die Drohnenvorfälle in Skandinavien haben in den vergangenen Wochen erheblich zugenommen. Auch in Deutschland wurden verdächtige Fluggeräte gesichtet, etwa über der schleswig-holsteinischen Landeshauptstadt Kiel. Dort überflogen koordinierte Drohnenschwärme gezielt kritische Infrastruktur wie Marinewerften, Kraftwerke und den Nord-Ostsee-Kanal. Polizeibeamte beobachteten, dass die Drohnen in parallelen Bahnen flogen – ein Hinweis auf systematische Vermessungsoperationen.

In Dänemark wurden zeitgleich mehrere Flughäfen und der Luftwaffenstützpunkt Skrydstrup überflogen. Verteidigungsminister Troels Lund Poulsen sprach von einer „systematischen Operation“ und schloss aus, dass es sich um Hobby-Drohnenpiloten handele. Die dänische Regierung wertet die koordinierten Überflüge als hybriden Angriff. Welche technischen Merkmale die Boracay für Drohneneinsätze qualifizieren könnten, ist noch unklar – moderne Tanker verfügen jedoch über ausreichend Deckfläche und Energieversorgung für den Betrieb größerer unbemannter Systeme.

Das Aufbringen eines unter fremder Flagge fahrenden Schiffes ist völkerrechtlich komplex geregelt. Frankreich kann sich dabei auf EU-Sanktionsverordnungen berufen, die Mitgliedstaaten ermächtigen, Schiffe zu kontrollieren, die im Verdacht stehen, Sanktionen zu umgehen. Zusätzlich erlaubt das Seerechtsübereinkommen der Vereinten Nationen unter bestimmten Umständen das Betreten und Durchsuchen von Schiffen.


(mki)



Source link

Weiterlesen

Beliebt