Künstliche Intelligenz
Studie: GPS-Störungen in der Ostsee werden komplexer und stärker
Die intensive Störungsaktivität von Systemen zur Satellitennavigation (GNSS) wie GPS im südöstlichen Ostseeraum hat ein gefährlicheres Ausmaß erreicht. Das ist das Ergebnis einer jetzt veröffentlichten Untersuchung polnischer Forscher im Auftrag der Sicherheitsfirma Hensec. Die Studie knüpft an frühere Berichte über massive GNSS-Interferenzen in dieser strategisch wichtigen Region an. Sie offenbart aber einen deutlichen Wandel in der Vorgehensweise der Angreifer: Weg von reinem, unpräzisem Jamming hin zu koordinierten, kombinierten Attacken aus Spoofing und aktiver Störsendung, die direkt die Navigation gefährden.
Weiterlesen nach der Anzeige
Die neue Messkampagne, die Experten der Firma GPSPatron und der Meeresuniversität Gdynia durchführten, unterscheidet sich methodisch von früheren Erhebungen, die auf stationäre Sensoren an Land setzten. Um die reale und dynamische Gefährdung der Schifffahrt im Einsatzgebiet präziser abzubilden, installierten die Wissenschaftler einen hochentwickelten Interferenzdetektor, den GP-Probe TGE2, direkt an Bord eines Forschungsschiffes. Dieses mobile Messlabor operierte über einen Zeitraum von fast vier Monaten, vom 23. Juni bis zum 14. Oktober 2025, systematisch im gesamten südlichen Ostseeraum und näherte sich dabei regelmäßig der Seegrenze zur russischen Oblast Kaliningrad (Königsberg).
Mobile Messung deckt Kombi-Taktik auf
Durch diese maritime Perspektive konnten die Forscher Effekte erfassen, denen Schiffe tatsächlich und ungeschützt ausgesetzt sind. Diese blieben von landgestützten Beobachtungsposten aufgrund der Erdkrümmung und Signalabschattungen bisher verborgen. Die dabei gewonnenen Daten zeichnen ein alarmierendes Bild des aktuellen elektronischen Kampfgeschehens in der Gegend. Während frühere Analysen lediglich ein großflächiges Jamming – also das Blockieren – der Signale mehrerer Satellitenkonstellationen zeigten, dokumentieren die Messungen nun eine wesentlich raffiniertere und zielgerichtetere Taktik.
Die Angreifer setzen demnach auf eine Kombination aus GPS-L1-Spoofing und gleichzeitigem Jamming. Beim Spoofing werden hochpräzise künstliche Satellitensignale erzeugt und an den Empfänger gesendet, die eine falsche Position vortäuschen können. Diese ist metergenau verschoben, was die Besatzung in die Irre führt. Gleichzeitig stören die Angreifer aktiv die Signale konkurrierender Konstellationen wie Glonass, Galileo und Beidou.
Diese koordinierte Vorgehensweise zwingt handelsübliche GNSS-Empfänger dazu, ausschließlich die gefälschten GPS-Signale zu verarbeiten, da die echten Hinweise der anderen Systeme unterdrückt sind. Dies stellt eine erhebliche Manipulation der Schiffsnavigation dar, die schlimmstenfalls zu Kollisionskursen und dem Abdriften in Sperrgebiete führen kann.
30 Stunden ununterbrochener Angriff
Die Intensität dieser elektronischen Angriffe hat dabei neue Rekorde erreicht. Die stärksten Störungen traten gebündelt Ende Juni bis in den Juli hinein auf. In diesen Phasen sank die gesamte Verfügbarkeit der globalen Satellitennavigation zeitweise auf 83,5 Prozent, was eine ernste Bedrohung für die betriebliche Sicherheit von Frachtern und Passagierschiffen bedeutet.
Weiterlesen nach der Anzeige
Über einen Beobachtungszeitraum von vier Tagen registrierten die Wissenschaftler aktive Spoofing-Angriffe, die die aufgezeichnete Schiffsposition systematisch verfälschten. Den extremsten Vorfall dokumentierten sie in der ersten Juliwoche, als fast 30 Stunden lang eine ununterbrochene Spoofing-Attacke auf die Navigation von Schiffen gerichtet war.
Solche andauernden, intensiven Störungen stellen ein ernstes und direktes Sicherheitsrisiko für den gesamten Seeverkehr dar, da sie Positionsbestimmung und Kursverfolgung massiv beeinträchtigen und nur schwer als solche zu erkennen sind. Präzise Spoofing-Signale lassen sich auch durch einen Plausibilitätscheck nur schwer entlarven. Die detaillierte Analyse offenbart zudem eine Komplexität in der Angriffsstruktur, die zwingend auf eine zentral gesteuerte Koordination hindeutet. Die Forscher identifizierten klar, dass die Interferenzen nicht von einer einzelnen Quelle stammen, sondern von vier unterschiedlichen, synchron arbeitenden Anlagen.
Vier koordinierte Störquellen aktiv
Dazu gehörten ein dezidierter GPS-Spoofer, zwei sogenannte Chirp-Jammer, die frequenzmodulierte Störsignale aussenden, und ein breitbandiger analoger Störsender. Die unterschiedlichen Spektren und Bandbreiten dieser Signale weisen darauf hin, dass es sich um räumlich voneinander getrennte Anlagen handelt, die koordiniert aktiviert werden, um die maximale Störwirkung zu erzielen und die Ausweichmechanismen von Empfängern zu überlisten. Im Vergleich zur früheren Erkenntnislage hat sich die technische Interferenzlandschaft so signifikant gewandelt.
Die mobile Messplattform dokumentiert einen räumlichen Trend: die Störintensität nimmt auf offener See erheblich zu. Während etwa im Hafen von Danzig lediglich schwache Störungen teils durch zivile Quellen wie Auto-Jammer registriert wurden, stieg die Signalstärke auf offener See um bis zu 15 Dezibel an. Das entspricht einer enormen Zunahme der Sendeleistung, die nur durch leistungsstarke, offenbar militärische Anlagen erreicht werden kann. Die deutlichsten und anhaltendsten Störwerte erfasste das Team auf Kursen, die in Richtung der Kaliningrader Seegrenze führten.
Das bestätigt, dass die Navigationszonen auf See und die Hauptverkehrswege der Handelsschifffahrt am stärksten betroffen sind. Die Ergebnisse unterstreichen die Notwendigkeit für Reedereien und Häfen, ihre Navigationssysteme gegen derartige kombinierte Attacken abzusichern und alternative Navigationsmethoden wie unabhängige, nicht-satellitengestützte Inertialsysteme aktiv zu fördern, die etwa Beschleunigungsmesser oder Gyroskope nutzen. Die Experten warnen: Nur so lasse sich die Sicherheit im maritimen Verkehr der Ostsee unter den sich wandelnden elektronischen Bedingungen nachhaltig gewährleisten.
(nen)
Künstliche Intelligenz
TDWI München 2026: Vorträge für die Konferenz zu Data, Analytics und KI gesucht
Vom 23. bis 25. Juni 2026 findet die TDWI München statt. Die Konferenz hat sich als Wissensdrehscheibe und Netzwerkplattform für die Daten-Community etabliert.
Weiterlesen nach der Anzeige
Bis Ende Januar 2026 sucht der Veranstalter heise conferences nach Vorträgen für die TDWI München zu Themen von Datenarchitektur und Strategie über Data Science und KI bis zur Datenkultur.
Ein Programmbeirat aus Fachexpertinnen und -experten kuratiert das Programm und sucht aus den Einreichungen etwa 120 Vorträge für die TDWI München aus.
Programm mit 12 Tracks
Der Call for Contributions ist bis zum 26. Januar 2026 geöffnet. Die Konferenz bietet zwölf thematische Tracks. Als neue Schwerpunkte kommt 2026 Industrial Data & AI hinzu. Daneben gibt es unter anderem folgende Tracks:
- Data Architecture
- Data Management
- Data Culture
- Data Science & AI
- Data Strategy & Data Governance
- Self-Service BI & Analytics
- Branchentrack Finanzindustrie
Projekterfahrungen und -berichte sind ebenso gewünscht wie Trends und Ausblicke zu den Themen der TDWI München. Wer mit einem Vortrag auf der Konferenz dabei sein möchte, aber noch keine Speaker-Erfahrung hat, hat die Chance, auf einen Mentor aus der Community zurückzugreifen.
Anwenderstorys sind besonders gern gesehen. Die Programmgestalter freuen sich zudem über Vorträge zu innovativen Formaten. So gab es in den letzten Jahren beispielsweise eine Chess Clock Debate und ein Dashboard-Karaoke.
Weiterlesen nach der Anzeige
(rme)
Künstliche Intelligenz
Missing Link: Hubble Deep Field – ein Foto und seine Geschichte
Das Bild war eine Sensation: Fast sechs Tage lang hatte das Hubble Space Telescope aus der Milchstraße in einen Bereich des Sternenhimmels außerhalb der Milchstraße gespäht. Von der Erde aus betrachtet, galt dieser Himmelsbereich als leer.
Weiterlesen nach der Anzeige
Die US-Raumfahrtbehörde NASA musste liefern. Das damals neue Weltraumteleskop drohte zu einem Millionen US-Dollar teuren Flop zu werden: Der Bau hatte sich verzögert, der Start nach der Explosion des Space Shuttle Challenger 1986 ebenfalls. Als es 1990 endlich im All war, kam die große Enttäuschung: Die Optik hatte einen gravierenden Fehler, die Bilder, die das Teleskop lieferte, waren unbrauchbar.

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.
Um das Hubble-Teleskop trotzdem nutzen zu können, ließ die NASA eine Korrekturlinse anfertigen, die ein Space Shuttle Ende 1993 zu dem Teleskop brachte, das zu dem Zeitpunkt schon mehr als drei Jahre in Orbit herumdümpelte. In mehreren Außeneinsätzen setzten die Thomas Akers, Jeffrey Hoffman, Story Musgrave und Kathryn C. Thornton Hubble eine neue Brille auf.
Endlich funktionierte das Teleskop – und jetzt musste es liefern. Und es lieferte: Das Bild des vermeintlich leeren Himmelsbereichs zeigte Millionen von Sternen in tausenden Galaxien, von denen einige noch aus der Frühzeit des Universums stammen. Das „Hubble Deep Field“ ist heute eines der ikonischsten Fotos der Weltraumforschung, das unseren Blick auf das Universum verändert hat und zu dem mehrere hundert Fachartikel veröffentlicht wurden.

Das Hubble Deep Field aus dem Jahr 1995
(Bild: NASA)
Genauso interessant wie das Foto selbst und die wissenschaftlichen Erkenntnisse daraus ist allerdings seine Entstehungsgeschichte. Hier war weniger die Wissenschaft als vielmehr mangelndes Qualitätsmanagement in einem US-Raumfahrtunternehmen sowie die US-Finanzpolitik in Person eines späteren Friedensnobelpreisträgers involviert. Und diese Geschichte ist mindestens so spannend wie die wissenschaftlichen Entdeckungen, die später aus dem Foto folgten.
Idee der 1970er Jahre
Weiterlesen nach der Anzeige
Rückblick: Es ist das Jahr 1975. Nachdem die Idee eines weltraumgestützten Teleskops seit fast drei Jahrzehnten diskutiert wird und auch bereits Satelliten mit kleineren Teleskopen in der Umlaufbahn operieren, legt die NASA dem US-Haushaltsausschuss eine Budgetanfrage von 400 Millionen US-Dollar vor, heute wären das über 2 Milliarden US-Dollar. Damit wollte die US-Raumfahrtbehörde den Bau eines „Large Space Telescopes“ mit einem Spiegel von 3 Metern Durchmesser finanzieren. Das Projekt wurde jedoch als „zu teuer“ abgelehnt.
Die NASA überarbeitete die Pläne und verkleinerte den Durchmesser des Hauptspiegels (und damit die Größe des Teleskops) auf 2,4 Meter. So konnte das benötigte Budget halbiert werden. Das Geld wurde 1977 bewilligt, sodass die NASA in den folgenden Monaten die einzelnen Komponenten beauftragen konnte.
1978 wurde dann der Auftrag für den Hauptspiegel des Teleskops an das US-Unternehmen PerkinElmer vergeben. Beim Bau kam ein neues, lasergestütztes Schleifverfahren zum Einsatz. PerkinElmer setzte dabei auch ein für das neue Verfahren angepasstes Messgerät, einen sogenannten „Null-Korrektor“, ein. Bedingt durch Zeit- und Kostendruck wurde der neue Korrektor vor dem Einsatz nicht getestet und validiert. So bemerkte niemand, dass durch eine fehlerhafte Konstruktion eine Linse des Messsystems um 1,3 mm versetzt saß. Da es bei PerkinElmer zu einer Reihe von Versäumnissen in der Qualitätssicherung kam, blieb der Fehler zunächst unbemerkt. Neben der fehlenden Validierung wurden später noch eine ganze Reihe weiterer Versäumnisse entdeckt.
Künstliche Intelligenz
ThinkBook Plus G6: Notebook mit ausrollbarem OLED-Bildschirm im Test
Lenovos ThinkBook Plus G6 Rollable ist ein Hingucker, weil es nur auf den ersten Blick ein normales Notebook ist. Drückt man eine Sondertaste neben F12, so fährt das Notebook seinen Bildschirm motorisiert nach oben aus. Er gewinnt dadurch in etwa nochmal die Hälfte an zusätzlicher Höhe. Das funktioniert dank eines flexiblen OLED-Displays.
Anders als herkömmliche Monitore benötigt es keinen mehrlagigen Schichtaufbau mit starrer Hintergrundbeleuchtung, sondern lässt sich auf flexiblen Folien fertigen. Gerätehersteller benutzen diese technische Besonderheit für Smartphones mit faltbaren Displays, aber auch für Gaming-Bildschirme, die man jederzeit zwischen planer und gekrümmter Oberfläche umbauen kann. Das ThinkBook Plus G6 Rollable hat auch keine nervige Unterbrechung der Bildfläche, die man bei bisherigen Dual-Display-Notebooks zwangsläufig antrifft.
Anders als dort muss man obendrein keine Kompromisse bei den Eingabegeräten hinnehmen. Sie sind in gängiger Position fest im Rumpf verbaut: Tastatur hinten, Touchpad mittig davor. Dies ist bei Notebooks mit ungewöhnlichen oder mehreren Bildschirmen keinesfalls selbstverständlich. Dort sind abnehmbare Bluetooth-Tastaturen gängig oder welche, die ganz nach vorne gezogen sind und die Handballenablage verdrängen.
Das war die Leseprobe unseres heise-Plus-Artikels „ThinkBook Plus G6: Notebook mit ausrollbarem OLED-Bildschirm im Test“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Datenschutz & Sicherheitvor 3 MonatenJetzt patchen! Erneut Attacken auf SonicWall-Firewalls beobachtet
-
Künstliche Intelligenzvor 2 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 3 MonatenFake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Entwicklung & Codevor 3 WochenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Social Mediavor 3 MonatenSchluss mit FOMO im Social Media Marketing – Welche Trends und Features sind für Social Media Manager*innen wirklich relevant?
