Künstliche Intelligenz
Weltraumteleskop James Webb bildet erstmals Exoplaneten direkt ab
Einem Forschungsteam aus Frankreich ist es gelungen, mit dem Weltraumteleskop James Webb erstmals einen Exoplaneten direkt abzubilden. Sollte sich das bestätigen, wäre das für das neue Gerät ein Novum, die Hoffnung ist aber, dass weitere Nachweise folgen werden. Entdeckt wurde der Exoplanet bei einem Stern mit der Bezeichnung TWA 7, der etwa 111 Lichtjahre von uns entfernt ist. Der Exoplanet ist demnach ungefähr 50 Astronomische Einheiten von seinem Stern entfernt und hat etwa die Masse des Saturn. Insgesamt habe das modernste Weltraumteleskop die Möglichkeit, sogar Exoplaneten nachzuweisen, die nur ein Drittel dieser Masse haben.
Auf dem Weg zur Abbildung erdgroßer Exoplaneten
Wie das Forschungsteam um Anne-Marie Lagrange vom Pariser Observatorium erklärt, haben sie für ihre Arbeit einen Koronagraph am MIRI-Instrument des Weltraumteleskops benutzt. Damit lässt sich der ferne Stern selbst abdunkeln, während seine direkte Umgebung sichtbar bleibt. Ausgenutzt haben sie das an einem besonders lohnenswerten Ziel, denn das System von TWA 8 sehen wir direkt von oben. Dort gibt es drei Ringe aus Staub und in einem davon eine auffällige Lücke. Genau dort haben sie den Exoplaneten entdeckt, bei dem es sich wohl um einen vergleichsweise jungen Himmelskörper handelt. Weil der noch nicht komplett abgekühlt und etwa 47 Grad Celsius warm ist, ist er im infraroten Spektrum besser zu erkennen.
Für das Weltraumteleskop James Webb bedeute die Entdeckung einen weiteren Meilenstein, weil es bestätigt, dass das Gerät kleinere Himmelskörper finden kann als andere Instrumente. „Dieses Teleskop ermöglicht es uns, Planeten mit Massen abzubilden, die denen der Planeten im Sonnensystem entsprechen“, sagt Co-Autorin Mathilde Malin vom Space Telescope Science Institute. Der Fund bereite deshalb den Weg für die direkte Abbildung von Exoplaneten, die etwa die Masse der Erde haben. Noch ist das aber etwas entfernt, der jetzt vorgestellte Exoplanet kommt auf etwa 100 Erdenmassen. Vorgestellt wird die Entdeckung im Fachmagazin Nature.
(mho)
Künstliche Intelligenz
Breitband: Provider liefern mehr Leistung – oft aber noch nicht die bezahlte
Die Bundesnetzagentur meldet Fortschritte bei den jährlich vorgelegten Ergebnissen der Breitbandmessungen, die Nutzer mit der offiziellen App der Regulierungsbehörde durchführen. Im Festnetz erhielten laut dem aktuellen 9. einschlägigen Bericht 86,5 Prozent der Nutzer mindestens die Hälfte der vertraglich vereinbarten maximalen Datenübertragungsrate im Download. Das bezieht sich auf den Zeitraum vom 1. Oktober 2023 bis zum 30. September 2024. In der Vorjahresperiode 2022/2023 lag der Wert noch bei 85,5 Prozent. Bei 45,2 Prozent der Nutzer – gegenüber 43,5 Prozent im 8. Bericht – wurde diese Geschwindigkeit im Netz voll erreicht oder überschritten.
Zwischen Stadt und Land gibt es dabei Unterschiede, geht aus der Analyse hervor. Im urbanen Bereich erreichten 62,6 Prozent der Nutzer mindestens 90 Prozent der vermarkteten Datenübertragungsrate, in halbstädtischen Gegenden 59,1 und in ländlichen Gebieten 58 Prozent. Über alle Bandbreitenklassen und Anbieter hinweg erhielten zudem im Upload im aktuellen Berichtszeitraum 90,7 Prozent der Nutzer (2022/2023: 88,8 Prozent) mindestens die Hälfte der vertraglich vereinbarten maximalen Geschwindigkeit. Bei 43,5 Prozent der Nutzer (2022/2023: 41,8 Prozent) wurden die entsprechenden Zusagen voll eingehalten oder übertroffen.
Mit 79,6 Prozent waren die meisten Kunden auch im aktuellen Berichtsjahr mit der Leistung ihres Breitbandanschlusses zufrieden und vergaben dafür Schulnoten zwischen 1 bis 3. 10 Prozent der Kunden bewerteten ihre Internetverbindung aber erneut mit einer 5 oder 6. Insgesamt basiert der Bericht im Bereich des Festnetzes auf 276.081 Messungen, während es vormals 305.035 waren.
5G treibt die Resultate für den Mobilfunk voran
Der Mobilfunk schnitt in den vergangenen Jahren bis Mitte 2022 notorisch schlecht ab. Über die volle vertraglich vereinbarte Datenübertragungsrate konnten sich im mobilen Internet damals nur drei Prozent freuen. Mit dem Ausbau von 5G hat sich das grundlegend geändert. Die fünfte Mobilfunkgeneration ermögliche es, „sehr hohe Datenübertragungsraten zu erzielen“, heißt es. Diese gingen teils „deutlich über das jeweilige vertraglich vereinbarte geschätzte Maximum des Tarifs hinaus“. Bei einem Großteil der im Markt befindlichen Tarife orientiere sich dieses noch an den mit 4G potenziell erreichbaren Geschwindigkeiten. Vor allem bei der Deutschen Telekom, Vodafone und Telefónica führe dies dazu, „dass diese die erreichbaren Datenübertragungsraten nicht beschränken, sondern die Tarife bei 5G-Nutzung nach ‚oben‘ öffnen“.
Laut dem Bericht ist der Anteil von 5G-Messungen nun erneut – und zwar deutlich – angestiegen. Im aktuellen Zeitraum lag dieser demnach bei rund 44 Prozent aller berücksichtigten Messungen, während es zuvor nur 28,5 Prozent waren. Insgesamt wurden für mobile Breitbandanschlüsse 562.305 valide Messungen berücksichtigt.
Hiervon entfallen 315.974 auf 4G und 246.331 auf 5G. Rund 83,5 Prozent der 5G-Messungen liegen in sehr hohen Bandbreitenklassen 200 MBit/s bis kleiner 500 MBit/s und 500 MBit/s. Bei 4G sind die Ergebnisse bezogen auf das Erreichen der vertraglich vereinbarten geschätzten maximalen Datenübertragungsraten in den drei oberen Bandbreitenklassen indes schlechter ausgefallen.
Die Trennung nach 4G und 5G nahm die Bundesnetzagentur erstmalig vor. Ein Vergleich mit den Vorjahresergebnissen ist daher nicht möglich. Dem Regulierer zufolge findet eine Auswertung der vertraglich in Aussicht gestellten Leistungen in interaktiver Kartenform auch nur noch für das Festnetz statt. Im Bereich des Mobilfunks würden künftig die gemessenen Datenübertragungsraten für das jeweilige Mobilfunknetz in den Mittelpunkt gestellt. Klaus Müller, Präsident der Bundesnetzagentur, freute sich, dass dank des 5G-Ausbaus immer mehr Mobilfunk-Kunden „von den sehr hohen Geschwindigkeiten“ profitierten.
(mho)
Künstliche Intelligenz
Aussetzung des DMA? – Sorge vor Kuhhandel der EU mit den USA
Laut Berichten etwa des Wall Street Journals fordern die USA im Rahmen der Zollverhandlungen mit der EU, dass letztere auf die Durchsetzung ihrer zentralen Gesetze zur Plattformregulierung zumindest zeitweise verzichtet. Im Fokus stehen dabei demnach vor allem die erweiterten Wettbewerbsregeln im Digital Markets Act (DMA), die viele Big-Tech-Konzerne aus den USA treffen. Das Handelsblatt will in Erfahrung gebracht haben, dass die EU-Kommission weitreichende Zugeständnisse an die US-Regierung plant. Dagegen mehrt sich der Widerstand aus Kreisen von Wirtschaft, Zivilgesellschaft und Politik.
In einem offenen Brief an die Spitze der Brüsseler Regierungsinstitution wehrt sich etwa der deutsche Startup-Verband gemeinsam mit europäischen Verbündeten etwa aus Frankreich und Italien gegen ein Einlenken. „Einen solchen Kuhhandel darf es nicht geben“, betont die Vorstandsvorsitzende der Vereinigung, Verena Pausder. „Das würde die Bemühungen der EU um eine digitale Souveränität Europas völlig konterkarieren.“ Die Einhaltung europäischer Regeln und Gesetze – und damit die Rechtsstaatlichkeit – dürfe „nicht zur Verhandlungsmasse verkommen“.
Der DMA sei „ein sachgerechtes Instrument, um strukturelle Ungleichgewichte auf digitalen Märkten zu adressieren“, argumentieren die Unterzeichner. Für junge und rasch wachsende Firmen in Europa seien die darin enthaltenen Kartellvorschriften etwa für mehr Interoperabilität elementar, um „faire Wettbewerbsbedingungen, Marktzugang und damit Innovationen zu sichern“. Wer europäische Tech-Champions ermöglichen wolle, „kann nicht gleichzeitig zentrale regulatorische Grundlagen für faire digitale Märkte zur Disposition stellen“. Eine Aussetzung würde „das Vertrauen in die Durchsetzungsfähigkeit europäischer Gesetzgebung und die Verlässlichkeit des europäischen Binnenmarkts als stabilen Rechtsraum nachhaltig beschädigen“.
Einknicken wäre „inakzeptable Kapitulation“
In die gleiche Kerbe schlägt Felix Duffy von der zivilgesellschaftlichen Organisation LobbyControl: „Es ist absolut inakzeptabel, den US-Tech-Konzernen ein Mitspracherecht über demokratisch geschaffene Gesetze zu gewähren.“ Absehbar sei, dass die institutionelle Festschreibung von US-Einfluss die neuen Tech-Regulierungen abschwächen werde. Die EU sollte ihre Gesetze aber unabhängig und konsequent durchsetzen. Die Bundesregierung müsse in Brüssel dafür sorgen, dass der DMA hochgehalten und „nicht im Zollstreit mit den USA geopfert“ werde. Alles andere wäre ein Bruch des Koalitionsvertrages. LobbyControl forderte schon im Januar zusammen mit mehr als 30 Organisationen wie European Digital Rights (EDRi), dem Open Market Institute und Gewerkschaften die Kommission auf, ihre Regeln gegen Tech-Konzerne strikt durchzusetzen.
„Den DMA auf Eis zu legen, um die USA zu beschwichtigen, wäre eine inakzeptable Kapitulation“, warnt auch Stéphanie Yon-Courtin, eine französische EU-Abgeordnete der liberalen Renew-Fraktion. Es würde ihr zufolge einen gefährlichen Präzedenzfall schaffen, wenn die EU zuließe, dass Länder sie zu einer Überarbeitung bereits verabschiedeter Gesetze drängten. „Friedrich Merz droht vor Digitalkonzernen einzuknicken“, moniert Anna Lührmann, grüne Vizevorsitzende des Digitalausschuss des Bundestags, mit Blick auf die vom Bundeskanzler gezeigte Verhandlungsbereitschaft. Der offenbar im Raum stehende Deal ginge „auf Kosten unserer europäischen Souveränität“. Unter dem Deckmantel wirtschaftlicher Kompromisse würde vor allem großen US-Tech-Konzernen der Rücken gestärkt werden.
Die Trump-Regierung wertet erste Geldstrafen auf DMA-Basis gegen Apple und Meta als „wirtschaftliche Erpressung“. Ein Kommissionssprecher wollte Anfang der Woche nicht über ein potenzielles Ergebnis der Zollgespräche spekulieren. „Wir wollen ein faires und ausgewogenes Abkommen finden.“
(mho)
Künstliche Intelligenz
Podcast: Kritische Infrastrukturen — wenn IT-Sicherheit zur Schwachstelle wird
Der aktuelle Angriff der USA auf iranische Uranaufbereitungsanlagen war nicht der erste seiner Art. Genau genommen war es schon der erste seiner Art: denn als die USA und Israel zuletzt versuchten, das iranische Atomprogramm zu stoppen, taten sie das auf minimalinvasive Art und Weise: mit einem ausgefeilten Cyberangriff. Stuxnet ging in die Geschichte ein als der erste cyberphysische Angriff und der Beginn einer neuen Ära: Der Angriff galt als der Auftakt des Cyberwar. „Damals dachte man, dass künftige Kriege reine Cyberkriege sein werden“, sagt Sarah Fluchs im c’t-Podcast „They Talk Tech“, „aber das ist so nicht eingetroffen.“ Die Expertin beschäftigt sich mit der Sicherheit kritischer Infrastrukturen und industrieller Kontrollsysteme. Wie angreifbar diese sind, wurde mit Stuxnet klar und ist angesichts der aktuellen geopolitischen Situation ein drängendes Thema.
Ein Grund dafür, dass man dennoch nur hin und wieder von Cyberangriffen auf kritische Infrastrukturen zum Beispiel im Energiesektor hört – unter anderem im Zuge der russischen Angriffe auf die Ukraine – sei sicherlich, dass es doch nicht ganz so einfach ist, mit rein digitalen Angriffen massive physische Zerstörungen anzurichten, sagt Fluchs. „Wenn wirklich schwarzer Rauch gefordert ist, also physische Zerstörung, dann ist ein Cyberangriff oft nicht die effizienteste Waffe.“
Wirklich verheerend werden digitale Angriffe erst in Kombination mit physischen Angriffen. Das zeigte sich etwa zu Beginn des russischen Angriffskriegs gegen die Ukraine. Noch bevor die ersten Bomben fielen, legte ein Cyberangriff auf das Satellitennetzwerk KA-SAT die Kommunikation lahm – mit Auswirkungen bis nach Westeuropa. „Das wirklich Bedrohliche ist nicht der einzelne Cyberangriff, sondern das Zusammenspiel“, sagt Sarah Fluchs. „Wenn etwa ein Angriff auf die Kommunikation einen Bombenangriff noch viel schlimmer macht.“
Gleichzeitig ist seit dem Bombenangriff der USA die Angst groß, dass der Iran mit Cyberangriffen auf kritische Infrastrukturen in den USA und Europa zurückschlägt. Deshalb sei es wichtig, sich jetzt intensiv mit der Sicherheit entsprechender Anlagen zu beschäftigen. Aber das ist gar nicht so einfach, denn die Sicherheit kritischer Infrastrukturen ist komplex – unter anderem gerade deshalb, weil in den vergangenen Jahren immer mehr Schichten an Sicherheitsmaßnahmen ergänzt wurden. „Die Best-Practice-Listen wachsen immer auch nur. Es hat ja nie jemand in den letzten 20 Jahren jemals eine Best- Practice wieder runtergenommen.“ Dadurch werden die Anforderungen für Menschen undurchsichtig.
„Wir haben mittlerweile mit den allerbesten Intentionen so komplizierte Systeme gebaut, dass wir sie nicht mehr durchblicken“, sagt Fluchs. Jede zusätzliche Sicherheitsmaßnahme erhöht die Komplexität – und damit auch das Risiko, dass etwas schiefläuft. Ein Beispiel dafür ist das Update der Sicherheitssoftware CrowdStrike, das im Sommer 2024 weltweit Systeme lahmlegte und unter anderem ein riesiges Chaos im Flugverkehr verursachte. Gerade bei Sicherheitsmaßnahmen sei es wichtig, gut zu überlegen, was man brauche und was vielleicht auch verzichtbar ist. Denn gerade bei industriellen Kontrollsystemen sei es unabdingbar, Sicherheit einfach zu gestalten, weil jedes Update auch ein Risiko mit sich bringt. KI und die verlockende Möglichkeit, immer mehr Daten auszuwerten, mache es nicht unbedingt besser – im Gegenteil: Je mehr Daten erhoben würden, umso unübersichtlicher werde alles. „Wir sehen das gerade bei Security Tools“, sagt Fluchs: Immer mehr Daten würden erhoben, ohne zu analysieren, wie sinnvoll diese wirklich seien für die Fragestellung. „Alles blinkt wie ein Tannenbaum und die Leute schauen drauf und haben keine Ahnung mehr, was sie damit tun sollen.“
Dazu kommt, dass auch Software angesichts vieler Komponenten, die in Systemen stecken, unüberschaubar und dadurch ebenfalls unsicher wird. Das zeigte sich etwa bei der manipulierten Open-Source-Bibliothek XZ Utils, deren Backdoor nur durch Zufall entdeckt wurde. „Wir müssen aufhören, Systeme zu bauen, die Menschen nicht mehr verstehen“, fordert Fluchs. Ein Kernproblem sei der leichtsinnige Einsatz von Open-Source-Produkten. Unternehmen verlassen sich auf freie Komponenten, ohne Verantwortung für deren Sicherheit zu übernehmen. „Wir können Open Source nicht mehr so nutzen, als sei sie kostenlos und niemand verantwortlich“, sagt Fluchs. Künftig, etwa durch den Cyber Resilience Act der EU, dürften Hersteller auch für die Sicherheit fremder Komponenten haften.
Besonders gefährlich findet Fluchs, dass viele neue Systeme die Transparenz weiter verschlechtern. Tools automatisieren Entscheidungen, die niemand mehr nachvollziehen kann. „KI kann Informationen aufbereiten, aber Entscheidungen müssen Menschen treffen“, sagt sie. „Sonst fliegt uns das irgendwann um die Ohren.“
Sicherheit bedeute nicht, alles technisch Mögliche umzusetzen. Im Gegenteil: Wer einfach nur Best Practices aufeinanderschichtet, schaffe oft ein undurchschaubares, wartungsintensives System. „Manchmal ist es besser, Dinge bewusst wegzulassen“, so Fluchs. Gerade im industriellen Umfeld sei Reduktion oft die bessere Strategie – auch, weil jedes Update eine Herausforderung ist: „Du kannst ein Atomkraftwerk nicht neu starten, nur weil Windows Patchday hat.“ Je deterministischer ein System in diesem Bereich funktioniert, umso einfacher ist es, es zu schützen – weil es für Menschen durchschaubar bleibt. „Weniger ist hier wirklich manchmal mehr“, so Fluchs.
Stuxnet hat 2010 eine Tür aufgestoßen. Seither haben sich Cyber- und physische Angriffe weiter verzahnt, während die Verteidigung Systeme weiter verkompliziert hat. Die größte Gefahr liegt vielleicht nicht mehr im gezielten Angriff, sondern in der Intransparenz der Verteidigung.
„They Talk Tech“ erscheint jeden Mittwoch überall, wo es Podcasts gibt. Svea Eckert und Eva Wolfangel diskutieren ein Tech-Thema oder treffen inspirierende Frauen aus und rund um die Tech-Welt.
(mond)
-
Social Mediavor 2 Wochen
Aktuelle Trends, Studien und Statistiken
-
Social Mediavor 2 Wochen
LinkedIn Feature-Update 2025: Aktuelle Neuigkeiten
-
Online Marketing & SEOvor 2 Wochen
Aus Marketing, Medien, Agenturen & Tech: Diese 40 klugen Köpfe unter 40 müssen Sie kennen
-
UX/UI & Webdesignvor 2 Wochen
Philip Bürli › PAGE online
-
Social Mediavor 2 Wochen
“Wir haben doch nichts zu erzählen…” – 3 Tricks für neue Social Media Content Ideen
-
Apps & Mobile Entwicklungvor 2 Wochen
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Online Marketing & SEOvor 2 Wochen
Influencer Marketing: Warum Influencer Vertrauen verlieren und klassische Medien gewinnen
-
UX/UI & Webdesignvor 2 Wochen
Wie gelingt eine einwandfreie Zusammenarbeit?