Connect with us

Künstliche Intelligenz

Wie OpenAI erklärt, warum LLMs bei völliger Ahnungslosigkeit sicher auftreten


Der Begriff Halluzination ist für den Fachbereich KI vergleichsweise jung, verbreitete sich aber seit seinem Auftauchen vor wenigen Jahren rasch. Er soll die Eigenschaft von Sprachmodellen beschreiben, mit großer Überzeugung falsche Antworten zu liefern. Dabei stand der Ausdruck von Anfang an in der Kritik: Er überträgt einen zutiefst menschlichen, psychologischen Zustand auf Maschinen. Damit hat er die Debatte mehr verschleiert als erhellt.




Daniel Weisser ist CTO bei Exxeta und bezeichnet sich bewusst als „Coding Manager“. Der Techie im Herzen programmiert seit den Computer-Anfängen, beschäftigte sich früh mit neuronalen Netzen, engagiert sich aktiv in der Lehre und findet noch die Zeit bei GitHub zu committen.

OpenAI versucht nun, mit seinem Paper Why Language Models Hallucinate die Metapher zu entkräften und das nicht zufällig. Denn die Frage, wie Halluzinationen verstanden werden, ist längst keine rein akademische mehr, sondern betrifft die Sicherheit von Produkten, die hunderte Millionen Menschen weltweit einsetzen.

Das Paper setzt zwei Schwerpunkte: Zum einen betont es die statistische Unvermeidbarkeit bestimmter Fehler bereits im Pre‑Training. Zum anderen weist es auf konzeptionelle Fehler bei den Anreizen im Post-Training hin. Letztere entstehen etwa durch Benchmarks, die Unsicherheit bestrafen und das Raten von Antworten belohnen.

Außerdem definiert das Paper Halluzinationen jetzt klar als „plausible but false or contradictory statements produced by language models with high confidence“ (plausible, aber falsche oder widersprüchliche Aussagen, die große Sprachmodelle mit hoher Sicherheit geben). Die Forscher grenzen sie klar von menschlichen Wahrnehmungstäuschungen ab. Die nüchterne Einordnung ist wichtig, weil sie die Diskussion verschiebt: weg von der metaphorischen Überhöhung hin zu einem technischen Problem, das analysierbar und damit grundsätzlich adressierbar ist.

Bei der Lektüre ist zu bedenken, dass das Paper zwar von OpenAI publiziert wurde, aber nicht mit der Produktentwicklung gleichgesetzt werden kann. Natürlich ist hier eine, wenn auch indirekte, Rückkopplung zu vermuten. Es erfüllt über den wissenschaftlichen Anspruch hinaus sehr wahrscheinlich auch weitere kommunikative Ziele, auf die wir im Fazit näher eingehen.

Der Beitrag von OpenAI vergegenwärtigt den Lesern, dass Sprachmodelle keine absoluten Wahrheiten lernen, sondern Wahrscheinlichkeiten: Welches Token folgt mit welcher Wahrscheinlichkeit auf ein anderes? Wenn ein Faktum wie ein Geburtsdatum im Trainingskorpus nur einmal vorkommt oder objektiv falsch ist, kann das Modell dieses nicht zuverlässig reproduzieren. „Garbage in, garbage out“ gilt unverändert. Hier berührt das Paper ein zentrales Thema, das es selbst aber nur unzureichend adressiert: die Qualität und Herkunft der Trainingsdaten. In der offiziellen Darstellung heißt es verkürzt, man nutze „große Textkorpora“. Aber welche genau? Unter welchen Lizenzen? Mit welcher Korrektur?

Trainingsgrundlage sind öffentlich zugängliche Repositories, Dumps von Wikipedia, Foren, Blogposts und große Mengen aus GitHub im Fall von Code. Doch wer GitHub kennt, weiß: Dort findet sich nicht nur hilfreicher, fertiger Code, sondern auch fehlerhafte, veraltete oder sogar manipulierte Repositorys. Ein Modell, das auf dieser Basis trainiert, erbt diese Schwächen. Hinzu kommt die Möglichkeit gezielter Datenvergiftung: Wer präparierte Inhalte einspeist, kann das Verhalten späterer Modelle beeinflussen.

Im Bericht ebenfalls ausgeklammert bleibt die Rolle manueller menschlicher Arbeit. Clickworker, die Antworten bewerten und Normen setzen, sind im Reinforcement-Prozess unverzichtbar. Sie entscheiden, welche Fehler toleriert und welche bestraft werden, welche Antworten als hilfreich gelten und welche nicht. Dass diese Arbeit im Paper praktisch unsichtbar bleibt, ist bezeichnend. Häufig arbeiten hier externe Mitarbeiter zu Dumping-Löhnen oder eigens hierfür trainierte Sprachmodelle steuern den Prozess.

Post-Training: Ist gut geraten halb gewusst?

Noch deutlicher zeigt sich das Problem im Post-Training. Sprachmodelle werden nach Benchmarks optimiert, die im Kern jede Antwort belohnen, selbst falsche. Das Paper beschreibt dies mit der Analogie zu Studierenden in einer Prüfung: Wer keine Ahnung hat, kreuzt trotzdem lieber etwas an, weil es immer noch eine Chance auf Punkte gibt. „Guessing when unsure maximizes expected score under a binary 0-1 scheme“, heißt es dort.

Übertragen bedeutet das: Sprachmodelle lernen dadurch, immer zu antworten. „I don’t know“ bringt null Punkte, eine geratene Antwort immerhin die Möglichkeit, zufällig richtigzuliegen. So entsteht aus der grundlegenden Funktionsweise von LLMs, bestimmte Heuristiken zu erfüllen, ein systematischer Anreiz zum Raten.

Wer sich erinnert: Als ChatGPT startete, war das Modell auffällig vorsichtig. Es betonte Unsicherheiten, verwies auf seine Grenzen. Doch Nutzer wünschten bald autoritativere Antworten. Und die Entwickler passten das Verhalten an. Heute gilt: Wer nie „Ich weiß es nicht“ sagt, erscheint marktfähiger. Damit werden Halluzinationen nicht nur in Kauf genommen, sondern geradezu gefördert.

Das Problem wird durch die Rolle der Benchmarks verstärkt. Was ursprünglich eher aus der Forschung entstand, wurde schnell zum Marketingvehikel. Rankings, die sich aus rein nutzerorientierten Vergleichen wie der Chatbot Arena oder Scores von vermeintlich objektiveren Tests speisen, entscheiden darüber, welches Modell als führend wahrgenommen wird. Platzierungen wirken auf Investoren, Medien und Kunden und sie beeinflussen natürlich auch die Entwicklungsstrategien der Anbieter.

Die Tennisbegeisterten werden sich erinnern: Als vor einigen Jahren die Logik für die Weltrangliste verändert wurde, mussten Spieler, Turniere und Sponsoren ihre Strategien komplett neu ausrichten. Rankings sind nie neutral. Sie strukturieren ganze Ökosysteme.

So auch hier: Solange Benchmarks bestimmte Antworten belohnen, egal ob korrekt oder nicht, optimieren Anbieter ihre Modelle auf genau dieses Verhalten. Und so im Zweifel auf das Raten. Halluzinationen sind dadurch strukturell eingebaut. Eine Reform der Benchmarks wäre deshalb ein für die Seriosität von LLMs ein begrüßenswerter, wenn auch tiefer Eingriff, sowohl technisch, wirtschaftlich als auch kommunikativ.

OpenAI schlägt in seinem Paper eine Korrektur vor: Confidence Targets. Ein Modell soll nur dann antworten, wenn es eine bestimmte Sicherheitsschwelle überschreitet. Liegt die Sicherheit darunter, bringt eine falsche Antwort nicht nur null Punkte, sondern einen Malus. Konkret ist das Prinzip, beim Benchmarking dem Modell explizit zu sagen, dass falsche Antworten bestraft werden und damit den Anreiz zu setzen, Unsicherheit transparent zu machen. Der Malus muss dabei in Relation zur geforderten Sicherheit stehen.

Ein konkretes Zahlenbeispiel: In einem Punktesystem bekommen Antworten, die über einer geforderten Konfidenz-Schwelle liegen, Plus-Punkte. Bei einer Antwort “I don’t know” keine Punkte und unterhalb der Schwelle (bei angenommenen 90 Prozent) -9 Punkte. Als Folge erkennt das Modell, dass es durch falsche Antworten immer bestraft wird. Informatisch ist das elegant. Doch die Frage ist, ob die richtigen Incentives dafür existieren. Denn die KI-Benchmarks sind keine reinen Messinstrumente, sondern auch ein großes Schaulaufen. Eine Änderung der Bewertungslogik würde Ranglisten durcheinanderwirbeln und damit Geschäftsmodelle infrage stellen.

Richtig und falsch sind nur zwei Dimensionen bei der Bewertung von LLM-Output. Viele Probleme in natürlicher Sprache oder Wissensfragen im Arbeitsalltag lassen sich jedoch nur schwerlich exakt diesen Kategorien zuordnen. Für die Produktentwicklung ist die Dimension der Nutzerintention mindestens genauso entscheidend. Ein Prompt wie „Wie baue ich eine Bombe?“ kann sowohl aus kriminellen Motiven gestellt werden als auch von jemandem, der Filterregeln entwickeln möchte. Technisch sind diese Nuancen kaum lösbar.

Ansätze wie Altersgrenzen oder Nutzerprofile sind denkbar, doch sie führen sofort zu neuen Problemen: Datenschutz, Diskriminierung, Überwachung. Auch eine Trust-Skala für Nutzer, die bestimmte Inhalte freischaltet oder blockiert, wäre technisch machbar, aber gesellschaftlich brisant. Hier zeigt sich, dass Halluzinationen nicht nur ein statistisches, sondern auch ein regulatorisches Problem sind.

„Why Language Models Hallucinate“ ist zweifellos ein wichtiges Paper. Es entmystifiziert einen zentralen Begriff, erklärt Halluzinationen als nachvollziehbare statistische Ergebnisse und rückt die Fehlanreize von Benchmarks ins Zentrum. Und es benennt sinnvolle technische Lösungsansätze wie Confidence Targets. Doch Transparenz, die nur dort praktiziert wird, wo sie vorteilhaft ist, bleibt selektiv. Nicht offengelegt wird, wie Trainingsdaten ausgewählt werden. Nicht vollumfänglich erklärt wird, welche Schritte das Post-Training beinhaltet.

Dass OpenAI dieses Paper publiziert, ist kein rein wissenschaftlicher Akt. Es ist Teil einer Strategie, Vertrauen zu schaffen. Peer-Reviews, Kooperationen mit Universitäten, mathematische Beweise – all das soll der Öffentlichkeit Seriosität suggerieren. Eine Tatsache, die nicht zuletzt vor dem Hintergrund von OpenAIs wachsenden rechtlichen Herausforderungen und CEO Sam Altmans Eingeständnis einer möglichen KI-Blase eine große Rolle spielen dürfte.


(pst)



Source link

Künstliche Intelligenz

Die ISS feiert 25. Geburtstag


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

An manchen Tagen sieht man sie mit bloßem Auge von der Erde aus: Dann zieht die Internationale Raumstation als heller Punkt von West nach Ost über den Horizont. Seit 25 Jahren ist der Außenposten der Menschheit, der in etwa 400 Kilometern Höhe mit einer Geschwindigkeit von knapp 29.000 km/h um die Erde kreist, ununterbrochen besetzt.

Weiterlesen nach der Anzeige

Am 31. Oktober 2000 startete vom Weltraumbahnhof Baikonur in Kasachstan ein Sojus-Raumschiff in die Erdumlaufbahn. An Bord waren die beiden Kosmonauten Juri Gidsenko und Sergej Krikaljow sowie der Astronaut William Shepherd. Ihr Ziel war die Internationale Raumstation (International Space Station, ISS), an der sechzehn Nationen seit 1998 gebaut hatten und die zu dem Zeitpunkt aus dem Fracht- und Antriebsmodul Sarja, dem Verbindungsknoten Unity (Node 1) sowie dem Wohnmodul Swesda bestand.

Am 2. November 2000 betrat die erste ISS-Crew die Station. Gidsenko, Krikaljow und Shepherd, die über vier Monate auf der ISS blieben, sollten die Station erst einmal einrichten: Container auspacken, das Kommunikationssystem, die Toilette und Überlebenssysteme in Betrieb nehmen, erste wissenschaftliche Experimente starten.

Inzwischen ist die ISS auf 16 druckbeaufschlagte Module angewachsen – acht amerikanische und sechs russische sowie je eines aus der Europäischen Union und Japan. Die Fläche der Station entspricht etwa der eines Fußballfeldes.

Die ISS war nicht die erste Raumstation: Die Sowjetunion startete 1971 die Saljut 1, die ein halbes Jahr, von April bis Oktober 1971, im All blieb. Es folgten weitere Saljut-Stationen sowie von 1986 bis 2001 die Mir. Die USA schossen 1973 das Skylab in den Orbit, das aus einer nicht genutzten Saturn-Raketenstufe bestand und nur von Mai 1973 bis Februar 1974 bewohnt war. Aus Geldmangel gab es bis zum Verglühen im Juli 1979 keine weiteren Missionen mehr zu Skylab.

In der Aufbruchsstimmung nach dem Zusammenbruch des Ostblocks entstand die Idee einer gemeinsamen Raumstation als Außenposten der Menschheit im All. Ein Nebenaspekt war, russische Raketenwissenschaftler zu beschäftigen, damit diese nicht ballistische Raketen für andere Auftraggeber entwickeln.

Wachsenden Spannungen zwischen West und Ost im neuen Jahrtausends zum Trotz war die ISS lange ein erfolgreiches Projekt: Knapp 300 Menschen aus 23 Nationen waren inzwischen dort, darunter vier Deutsche: Thomas Reiter (2006), Hans Schlegel (2008), Alexander Gerst (2014 und 2018) und Matthias Maurer (2021/22). Auch mehrere Weltraumtouristen besuchten die Station, darunter 2001 der kalifornische Millionär Dennis Tito und im Jahr darauf Ubuntu-Initiator Mark Shuttleworth.

Weiterlesen nach der Anzeige

Die Station spielte in mehreren Spielfilmen eine Rolle, darunter „Gravity“ mit Sandra Bullock und George Clooney. Allerdings diente sie nur einmal wirklich als Drehort: 2021 drehte ein russisches Team dort für den Film „Die Herausforderung“.

Für die Wissenschaft ist die Station extrem wertvoll: Rund 4000 Experimente haben die Besatzungen an Bord durchgeführt. Die Langzeitaufenthalte führten etwa zu neuen Erkenntnissen über die Reaktion des menschlichen Körpers auf weitgehende Schwerelosigkeit. Auf der Station wurden Salat und Blumen gezüchtet. Mit verschiedenen 3D-Druckern wurden Teile aus Kunststoff oder Metall und sogar künstliches Gewebe hergestellt.

In den 25 Jahren hat die Station vor allem einen wichtigen Wandel in der Raumfahrt mitgemacht: Anfangs waren es die Raumfahrtbehörden NASA und Roskosmos, die Besatzungen und Versorgungsgüter zu der Station brachten. Inzwischen haben zumindest auf westlicher Seite Privatunternehmen diese Aufgaben übernommen. Nach dem Ende des Space-Shuttle-Programms 2011 hat sich die NASA zurückgezogen und hat Flüge zur ISS an Raumfahrtunternehmen, allen voran SpaceX, übertragen.

Das hat auch schon zu kuriosen Ereignissen geführt: Wegen eines Defekts an der Raumfähre des US-Konzerns Boeing hing deren Besatzung, bestehend Suni Williams und Barry Wilmore, neun Monate auf der ISS fest. Geplant waren acht Tage.

Seit der russischen Invasion der Ukraine Anfang 2022 ist das Verhältnis zwischen den USA und Russland angespannt. Mehrfach drohte der damalige Roskosmos-Chef Dmitri Rogosin den USA unter anderem damit, die ISS abstürzen zu lassen. Russland ist dafür zuständig, die ISS auf ihrer Bahn zu halten und regelmäßig Korrekturmanöver durchzuführen. Nach einigem Hin und Her einigten sich beide Nationen jedoch auf eine Weiterführung der Zusammenarbeit und des Betriebs der ISS.

Lesen Sie auch

Ein Ende ist jedoch vorgezeichnet: Voraussichtlich 2031 endet die Mission der ISS. Die Station wird dann kontrolliert abgesenkt und soll beim Wiedereintritt in die Erdatmosphäre verglühen. Das Absenkmanöver soll SpaceX durchführen.

Das Ende der ISS wird aber nicht das Ende einer dauerhaften Präsenz der Menschheit im All: China hat 2022 die Station Tiangong („Himmelspalast“) fertiggestellt. Der Westen plant die Station Lunar Orbital Platform-Gateway, die als Zwischenstation für Missionen zum Mond und in den weiteren Weltraum dienen soll. Daneben wollen einige private Raumfahrtunternehmen wie Axiom Space Stationen im All errichten.

Eine Feier des Jubiläums gibt es nicht: Wegen der Haushaltssperre in den USA stellen die Bundesbehörden ihre Arbeit weitgehend ein. Die NASA ist deshalb geschlossen. Wer die ISS mit eigenen Augen sehen will, hat dazu Ende der kommenden Woche wieder Gelegenheit.


(wpl)



Source link

Weiterlesen

Künstliche Intelligenz

iOS 26.1 & Co: Apple aktualisiert die Liquid-Glass-Systeme


Weiterlesen nach der Anzeige

Update-Reigen für Apple-Geräte: Der Hersteller hat am Montagabend die Version 26.1 für iPhones, iPads, Macs und Apple Watches zum Download freigegeben. Es ist das erste größere Update für iOS, iPadOS, macOS sowie watchOS 26, das seit Mitte September verfügbar ist. Zentral ist ein nachgelieferter Hauptschalter, um das noch junge Liquid-Glass-Design anzupassen: Es lässt sich in den Einstellungen auf „Eingefärbt“ umschalten und macht die gläsernen Bedienelemente weniger durchsichtig – sowie Mitteilungen auf dem Sperrbildschirm besser lesbar.

Die frische Version bringt mehrere Neuerungen für die Betriebssysteme, darunter feinere Einstellungsmöglichkeiten für lokale Mitschnitte von Videocalls und eine weitere Geste, um schneller zwischen Songs in Apple Music zu springen. Auf iPads bringt Apple die in iPadOS 26.0 plötzlich fehlende Slide-Over-Ansicht zurück, wenn auch in abgeänderter Form. Zudem unterstützt iPadOS jetzt weitere aus macOS bekannte Befehle zur Fenster- und App-Steuerung, darunter „Beenden“ und „Ausblenden“.

Laut Apple werden die AutoMix-Übergänge von Apple Music nun auch bei der Audioausgabe über AirPlay unterstützt. Zudem verspricht der Hersteller eine bessere Qualität bei FaceTime-Audio-Calls mit geringer Bandbreite. Auf Apple-Accounts von Jugendlichen sind jetzt automatisch Webfilter aktiv, die pornografische Webseiten blockieren sollen.

Ebenfalls erhältlich sind visionOS 26.1 sowie tvOS 26.1. Für ältere iPhones und iPads, die sich nicht auf iOS 26 aktualisieren lassen, stellt Apple außerdem Patches mit iOS 18.7.2 und iPadOS 18.7.2 bereit. Nutzer von macOS 15 und macOS 14 finden ebenfalls Updates in der Software-Aktualisierung.

Weiterlesen nach der Anzeige

Alle Updates liefern nach Apples Angabe auch wichtige Sicherheitsverbesserungen. Details zu den beseitigten Sicherheitslücken folgen gewöhnlich im weiteren Verlauf des Abends. Mit Version 26.1 scheint Apple sein bislang holpriges System für dringende Sicherheits-Patches, die außerhalb der Reihe erscheinen, auf neue Beine zu stellen. Auch dazu stehen konkrete Informationen jedoch noch aus.


(lbe)



Source link

Weiterlesen

Künstliche Intelligenz

Bundesnetzagentur verschärft Sicherheitsanforderungen für TK-Anbieter


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Auf die Betreiber von Telekommunikations- und Datenverarbeitungssystemen kommen erhöhte Sicherheitsvorschriften zu. Die Bundesnetzagentur hat dazu am Montag den Entwurf eines neuen Anforderungskatalogs veröffentlicht und zur Konsultation gestellt. Basis für die umfassende Novelle ist Paragraf 167 Telekommunikationsgesetz (TKG). Mit dem Schritt will die Regulierungsbehörde den Katalog an die TKG-Novelle 2021 und den aktuellen Stand der Technik anpassen. Ziel ist, die Schutzmaßnahmen der Anbieter von TK-Diensten gegen aktuelle Bedrohungen und neue, technologiegetriebene Gefährdungspotenziale auch im Lichte der jahrelangen Huawei-Debatte zu verschärfen.

Weiterlesen nach der Anzeige

Eine wesentliche Neuerung ist die Erweiterung des Adressatenkreises aufgrund der überarbeiteten Definition von Telekommunikationsdiensten nach Paragraf 3 TKG. Einbezogen werden Anbieter nummernunabhängiger interpersoneller Kommunikationsdienste – dazu gehören Messenger-Dienste wie WhatsApp, Signal oder Threema. Diese müssen demnach künftig angemessene Vorkehrungen zum Schutz des Fernmeldegeheimnisses und personenbezogener Daten treffen.

Um die Maßnahmen verhältnismäßig zu halten, unterteilt die Behörde die Verpflichteten in drei Stufen von Gefährdungspotenzialen, die wiederum mit einem spezifischen Anforderungsprofil einhergehen. Ein erhöhtes Gefährdungsrisiko liegt vor, wenn eine „herausragende Bedeutung für das Gemeinwohl“ besteht. Entsprechende Betreiber müssen die vorgesehenen vollumfänglichen Schutzmaßnahmen einhalten. Ein „normales“ oder „gehobenes“ Gefährdungspotenzial soll vorliegen, wenn Anbieter weniger als zehn Mitarbeiter und einen Jahresumsatz von unter zwei Millionen Euro haben beziehungsweise eine überschaubare „Bedeutung für das Gemeinwohl“ haben.

Den Kern der Verschärfung bildet die Behandlung von 5G-Netzen, die ein zentrales neues Gefährdungspotenzial darstellen und pauschal dem erhöhten Gefährdungspotenzial zugeordnet werden. Der Regulierer begründet das damit, dass 5G-Netze das künftige Rückgrat digitalisierter Volkswirtschaften darstellten, Milliarden von Systemen verbänden und sensible Informationen in Kritischen Infrastrukturen (Kritis) verarbeiteten.

Betreiber eines öffentlichen 5G-Mobilfunknetzes sollen daher zusätzlich spezifische Sicherheitsanforderungen erfüllen müssen. So trifft sie dem Entwurf nach etwa die Pflicht, kritische Funktionen und zugehörige Komponenten im Sinne des Gesetzes für das Bundesamt für Sicherheit in der Informationstechnik (BSI) festzulegen sowie diese Bestandteile zertifizieren zu lassen.

Laut der gesetzlich verankerten „Huawei-Klausel“ kann die Bundesregierung den Einsatz „kritischer Komponenten“ bei „voraussichtlichen Beeinträchtigungen der öffentlichen Sicherheit und Ordnung“ untersagen. Hersteller müssen eine Garantieerklärung abgeben.

Weiterlesen nach der Anzeige

Die vorgesehenen 5G-Sonderregelungen umfassen zudem Anforderungen zur Diversität in der Lieferkette und im Netzaufbau zum Reduzieren systemischer Risiken. Hinzu kommen sollen spezifische Maßnahmen zum Schutz der Identität und Privatheit der Teilnehmer sowie zum Sicherstellen der Vertraulichkeit und Integrität von Nutz- und Signalisierungsdaten. Enthalten sind ferner besondere Schutzvorkehrungen gegen Angriffe auf eine virtuelle Netzarchitektur sowie beim Einsatz von Cloud-Diensten.

Mit Anhang C konkretisiert die Bundesnetzagentur die technischen Anforderungen für paketvermittelte Netze, deren Anbindung an das Internet ein erhebliches Gefahrenpotenzial birgt. Die Maßnahmen decken aktuelle Cyber-Bedrohungen wie DDoS-Angriffe sowie Vorgaben zum Implementieren von DNSSEC (DNS Security Extensions) und Schutzmechanismen gegen Cache-Poisoning ab. Auch die Inter-Domain-Routing-Sicherheit soll erhöht werden durch Vorkehrungen zum Absichern des BGP-Routings (Border Gateway Protocol). Die Weitergabe falscher Routing-Informationen will die Behörde verhindern, Datenverkehr mit gefälschten Quell-IP-Adressen unterbinden. Enthalten sind zudem weitere Vorschriften zum Schutz vor Malware sowie zur Abwehr von Spam und Phishing.

Der Entwurf stellt im Kern die technische und regulatorische Umsetzung der politischen Entscheidung dar, die Sicherheit deutscher 5G-Netze signifikant zu erhöhen. Zugleich sollen die Risiken, die von Komponenten aus nicht-vertrauenswürdigen Staaten wie China ausgehen könnten, gemindert werden.

„Aufgrund der sich verändernden Gefährdungslage ist nachvollziehbar, dass der Sicherheitskatalog auf den Prüfstand gestellt wird“, erklärte Sven Knapp, Leiter des Hauptstadtbüros des Bundesverbands Breitbandkommunikation (Breko), heise online. „Telekommunikationsanbieter tragen eine große Sicherheitsverantwortung, da stabile Datenverbindungen in vielen Bereichen überlebenswichtig sind.“ Auch mit Blick auf die aktuelle geopolitische Lage investierten die Betreiber schon von sich aus immer stärker in die IT- und Netzsicherheit.

Im Einklang mit den Gesetzesvorgaben hat der Regulierer das Papier gemeinsam mit dem BSI und der Bundesdatenschutzbeauftragten Louisa Specht-Riemenschneider erstellt. Hersteller und Verbände können bis zum 19. Dezember Stellung dazu nehmen, bevor die Vorschriften finalisiert werden.


(wpl)



Source link

Weiterlesen

Beliebt