Datenschutz & Sicherheit
Österlicher Zertifikats-GAU bei D-Trust: Zehntausende Zertifikate ungültig
Kurz vor den Osterfeiertagen erreichte viele Admins eine unangenehme E-Mail: Ihre TLS-Zertifikate, unerlässlich für den Betrieb verschlüsselter Webseiten oder Mailserver, mussten bis Ostermontag zurückgezogen und neu ausgestellt werden. Nun teilte die verantwortliche Zertifizierungsstelle D-Trust mit, dass sie im vergangenen Jahr fast 60.000 Zertifikate ausgestellt hat, die den strengen Vorgaben des zuständigen Standardisierungsgremiums nicht genügten.
Weiterlesen nach der Anzeige
Das „CA/Browser Forum“ CA/B verwaltet diese „Baseline Requirements“, nach denen sich jede Zertifizierungsstelle (CA) richten muss, um die existenzsichernde Verankerung in den großen Webbrowsern nicht zu riskieren. Deren Entwickler, allen voran das Team hinter Chrome und Mozilla, sind bei Verstößen nicht zimperlich und greifen bei Bedarf zum Bannhammer. Die Baseline Requirements umfassen neben Vorgaben zur Gültigkeitsdauer und Zertifikatsverwendung auch Richtlinien zur Fehlerprüfung und Berichtspflichten.
Drei Tage zu lang
Seit dem 15. März 2026 gilt etwa: Zertifikate dürfen maximal 200 Tage lang gültig sein. Dennoch stellte D-Trust an diesem Tag mehrere sogenannte „Precertificates“ aus, die drei Tage länger gültig waren. Zunächst als lässliche Sünde eingestuft – Precertificates sind keine für Webserver nutzbaren Zertifikate, sondern so etwas Ähnliches wie ein Versprechen, ein Zertifikat mit identischen Daten auszustellen – ergab sich im Laufe der Diskussion des Vorfalls ein neues Bild.
Plötzlich fragten die gestrengen Prüfer des CA/B, wie D-Trust denn Zertifikate vor der Ausstellung auf Korrektheit überprüfe – was seit 15. März 2025, also bereits über einem Jahr, Pflicht für CAs ist. Das sogenannte „Linting“ soll seitdem Fehler verhindern, die die Sicherheit des TLS-Ökosystems gefährden könnten – und die Konformität mit den Regeln der BR sicherstellen. Mit ZLint und PKILint existieren zwei Werkzeuge fürs Linting, die als Industriestandard gelten – D-Trust hatte jedoch hausgemachte Prüfsysteme und schätzte diese noch Mitte März als ausreichend ein.
Diese Einschätzung revidierten die Berliner jedoch Anfang April nach einer Überprüfung durch einen ungenannten externen Experten. Man sei zu dem Schluss gekommen, dass die bisherige Prüfpraxis nicht der Vorgabe genüge, somit müsse man alle seit Mitte März 2025 ausgestellten Zertifikate zurückziehen, konstatierte D-Trust.
Am 2. April (Gründonnerstag) stellte die zur Bundesdruckerei gehörende CA ihre Prozesse auf ZLint und PKILint um und benachrichtigte ihre Kunden über die bevorstehende Tauschaktion. Bis Ostermontag zog die CA alle betroffenen und noch gültigen Zertifikate zurück, nach heise-Schätzungen mehrere Tausend. Insgesamt stellte D-Trust 57.565 formal ungültige TLS-Zertifikate aus.
Weiterlesen nach der Anzeige
Glück im großen Unglück
Denn auch das darf nicht unerwähnt bleiben: Die Nichtkonformität der Zertifikate ist ein rein formaler Verstoß – ein tatsächlicher Schaden, etwa durch betrügerische Zertifikatsvergaben, ist höchstwahrscheinlich nicht entstanden. Dieses Fazit zieht auch D-Trust: „Das Konformitätsproblem trat [..] zutage, bevor weitere Vorfälle passieren konnten.“ Man wolle nun gründlich durchfegen und stelle alle Prozesse und Vorgänge rund um die Zertifikatsvergabe auf den Prüfstand. Und auch das CA/Browser Forum wird den Vorgang wohl nicht auf sich beruhen lassen.
Der österliche Zertifikats-GAU ist eines der Themen in der aktuellen Folge von „Passwort – der Podcast von heise Security“, verfügbar auf allen Podcast-Plattformen.
(cku)
Datenschutz & Sicherheit
YubiKey Manager: Sicherheitslücke ermöglicht Ausführung untergeschobenen Codes
Eine Schwachstelle in YubiKey Manager, libfido2 und python-fido2 ermöglicht Angreifern, der Software Schadcode unterzuschieben. Yubico stellt aktualisierte Softwarepakete bereit, die die Lücken stopfen sollen.
Weiterlesen nach der Anzeige
Davor warnt Yubico in einer Sicherheitsmitteilung. Für die Open-Source-Projekte YubiKey Manager, libfido2 sowie python-fido2 stehen seit Mittwoch dieser Woche aktualisierte Quellen respektive Installer bereit. Sie schließen alle Schwachstellen, die unter Windows aufgrund eines Problems mit dem DLL-Suchpfad auftreten können. Haben Angreifer die Möglichkeit, Dateien im Installationsverzeichnis der betroffenen Software abzulegen, können sie dadurch eigenen Code zur Ausführung bringen.
Die verwundbare Software nutzt die Funktionen LoadLibrary(TEXT("DLL_NAME")), was den Suchpfad nicht auf das System32-Verzeichnis beschränkt. Durch die Nutzung von LoadLibraryExW(L"DLL_NAME", NULL, LOAD_LIBRARY_SEARCH_SYSTEM32) respektive WinDLL("DLL_NAME", winmode=LOAD_LIBRARY_SEARCH_SYSTEM32) korrigieren die Yubico-Entwickler den sicherheitsrelevanten Fehler jedoch. Wenn die betroffene Software mit Administratorrechten auf den Verzeichnissen geschützt ist, würden Angreifer ebenfalls diese Zugriffsrechte benötigen, schränkt Yubico jedoch ein (CVE-2026-40947, CVSS 7.0, Risiko „hoch“). Abweichend von Yubicos Einschätzung stuft MITRE die Lücke lediglich als niedriges Risiko ein (CVSS 2.9, Risiko „niedrig“).
Aktualisierte Software schützt
Yubico empfiehlt Nutzern und Nutzerinnen, auf die fehlerkorrigierten Versionen zu aktualisieren: libfido2 1.17.0, python-fido2 2.2.0 sowie yubikey-manager 5.9.1. Entwickler, die die verwundbaren Bibliotheken in ihren Apps verwenden, sollten die Microsoft-Hinweise zum Schutz vor DLL-Preloading-Angriffen nachvollziehen, um ihre Software vor diesen Arten von Angriffen zu schützen.
Vor rund zwei Jahren hatte Yubico bereits eine Sicherheitslücke in YubiKey Manager geschlossen, die Angreifern die Ausweitung ihrer Rechte im System ermöglichte. Im September 2024 erlangte ein Cloning-Angriff über einen Seitenkanal in der Firmware von Yubikey-Hardware Bekanntheit. Er hat den Namen EUCLEAK erhalten.
(dmk)
Datenschutz & Sicherheit
Ärger mit aktueller NordVPN-App für macOS
Wer den Mac-Client von NordVPN verwendet, hat unter Umständen derzeit Schwierigkeiten: Zahlreiche Nutzer auf Reddit und anderen Foren melden diverse Fehler nach der großen Aktualisierung auf Version 10 der App. Diese wird unter anderem per Mac App Store vertrieben und ermöglicht die Verwaltung des Dienstes – darüber sucht man etwa aus, welche Technik verwendet werden soll und welche Ausgangs-IP genutzt wird. Nun kommt es vor, dass die Verbindung nicht gehalten wird und sich alle paar Minuten bis Sekunden neu herstellt, hieß es. Probleme gab es auch bei den DNS-Einstellungen und der Kill-Switch-Funktion, die sich zwischenzeitlich nicht deaktivieren ließ. Insgesamt soll die App nur langsam laufen und Bedienschwierigkeiten machen. Nutzer konnten das Problem auch nach mehreren Neustarts nicht beheben.
Weiterlesen nach der Anzeige
Techniker ist informiert
Weder die Mobil- noch die Windows-Versionen des NordVPN-Clients sollen betroffen sein, mancher Mac-Nutzer sieht die Fehler ebenfalls nicht. Momentan ist noch unklar, woran das liegt – möglicherweise arbeitet die Software je nach verwendetem Betriebssystem, also etwa macOS 15 (Sequoia) oder 26 (Tahoe) anders. NordVPN bestätigte das Problem mittlerweile und teilte mit, dass man ein „langsameres App-Verhalten, Lags bei der Navigation zwischen Eintstellungsbildschirmen und Tabs und eine erhöhte CPU-Last” erkannt hat.
Es handele sich dabei um ein bekanntes Problem und die Ingenieure seien gerade dabei, eine Lösung „zu identifizieren und zu implementieren”. NordVPN entschuldige sich dafür. Mittlerweile ist klar, wann die Lösung kommt: Bereits im Laufe des heutigen Freitags soll ein Hotfix auf Version 10.0.4 eingespielt werden, aktuell verteilt wird Version 10.0.3. Wer zuvor nicht auf NordVPN 10 aktualisiert hatte, wurde von dem Verhalten verschont.
Manuell konfigurieren geht auch
Hilfreich kann zuvor sein, den Cache der App zu löschen, was allerdings einen Ausflug in Systemordner bedingt – das sollten nur Nutzer machen, die wissen, was sie da tun.
Der Vorfall zeigt, dass es bei VPN-Anbietern nicht immer sinnvoll ist, deren eigene Clients zu verwenden, die zudem teils tief in das System eingreifen. Die meisten Firmen erlauben es parallel auch, den Dienst manuell zu konfigurieren. Das ist bei NordVPN auch so, zumindest wenn man OpenVPN nutzt. Hier lassen sich Konfigurationsdateien herunterladen. Offiziell wird diese Methode für WireGuard nicht unterstützt, allerdings gibt es Anleitungen, um an die Daten zu gelangen.
Weiterlesen nach der Anzeige
(bsc)
Datenschutz & Sicherheit
Analyse: Vom Mythos zur Vulnocalypse und was jetzt wirklich zu tun ist
Anthropics Mythos und die Kommentare und Analysen rund um diese (Nicht-)Veröffentlichung dominieren das Security-Geschehen – und das zu Recht: Wir befinden uns aktuell mitten in einer Singularität, wie sie die IT-Security in den vergangenen 10 Jahren nicht gesehen hat. Allerdings produziert das auch Hype, der von den eigentlich wichtigen Dingen ablenkt. Nicht zuletzt deshalb, weil Anthropic sich entschieden hat, das Ganze vor allem als PR-Booster der eigenen Interessen zu nutzen. Deshalb möchte ich einen Schritt zurücktreten und nüchtern analysieren, was tatsächlich das Problem ist, mit dem wir uns konfrontiert sehen – und was daraus für die jetzt nötigen Schritte folgt.
Weiterlesen nach der Anzeige
Zunächst: Das Problem ist nicht Anthropics Mythos. Auch andere LLMs hätten die von Mythos aufgedeckten Sicherheitslücken finden können; der aktuelle Vorsprung von Anthropic ist angesichts der sich abzeichnenden Entwicklung nicht relevant. Es ist auch nicht so, dass Angreifer jetzt plötzlich neue, nie dagewesene Fähigkeiten hätten, denen wir machtlos gegenüberstehen. Unser Problem ist Folgendes: LLMs haben jetzt die Fähigkeit, selbstständig echte Sicherheitslücken in Software zu finden. Sie können diese aber (noch?) nicht selbst beseitigen – und auch wenn sie das könnten, wären diese Fixes noch lange nicht beim Nutzer angekommen. Sprich: Das Finden und Ausnutzen von Sicherheitslücken lässt sich vollständig automatisieren und in industriellem Maßstab hochskalieren. Das Fixen dieser Lücken hingegen erfordert immer noch viel menschliche Beteiligung und wird deshalb auf absehbare Zeit deutlich langsamer erfolgen.
Die bevorstehende „Vulnocalypse“
Und das alles wird rasant noch sehr viel schlimmer werden. Die existierenden Bug-Fixing-Kapazitäten werden bereits jetzt in die Sättigung getrieben, während die Fähigkeit, neue Bugs zu finden, auf absehbare Zeit weiter steigen wird. Denn die befindet sich aktuell noch in einer sehr frühen Phase. Daraus folgt unmittelbar, dass uns eine Zeit bevorsteht, in der KIs sehr viel mehr Bugs finden, als gefixt werden können. Jedes System, das für Angreifer erreichbar ist, wird angreifbar sein, es wird angegriffen werden und es wird zu einer lange nicht dagewesenen Zahl von Sicherheitsvorfällen kommen. Wie lange diese Phase andauern wird und was danach kommt, werde ich später noch diskutieren. Wichtig ist jetzt erst mal, was sich bereits daraus ableiten lässt. Das Allerwichtigste:
Die Situation ist akut und jede:r, der/die für die Sicherheit von IT verantwortlich ist, sollte unmittelbar handeln und sich darauf vorbereiten.
Das lässt sich nicht mehr wegdiskutieren und „erstmal abwarten“ führt zu absehbaren Katastrophen. Die jetzt dringend erforderlichen Maßnahmen fallen in folgende Bereiche:
- Beschleunigen der Update-/Patch-Zyklen
- Reduzieren der Angriffsfläche
- Verbessern der Resilienz und Defense in Depth
- Vorbereiten auf den Ernstfall – genauer, die Ernstfälle, denn es wird nicht bei einem bleiben
- Auf die Wieder-Inbetriebnahme nach einem Vorfall vorbereiten
Ja, genau – das ist nichts Neues. All das hätte man bereits vor sechs Monaten genau so empfehlen können – und tatsächlich habe ich das sogar. Das kommt unter anderem daher, dass die KIs bislang keine neuartigen Schwachstellen aufdecken. Ob das so bleiben wird, ist eine andere, spannende Frage, die ich mir für später aufhebe. Doch alles, was Mythos & Co derzeit finden, hätte vor sechs Monaten auch ein Mensch aufspüren können. Nur war eben die Wahrscheinlichkeit für jeden einzelnen Fund so gering, dass wir uns da an vielen Stellen auch mit faulen Kompromissen irgendwie durchmogeln konnten. In diesem Bewusstsein haben wir über viele Jahre eine große Menge an Security-Schulden angehäuft. Und die werden jetzt fällig. Also in den nächsten sechs bis zwölf Monaten – um da mal eine konkrete Zahl in den Raum zu stellen. Und die werden ganz bitter.
Weiterlesen nach der Anzeige
Die fällige Neuorientierung
Deshalb ist es jetzt allerhöchste Zeit, sich darauf vorzubereiten. Also die oben aufgeführten Maßnahmen unter diesem Gesichtspunkt neu zu evaluieren und mit hoher Priorität auf die Agenda der nächsten Monate zu setzen. Da kann der Hype rund um Mythos sogar helfen. Selbst die Geschäftsführung hat vielleicht vom aufziehenden AI Vulnerability Storm und der Notwendigkeit gehört, sich auf Mythos vorzubereiten. Das liefert Anknüpfungspunkte, eigene Vorschläge zur Neubewertung der IT-Sicherheit zu unterbreiten.
Die werden fast schon zwangsläufig auch die Nutzung von KI einfordern, weil man nur mit deren Unterstützung die notwendige Geschwindigkeit bei der Umsetzung und bei der Abarbeitung der neuen Prozesse hinbekommen kann. Doch vieles geht auch ganz oder weitgehend ohne KI. Und das ist deshalb nicht weniger wichtig – im Gegenteil. Denn wie man etwa KI möglichst robust in den Update-/Patch-Zyklus einbaut, ist noch längst nicht wirklich klar. Wir können aktuell nur hoffen, dass die IT-Security-Industrie gemeinsam mit den KI-Firmen und Software-Entwicklern praktikable Lösungen findet und bereitstellt. Da kommen Anthropics Glasswing, OpenAIs Aardvark und unzählige innovative Projekte von KI-Startups wie AISLE und ZeroPath ins Spiel.
Die Rolle von KI
Doch noch wichtiger sind jetzt die klassischen Security-Basics, die wir viel zu lange vernachlässigt haben. Für Maßnahmen wie Segmentierung, Least Privilege, MFA oder auch Monitoring mit Deception und so weiter gibt es nämlich bereits bewährte Konzepte und Leitfäden. Deshalb würde ich solche soliden Security-Grundlagen sogar höher priorisieren und kurzfristiger umsetzen als zukunftsweisende, wirklich KI-getriebene Prozesse.
Trotz all der Kassandra-Rufe sehe ich die Rolle von KI in der IT-Sicherheit langfristig eher positiv. Denn es ist ja nicht so, dass wir da aktuell ein gut funktionierendes Gesamtkonzept hätten – ganz im Gegenteil. Das knirscht und versagt bereits seit Jahren an allen Ecken und Enden. Langfristig habe ich die Hoffnung, dass wir einen Zustand erreichen, in dem Verteidiger mehr von den Fähigkeiten der LLMs profitieren als die Angreifer. Denn das Fixen von Bugs skaliert letztlich besser als das Ausnutzen mit Real-World-Exploits. Und damit wird es realistisch, dass Software und die darauf aufbauende IT weitgehend sicher und resilient wird. Doch da reden wir von einem Zeithorizont von mehreren Jahren – und einem langen Weg, mit vielen Unbekannten und zahlreichen Möglichkeiten, völlig falsch abzubiegen. Sprich: „Die Lage ist hoffnungslos, aber nicht ernst.“
Diese Analyse schrieb Jürgen Schmidt ursprünglich für den exklusiven Newsletter von heise security PRO, wo er jede Woche das Geschehen in der IT-Security-Welt für Sicherheitsverantwortliche in Unternehmen einordnet:
Lesen Sie auch
(ju)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 1 MonatCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenInterview: Massiver Anstieg der AU‑Fälle nicht durch die Telefon‑AU erklärbar
-
Künstliche Intelligenzvor 2 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Entwickler, wacht auf – oder verliert euren Job
