Connect with us

Datenschutz & Sicherheit

Patchday SAP CRM, S/4HANA: Angreifer können Datenbanken beschädigen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Diverse Businesssoftware von SAP ist verwundbar. Angreifer können unter anderem an „kritischen“ Lücken in CRM and SAP S/4HANA (Scripting Editor) und NetWeaver Application Server ABAP and ABAP Platform ansetzen.

Weiterlesen nach der Anzeige

Aufgrund eines Fehlers können authentifizierte Angreifer im Kontext von CRM and SAP S/4HANA (Scripting Editor) SQL-Anweisungen ausführen und so Datenbanken vollständig kompromittieren (CVE-2026-0488 „kritisch“).

Bei NetWeaver Application Server ABAP and ABAP Platform spinnt die Rechtevergabe. Verfügen Angreifer über niedrige Nutzerrechte, können sie Funktionen ausführen, die eigentlich nur für höher privilegierte Nutzer nutzbar sind. Das kann die Verfügbarkeit der Anwendung einschränken (CVE-2026-0509 „kritisch“).

Sicherheitslücken mit dem Bedrohungsgrad „hoch“ bedrohen unter anderem Supply Chain Management (DoS CVE-2026-23689) und Commerce Cloud (DoS CVE-2025-0508). Der Großteil der verbleibenden Schwachstellen ist mit „mittel“ eingestuft und bedroht unter anderem Document Management System und Business One.

Die an diesem Patchday geschlossenen Sicherheitslücken listet der Softwarehersteller in seinem Portal auf. Weiterführende Informationen zu den Lücken und abgesicherten Versionen sind nur im Kundenportal einsehbar.

Weiterlesen nach der Anzeige


(des)



Source link

Datenschutz & Sicherheit

„Ein Social-Media-Verbot macht den Jugendschutz schlechter“


Bis zu ihrem 16. Geburtstag dürfen Kinder und Jugendliche in Australien keine Accounts auf Instagram, TikTok, YouTube oder Reddit haben. Seit dem 10. Dezember 2025 dürfen sie dort nichts liken, kommentieren oder gar selbst hochladen. Inhalte hinter einer Log-in-Schranke können sie sich nicht anschauen. Außer natürlich sie umgehen das Verbot mit simplen Werkzeugen wie VPN-Diensten.

Dieses australische Modell fordern inzwischen auch führende Politiker*innen in Deutschland und Europa. Zu den prominenteren Befürwortern gehört der französische Präsident Emmanuel Macron. Ende Januar hat ein französisches Gesetz die erste Hürde in der Nationalversammlung genommen, dem Unterhaus des Parlaments. Ähnliche Vorstöße gibt es auch in Spanien, Griechenland und Österreich.

In Deutschland hat die Bundesregierung zunächst eine Expert*innen-Kommission eingerichtet. Sie soll „Schritte für einen effektiven Kinder- und Jugendmedienschutz prüfen“. Dennoch ist die Debatte um ein Verbot bereits heißgelaufen. Sobald einzelne deutsche Politiker*innen das Social-Media-Verbot befürworten, machen Nachrichtenmedien daraus eine Schlagzeile.

Währenddessen setzt die EU-Kommission bereits bestehende Jugendschutz-Regeln weiter um. Jüngst hat sie deshalb ein Verfahren gegen TikTok gestartet. Im Visier: Das süchtig machende Design der Plattform, deren algorithmisch sortierte Feeds für ihre Sogwirkung bekannt sind. Grundlage ist das Gesetz über digitale Dienste (DSA), das darauf abzielt, Plattformen so zu gestalten, dass Kinder und Jugendliche dort sicherer unterwegs sind.

Ein aufmerksamer Beobachter der Politik rund um Jugendschutz im Netz ist der Medienrechtler Stephan Dreyer. Am Leibniz-Institut für Medienforschung beschäftigt er sich damit, was es heißt, mit digitalen Medien aufzuwachsen. Im Interview erklärt er, warum nationale Social-Media-Verbote in der EU auf tönernen Füßen stehen – und warum er ein Verbot für Minderjährige trotzdem kommen sieht.

„Es geht um die mentale Krise der Jugend“

netzpolitik.org: Stephan Dreyer, warum wollen alle Social Media für Minderjährige verbieten?

Stephan Dreyer: Das Thema kocht gerade global hoch. Zumindest medial wird kolportiert, dass wir eine mentale Krise der Jugend hätten. Demnach sind soziale Medien im schlimmsten Fall an dieser Krise schuld, im besten Fall sollen sie eine Mitschuld tragen. Als erstes ist Australien vorgeprescht. Seit dem 10. Dezember gibt es dort ein Social-Media-Verbot für unter 16-Jährige. Seitdem gibt es viele ähnliche Vorstöße, auch in Europa. Was mich daran überrascht, ist, wie entkoppelt der politische Diskurs von Rechtslage und Forschungslage stattfindet.

netzpolitik.org: Wie ist denn die Forschungslage?

Stephan Dreyer: Komplex. Es ist unglaublich schwer, Mediennutzung als kausale Ursache psychischer Erkrankungen nachzuweisen. Es verdichten sich allerdings Hinweise, dass bestimmte Nutzungsformen mit bestimmten Erkrankungen zusammenhängen. Zum Beispiel hängt negatives Körperbefinden stark zusammen mit dem sozialen Vergleich auf Social Media. Ein anderes Beispiel sind körperliche Beeinträchtigungen durch Schlafmangel, wenn Kinder und Jugendliche spät abends soziale Medien nutzen. Studien zeigen zwar die Zusammenhänge, aber wir wissen nicht, ob sie kausal sind. Andererseits hat der Staat auch eine Vorsorgeaufgabe, was das gute Aufwachsen von Kindern angeht.

netzpolitik.org: Ist das australische Modell eine gute Vorsorge?

Stephan Dreyer: Das wissen wir nicht. Es ist bisher nichts weiter passiert, als dass sich Plattform-Anbieter an das neue Gesetz gehalten und mehrere Millionen Accounts gelöscht und deaktiviert haben. Von einem Erfolg des Gesetzes lässt sich deshalb nicht sprechen. Denn es geht ja um die mentale Krise der Jugend. Bis wir hierzu Ergebnisse sehen, brauchen wir jede Menge gute Forschung und auch ein bisschen Zeit.

Nationales Social-Media-Verbot „nicht anwendbar“

netzpolitik.org: EU-Staaten wie Frankreich, Österreich, Spanien und Griechenland wollen nicht warten. Sie wollen das australische Modell. Und zwar sofort. Geht das?

Stephan Dreyer: Es gibt drei Hürden. Die erste ist die Frage, ob Mitgliedstaaten überhaupt ein tatsächlich anwendbares Social-Media-Verbot für Minderjährige einführen können. Das hängt mit dem bestehenden Europarecht zusammen. Dafür muss man in den Digital Services Act (DSA) schauen, der als Verordnung unmittelbar in allen Mitgliedstaaten gilt. Er ist vollharmonisierend, das heißt, er soll den unmittelbaren und abschließenden Rechtsrahmen für Plattform-Governance in der ganzen EU darstellen. Mitgliedstaaten haben also keine Spielräume, nationale Vorschriften für Online-Plattformen zu erlassen, die die gleichen Ziele wie der DSA verfolgen.

netzpolitik.org: Bevor wir über die anderen beiden Hürden sprechen – habe ich das richtig verstanden, ein einzelner EU-Staat darf gar kein nationales Social-Media-Verbot einführen?

Stephan Dreyer: Doch. Das Gesetz darf beschlossen werden. Aber es ist nicht anwendbar.

netzpolitik.org: Man darf das Gesetz haben, aber nichts damit machen?!

Stephan Dreyer: Genau. Der DSA hat als vollharmonisierendes EU-Recht sogenannten Anwendungsvorrang. Die Frage ist aber, was geschieht, wenn ein nationaler Gesetzgeber dennoch behauptet, das eigene Gesetz sei anwendbar. Und wenn Behörden dennoch anfangen, das Gesetz zu vollziehen. Dann müssten sich die Betroffenen – zum Beispiel Online-Plattformen – erst einmal wehren, und sagen: Das Gesetz ist doch nicht anwendbar. Oder aber sie fügen sich.

Es wäre nicht das erste Mal, dass so etwas passiert. Auch das NetzDG in Deutschland war eklatant europarechtswidrig. Es wurde dennoch beschlossen, in Teilen umgesetzt und später durch einen neuen Gesetzsakt abgeschafft. Es hat den ganzen Lebenszyklus eines Gesetzes durchlaufen.

„Schwere Eingriffe in die Teilhabe- und Kommunikationsrechte“

netzpolitik.org: Als Nicht-Jurist kann ich sagen, das ist verwirrend.

Stephan Dreyer: Es kann noch verwirrender werden. Denkbar sind Regulierungen, die Plattformen nicht direkt adressieren, aber dennoch praktisch dazu führen, dass Minderjährige bis zu einer Altersgrenze keine Social-Media-Accounts haben dürfen. Das schafft noch mehr Unklarheit, ob der Anwendungsvorrang des DSA eigentlich umgangen wird oder nicht. Ich weiß aber nicht, ob wir in diese Verästelungen hineingehen wollen.

netzpolitik.org: Lieber nicht. Ich bin noch am verarbeiten, dass sich Mitgliedstaaten sehenden Auges über EU-Recht hinwegsetzen könnten. Was ist das EU-Recht wert, wenn Staaten am Ende tun und lassen, was sie wollen?

Stephan Dreyer: Das ist, was mir Sorgen macht. Wenn Mitgliedstaaten sagen: Es gibt einen Rechtsrahmen, aber der ist uns egal, dann wirft das die Frage auf, ob man sich überhaupt noch an das Recht halten muss. Ich frage mich, welches Signal das senden soll.

netzpolitik.org: Wie lautet denn die zweite Hürde für nationale Social-Media-Verbote in der EU?

Stephan Dreyer: Die zweite große Hürde ist das Herkunftslandsprinzip. Selbst, wenn man um den Anwendungsvorrang herumkommt oder ihn ignoriert, muss sich ein Anbieter nur an die nationalen Vorgaben des EU-Landes halten, in dem er seine Niederlassung hat. Bei den meisten Social-Media-Anbietern ist das Irland. Das heißt, sie müssen sich an irisches Recht halten.

netzpolitik.org: Also solange Irland kein Social-Media-Verbot einführt, könnten Plattformen die Aufsichtsbehörden anderer Länder einfach abblitzen lassen. Verstanden. Und die dritte Hürde?

Stephan Dreyer: Das ist das Verhältnismäßigkeitsprinzip, dem jedes Gesetz genügen muss. Hier sind mehrere Fragen zu klären. Erfüllt das Gesetz einen legitimen Zweck? Klar ist Jugendschutz ein legitimer Zweck. Aber ist ein Social-Media-Verbot bis zu einer bestimmten Altersgrenze wirklich erforderlich, um diesen Zweck zu erreichen?

netzpolitik.org: … ist es das?

Stephan Dreyer: Hier ist die empirische Evidenz widersprüchlich. Einerseits gibt es die beschriebenen Zusammenhänge zwischen Social-Media-Nutzung und Beeinträchigungen der psychischen Gesundheit. Andererseits bringen soziale Medien für Minderjährige gewichtige Vorteile mit sich: Kommunikation, Information, Austausch mit Peer Groups.

Das wirft auch die Frage nach der Zumutbarkeit eines Social-Media-Verbot auf. Wir sprechen von schweren Eingriffen in die Teilhabe- und Kommunikationsrechte von Minderjährigen. Wenn es ein für den Zweck ebenso effizientes, milderes Mittel gibt, dann muss man das mildere Mittel wählen.

„Man steht vor einer Weggabelung“

netzpolitik.org: Mildere Mittel hat die EU mit dem DSA geschaffen. Betroffene Anbieter müssen demnach prüfen, welche Risiken ihre Dienste für Minderjährige haben und diese Risiken mindern. Aber das scheint die Fürsprecher*innen des Social-Media-Verbots überhaupt nicht zu interessieren. Ist mit dem DSA etwas nicht in Ordnung?

Stephan Dreyer: Aus Governance-Sicht bietet der DSA einen schönen Rechtsrahmen. Minderjährige werden nicht ausgeschlossen, aber Plattformanbieter sind laut Artikel 28 DSA dazu verpflichtet, altersangemessene Angebote zu gestalten. Sie müssen Funktionen und Inhalte altersgerecht anbieten. Mit Blick auf die Grundrechte von Kindern und Jugendliche ist das genau, was wir wollen.

netzpolitik.org: Also kann der DSA alle Sorgen lösen?

Stephan Dreyer: Das wissen wir noch nicht. Der DSA greift erst seit Feburar 2024. Es hat nochmal ein halbes Jahr gedauert, bis die EU-Kommission handlungsfähig geworden ist. Erst seit September 2024 gibt es Verfahren gegen Plattformen. Aber was dabei genau passiert, wissen wir nicht. Die EU-Kommission liefert hier leider kaum Transparenz. Ich kann verstehen, wenn Menschen sagen: Sie sehen nicht, dass etwas passiert. Es ist noch viel Luft nach Oben bei der Umsetzung von Artikel 28.

Wir sind communityfinanziert

Unterstütze auch Du unsere Arbeit mit einer Spende.

Das heißt, man steht vor einer Weggabelung. Entweder man sagt, wir müssen den Vollzug des geltenden Rechts stärker machen. Hier gab es nun gerade letzten Freitag die Mitteilung der EU-Kommission, dass sie in Bezug auf TikTok Verstöße gegen den DSA festgestellt hat. Oder man sagt: Wir müssen jetzt verbieten.

netzpolitik.org: Wer den Weg des Social-Media-Verbots wählt, hat diese großen Hürden vor sich. Warum tun Verbots-Befürworter wie Emmanual Macron oder Spaniens Ministerpräsident Pedro Sánchez so, als würden diese Hürden nicht existieren?

Stephan Dreyer: Ich kenne die Beweggründe im Einzelnen nicht. Es kann sein, dass Regierungen mit ihren Forderungen Handlungsfähigkeit und Handlungswillen beweisen wollen. Sie könnten den Eindruck erwecken wollen, Probleme anzupacken. Die Vorstöße könnten auch Probebohrungen sein, um zu prüfen, wie die Außenwelt reagiert. Es ist aber auch möglich, dass die Mitgliedsaaten vorpreschen, um die EU-Kommission und den EU-Gesetzgeber unter Zugzwang zu setzen.

„Mögliche Mehrheiten“ für EU-weites Verbot

netzpolitik.org: Könnte denn die EU selbst ein Social-Media-Verbot für Minderjährige einführen?

Stephan Dreyer: Ja. Sie könnte mit einer neuen Verordnung ältere Vorgaben überschreiben. Das hätte auch Folgen für den DSA. Anbieter könnten ihre bisherigen Vorsorgemaßnahmen für unter 16-Jährige einstellen. Sie müssten sich um die Jüngeren keine Gedanken mehr machen – denn die dürften laut neuem Gesetz nicht mehr auf ihren Plattformen sein. Ein Social-Media-Verbot macht den Jugendschutz auf Plattformen schlechter.

netzpolitik.org: Will die EU das?

Stephan Dreyer: Spätestens seit November 2025 zeichnet sich ab, dass alle drei Akteure der EU zu einem Social-Media-Verobt für Minderjährige bereit wären. Wir sehen, dass es im Rat und im EU-Parlament mögliche Mehrheiten dafür gibt. Kommissionspräsidentin Ursula von der Leyen hat im Herbst gesagt, dass sie Alterskontrollen zumindest prüfen will .

netzpolitik.org: Wie wahrscheinlich ist ein Social-Media-Verbot für Minderjährige in der EU?

Stephan Dreyer: Ich bin der Meinung, dass wir nicht mehr über das Ob sprechen, sondern nur noch über das Wie.

netzpolitik.org: Gerade sind Kommission, Parlament und Rat in den finalen Verhandlungen zur CSA-VO, der „Verordnung zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern“, bekannt als Chatkontrolle. Darin vorgesehen sind – je nach Ausgestaltung – auch strenge und verpflichtende Alterskontrollen für App-Stores und „interpersonelle Kommunikationsdienste“. Also Plattformen mit Chatfunktion. Kurzum, es kann auf Alterskontrollen für die meisten sozialen Medien hinauslaufen. Wo rutschen wir da gerade hinein?

Stephan Dreyer: Die Alterskontrollen stehen seit 2022 im Entwurf der EU-Kommission, doch die politische Diskussion hat sich allein an der Chatkontrolle entzündet. Jetzt ist die Zeit knapp, um noch viel dagegen zu tun. Es ist möglich, dass die Verhandlungen schon im Herbst abgeschlossen sind. Es kann also gut sein, dass wir schon sehr bald ein Gesetz haben, das strenge Alterskontrollen für viele Anbieter in der EU vorschreibt.

„Wir reden von einer Diskriminierungs-Technologie“

netzpolitik.org: Dann würde nur noch eine feste Altersgrenze für soziale Medien fehlen, und das australische Modell wäre komplett. Welche Folgen hätten solche Alterskontrollen für Europa?

Stephan Dreyer: Ein Gesetz für umfassende Altersüberprüfungen wäre erst der Anfang der Probleme. So eine Vorschrift ist vergleichsweise schnell geschrieben. Dann kommt die Umsetzung. Australien hat einen mehr als 1.000-seitigen Bericht darüber vorgelegt, wie unterschiedlich intrusiv verschiedene Technologien zur Altersüberprüfung sind, welche auch negativen Effekte sie haben können, welche Akzeptanzprobleme in der Bevölkerung sie mit sich bringen.

netzpolitik.org: Was bedeutet das für uns?

Stephan Dreyer: Wenn die Altersüberprüfungen kommen, werden wir uns noch umschauen. Und das meine ich nicht als Drohung. Wir reden von einer Diskriminierungs-Technologie, denn sie soll Menschen nach ihrem Alter diskriminieren. Und immer, wenn man so etwas tut, gibt es einen Fallout, also Fehler in beide Richtungen.

Es wird Menschen geben, die zu jung sind, aber die Altersprüfungen umgehen, und Menschen, die alt genug sind, aber keine Möglichkeit haben, das dem System zu beweisen. Das ist eine Standardsituation der Technikfolgenabschätzung. Je flächendeckener eine Technologie eingeführt wird, desto größer der Fallout.



Source link

Weiterlesen

Datenschutz & Sicherheit

Düsseldorfer Stadtrat will anonyme digitale Abstimmungen


Das IT-Unternehmen OpenSlides unterstützt Parteien, Gewerkschaften und Vereine bei der Organisation von Rednerlisten und Abstimmungen. Die Produkte von OpenSlides werden bei Bundesparteitagen genutzt und auch bei zahlreichen kleineren Veranstaltungen. Nun will erstmals ein deutsches Parlament ein Digitales Wahlsystem des Herstellers einsetzen.

Der Düsseldorfer Stadtrat will heute seine Geschäftsordnung so ändern, dass künftig Abstimmungen digital durchgeführt werden können. Auch geheime Abstimmungen sollen über einen Internet-Dienst möglich sein. Laut einem Rechtsgutachtens sei das rechtskonform. Oberbürgermeister Stephan Keller (CDU) hat auf eine netzpolitik.org-Anfrage nicht reagiert.

Immer wieder gibt es Menschen und Gruppen, die demokratische Prozesse digitalisieren wollen. In zahlreichen Nationen werden bereits Wahlen digital durchgeführt. Doch die Praxis stößt auf massive Kritik. Laut Chaos Computer Club beispielsweise sind geheime, digitale Wahlen problematisch, weil ihre Integrität vom ordentlichen Funktionieren und der Manipulationssicherheit der Technologie abhängt. Diese elementaren Kriterien können von Wähler*innen, Wahlhelfenden und Wahlvorständen nicht überprüft werden.

Wahlen müssen öffentlich überprüfbar sein

In Deutschland wurden Wahlcomputer seit 1999 eingesetzt. Das Bundesverfassungsgericht stoppte 2009 ihre Verwendung. „Der Grundsatz der Öffentlichkeit der Wahl, der sich aus den verfassungsrechtlichen Grundentscheidungen für Demokratie, Republik und Rechtsstaat ergibt, gebietet, dass alle wesentlichen Schritte der Wahl öffentlich überprüfbar sind“, erklärte es dazu. Diese Überprüfung dürfe keine besonderen Kenntnisse benötigen.

Es gibt Ideen dazu, wie geheime, digitale Wahlen nachprüfbar ablaufen könnten. Doch diese beinhalten eine pseudonyme Identifikation der einzelnen Stimme. „Das wäre wie ein individuell gekennzeichneter Wahlschein“, sagt Emanuel Schütze, einer der Gründer von OpenSlides. Er sieht in solchen Ideen eine Gefahr für die Anonymität einer Wahl, da derartige Pseudonyme mit Klarnamen in Verbindung gebracht werden und eine freie Wahl verunmöglichen könnten. Ein Aufbrechen des Wahlgeheimnisses sei nicht akzeptabel.

Das Dilemma: Ohne solche Pseudonyme könne die Überprüfbarkeit nicht sichergestellt werden. Für Schütze bleibt nur ein Ausweg: „Wir müssen auf das System vertrauen“, sagt er. Im analogen System müsse man schließlich auch vertrauen, dass der Wahlschein nicht getauscht wird.

Sein Unternehmen sichere den Kunden vertraglich zu, dass es keine Daten manipuliere und auch nicht registriere, wer wofür stimmt. Es sei auch vertraglich ausgeschlossen, dass die Kunden Zugriff auf die Wahldaten bekommen. Protokolliert würde nur, wer seine Stimme abgegeben hat und wie viele Stimmen welche Option erhalten habe. Nicht: wer wofür stimmt.

Um die Manipulationssicherheit zu erhöhen, arbeite man an der Umsetzung eines kryptografischen Konzepts, das auch Kontrollstimmen beinhaltet, anhand derer man sehen kann, ob alle Stimmen sauber erfasst wurden.

Entweder anonym oder fälschungssicher

Folgt man der Argumentation des Online-Wahl-Herstellers, kann in anonymen digitalen Wahlen immer nur eins garantiert werden: Anonymität oder Fälschungssicherheit. OpenSlides setzt dabei vorrangig auf Anonymität. Eine Wahlfälschung beispielsweise könnte demnach nicht anhand einer Neuauszählung der Stimmen nachgewiesen werden. Das ist problematisch, denn wie alle informationstechnischen Systeme, die am Internet hängen, ist auch das von OpenSlides angreifbar.

Wir sind communityfinanziert

Unterstütze auch Du unsere Arbeit mit einer Spende.

Selbst wenn man Administratoren und Servern von OpenSlides vertraut, bleibt eine Unsicherheit. Die digitalen Endgeräte, an denen die Abstimmungen vollzogen werden, sind ebenfalls ein Einfallstor für mögliche Angreifer. Oft werden zur Nutzung von OpenSlides private Geräte verwendet. Wer sich Zugriff auf ein solches Gerät verschafft, kann die Stimmabgabe registrieren und sogar manipulieren.

Schütze sieht die Sicherheitsprobleme durchaus. Er sagt, sein Unternehmen veranstalte absichtlich keine politischen Wahlen, bei denen es um die Zusammensetzung von Parlamenten geht. „Wir haben nicht vor, eine Landtagswahl oder Bundestagswahl zu unterstützen. Dafür ist aktuell keine Software bereit“, sagt er.

„Eine unbemerkte Manipulation wäre fatal“

Dabei sind geheime Abstimmungen innerhalb von Parlamenten ja ebenso sensibel wie die zu deren Aufstellung. Chris Demmer, Fraktionsvorsitzender der Linksfraktion im Düsseldorfer Stadtrat sagt: „Die geheimen Abstimmungen sind mitunter die bedeutendsten. Da wählen wir zum Beispiel Politikerinnen und Politiker in die Aufsichtsräte unserer kommunalen Unternehmen. Schon eine Stimme mehr oder weniger ist dann sehr entscheidend. Eine unbemerkte Manipulation wäre fatal!“

Demmer wehrt sich dagegen, im politischen Prozess einer Software vertrauen zu müssen. „Anonyme digitale Abstimmungen sind in besonderem Maße der Gefahr von Manipulation unterworfen, weil jedes elektronische System angreifbar ist und es keine Möglichkeit gibt, die Ergebnisse unabhängig zu verifizieren“, sagt er.

Die Linksfraktion fordert: „Bei geheimen Abstimmungen sollte Düsseldorf aus Gründen der Sicherheit weiterhin auf Stift, Stimmzettel und Wahlurne setzen“. Demmer fügt hinzu: „Bei der Abstimmung mit Urne ist das Verfahren transparent. Im Zweifel öffnen wir den Deckel und zählen nach.“



Source link

Weiterlesen

Datenschutz & Sicherheit

Patchday bei Adobe: After Effects & Co. für Schadcode-Attacken anfällig


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Adobe hat seine Anwendungen Bridge, After Effects, Audition, DNG Software Development Kit (SDK), InDesign, Lightroom Classic, Substance 3D Designer, Substance 3D Modeler und Substance 3D Stager repariert. Wer die Sicherheitsupdates nicht installiert, riskiert, dass Angreifer Schadcode auf Computern ausführen. Adobe gibt an, dass ihnen derzeit keine Hinweise auf Angriffe vorliegen.

Weiterlesen nach der Anzeige

Der Softwarehersteller stuft den Großteil der Sicherheitslücken als „kritisch“ ein. In den meisten Fällen sind die Versionen für macOS und Windows verwundbar, und Angreifer können Schadcode ausführen. Das führt in der Regel zur vollständigen Kompromittierung von Systemen.

Beispiele dafür sind etwa Schwachstellen in Substance 3D Stager (CVE-2026-21341hoch“) und After Effects (CVE-2026-21318hoch“). Damit Schadcode auf Systeme gelangen kann, müssen Angreifer auf einem nicht näher beschriebenen Weg Speicherfehler auslösen (etwa Use After Free).

Adobes Entwickler versichern, die Sicherheitsprobleme in den folgenden Versionen gelöst zu haben:

  • Bridge 15.1.4 (LTS, 16.0.2 (macOS, Windows)
  • After Effects 25.6.4, 26.0 (macOS, Windows)
  • Audition 25.6, 26.0 (macOS, Windows)
  • DNG Software Development Kit (SDK) DNG SDK 1.7.2 build 2410 (alle Plattformen)
  • InDesign ID20.5.2, ID21.2 (macOS, Windows)
  • Lightroom Classic 14.5.2 LTS, 15.11 (alle Plattformen)
  • Substance 3D Designer 15.1.2 (alle Plattformen)
  • Substance 3D Modeler 1.22.6 (alle Plattformen)
  • Substance 3D Stager 3.1.7 (macOS, Windows)


(des)



Source link

Weiterlesen

Beliebt