Connect with us

Datenschutz & Sicherheit

Microsoft Teams bekommt Bot-Erkennung | heise online


Microsoft will Teams eine neue Funktion verpassen, durch die externe Bots von Dritten deutlich markiert werden, während sie in der Lobby einer Sitzung warten. Außerdem entfallen künftig Nachrichten über in Kürze gelöschte Sitzungs-Mitschnitte.

Weiterlesen nach der Anzeige

Auf der Microsoft-365-Roadmap haben die Entwickler zum Wochenende eine Bot-Identifizierungsfunktion ergänzt. „Wenn in Teams externe Bots von Dritten versuchen, Meetings beizutreten, erhalten Organisatoren eine deutliche Markierung der Bots, während sie in der Lobby warten“, führt Microsoft aus. Organisatoren müssen explizit und separat diese Bots ins Meeting einlassen, wenn sie das für nötig erachten. Mit diesem Ansatz will Microsoft sicherstellen, dass niemand unabsichtlich externe Bots in Meetings lässt, sodass Organisatoren volle Kontrolle über die Anwesenheit solcher Bots haben. Das Feature soll weltweit ab Mai 2026 verfügbar werden, unter Android und iOS genauso wie in macOS und Windows. Derzeit ist die Funktion jedoch noch in der Entwicklung.

Im Microsoft-365-Admin-Message-Center hat Microsoft zum Wochenende zudem angekündigt, dass Teams künftig keine Nachrichten über in Kürze ablaufende Meeting-Aufzeichnungen mehr versenden soll (Kopie von MC1245635 bei mc.merill.net). Ab dem 1. Juni 2026 will Microsoft das auf allen Microsoft-365-Tenants deaktivieren, um so das „Benachrichtigungsrauschen“ zu reduzieren. Admins müssen nicht aktiv werden. Sie können bei Bedarf aber Nutzer und Nutzerinnen über diese Änderung informieren und gegebenenfalls die Dokumentation anpassen, empfiehlt Microsoft. Als Ursache nennt das Unternehmen, dass es damit auf Kundenfeedback reagiere. Diese Benachrichtigungen hätten ein großes Nachrichtenaufkommen verursacht, die jedoch wenig Interaktion zur Folge hatten.

Microsoft ist recht aktiv in der Teams-Entwicklung. Mitte Februar teilte das Unternehmen mit, dass Teams eine private Chat-Funktion für strukturierte Meetings, Webinare und Town Halls einführen will. Damit können Organisatoren, Co-Organisatoren und Präsentatoren einen getrennten Kommunikationskanal erhalten und sich unabhängig vom Teilnehmer-Chat austauschen.


(dmk)



Source link

Datenschutz & Sicherheit

OpenAI startet Vorschau auf KI-Schwachstellenscanner Codex Security


In der vergangenen Woche hat Anthropic Erfolge des KI-Schwachstellenscanners basierend auf Claude Opus 4.6 vermeldet, mehr als 100 Sicherheitslücken in Firefox hat sie demnach aufgespürt. Das lässt OpenAI nicht auf sich sitzen. Die bislang als „Aardvark“ laufende KI zur Schwachstellensuche, die seit vergangenem Jahr als private Beta-Version einem eingeschränkten Kreis zugänglich war, ist nun als Forschungs-Vorschauversion „Codex Security“ verfügbar.

Weiterlesen nach der Anzeige

Das teilt OpenAI auf seiner Webseite mit. Die Firma bezeichnet den KI-Schwachstellenscanner als „Application Security Agent“. Sie soll weitreichenden Kontext von Projekten erfassen und Schwachstellen erkennen, die andere Tools nicht aufspüren können. Die gefundenen Lücken sollen mit vorgeschlagenen Korrekturen zur besseren Sicherheit des Systems beitragen und Nutzern und Nutzerinnen das Rauschen von unbedeutenden Fehlern ersparen.

Kontext ist wichtig, um reale Bedrohungen durch Schwachstellen einzuordnen, erklärt OpenAI. Hier liefern die meisten KI-Tools jedoch Funde mit geringer Bedeutung oder gar falsch-positive Meldungen, was Security-Teams viel Zeit bei der Einordnung koste. Davon kann der Entwickler Daniel Stenberg mit seinem Projekt curl ein Lied singen: Zunächst hat er aufgrund der zahlreichen Glücksritter-Meldungen ohne Hand und Fuß das Bug-Bounty-Programm auf HackerOne komplett eingestampft. Ende Februar kehrte er mit curl jedoch wieder dorthin zurück – die Bug-Verwaltung uferte aus, wichtige Funktionen fehlen ohne eine Plattform wie HackerOne.

Zur Funktion des KI-Schwachstellensuchers schreibt OpenAI, dass das System zunächst einen Kontext aufbaut und automatisch die sicherheitsrelevante Struktur erkennt und daraus ein Bedrohungsmodell ableitet. Das basiert darauf, was das System macht, wem es vertraut und wo es die größten Angriffsflächen bietet. Das lässt sich dann anpassen. Mit diesen Informationen sucht die KI nach Schwachstellen und schätzt den tatsächlichen Bedrohungsgrad in der Praxis ein. Nach Möglichkeit startet sie auch Tests der Funde in Sandbox-Umgebungen. Das reduziert Fehlalarme. Außerdem fallen dabei auch Proof-of-Concept-Codes ab, die den Entwicklern Hilfestellung bei der Einordnung und der Korrektur bieten. Codex schlägt zudem Korrekturen für erkannte Probleme vor.

Codex Security soll daher bessere Ergebnisse liefern und den Flaschenhals des Review-Prozesses aufweiten, der durch die beschleunigte Entwicklung etwa mittels KI-Hilfe auftritt. In den ersten Tests konnte die KI einige relevante Sicherheitslücken aufdecken, erklärt OpenAI. OpenAI hat mit Codex Security die Quellen einiger Open-Source-Projekte analysiert. Am Ende der Mitteilung hat das Unternehmen 15 Schwachstellen mit ihren CVE-Einträgen gesammelt, die die Codex-Security-KI aufgespürt hat. Viele davon erhalten eine Risiko-Einordnung nach CVSS-System „mittel“, einige wurden jedoch auch als hochriskant einsortiert. Einige Open-Source-Projektbeteiligte haben seitdem Zugang zu „Codex for OSS“ erhalten, mit kostenlosem Zugang zu ChatGPT Pro und Plus, Code Review sowie Codex Security. Dieses Programm will OpenAI noch auf mehr Open-Source-Projekte ausweiten.


(dmk)



Source link

Weiterlesen

Datenschutz & Sicherheit

Nextcloud: Codeschmuggel durch Lücke in Flow möglich


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

In Nextcloud Flow haben die Entwickler eine Sicherheitslücke ausgemacht, durch die Angreifer Instanzen übernehmen und kompromittieren können. Aktualisierte Software steht bereit, um die Schwachstelle auszubessern.

Weiterlesen nach der Anzeige

Mit Nextcloud können Interessierte und Organisationen ihre eigenen Cloud-Dienste selbst hosten, unabhängig von Technikriesen etwa aus den USA. Die Software bietet Online-Speicherplatz, Mailverwaltung, Kalender und viele gewohnte Dienste mehr. Sie lässt sich zudem mit Apps etwa um Fotoverwaltung, Aufgabenplanung, Notizen oder auch Kochbücher ergänzen. Die Komponente Nextcloud Flow erlaubt es, Nextcloud auch ohne Programmierkenntnisse zu erweitern und Routineaufgaben oder Arbeitsabläufe zu automatisieren und zu optimieren.

Nur knapp an der Risikoeinstufung „kritisch“ schrammt die Sicherheitslücke in Nextcloud Flow vorbei, vor der nun eine Sicherheitsmitteilung warnt. Nicht authentifizierte Angreifer aus dem Netz können auf nicht genauer erläutertem Wege das „SUPERADMIN_SECRET“ finden und zum Login als Super-Admin verwenden. So können sie den Server innerhalb des Flow-Containers kompromittieren und dadurch etwa beliebige Dateien lesen, somit die Datei „windmill_users_config.json“ mit dem Admin-Token im Klartext ausleiten und damit dann Schadcode aus dem Netz als root-Nutzer innerhalb des Containers ausführen (CVSS 8.8, Risiko „hoch“). Die Sicherheitslücke im verwendeten Windmill-Framework basiert auf einer sogenannten „Path Traversal“, bei der der Zugriff auf eigentlich nicht vorgesehene Dateien und Ordner möglich wird (CVE-2026-29059, CVSS4 6.9, Risiko „mittel“).

Die Sicherheitslücke hat Nextcloud mit Nextcloud Flow 1.3.0 geschlossen. Seit Mitte Januar 2026 steht diese Softwareversion zum Herunterladen und Installieren bereit. IT-Verantwortliche sollten spätestens jetzt zügig auf die fehlerkorrigierten Komponenten aktualisieren. Sollte das nicht möglich sein, lautet die Empfehlung, die Flow-App und den Container zu deaktivieren.

​c’t 3003 hat sich am vergangenen Wochenende Nextcloud einmal vorgeknöpft und als Alternative etwa zu Teams ausprobiert.


(dmk)



Source link

Weiterlesen

Datenschutz & Sicherheit

Degitalisierung: Verdrängung



Im Jahr 1913 beschrieb ein gewisser Wolfgang Riepl in Bezug auf das Nachrichtenwesen etwas, das fortan als Rieplsches Gesetz bekannt wurde. Er beschrieb das Folgende:

Trotz aller solchen Wandlungen ist indessen festzustellen, daß neben den höchstentwickelten Mitteln, Methoden und Formen des Nachrichtenverkehrs in den Kulturstaaten auch die einfachsten Urformen bei verschiedenen Naturvölkern noch heute im Gebrauch sind […]. Andererseits ergibt sich gewissermaßen als ein Grundgesetz der Entwicklung des Nachrichtenwesens, daß die einfachsten Mittel, Formen und Methoden, wenn sie nur einmal eingebürgert und brauchbar befunden worden sind, auch von den vollkommensten und höchst entwickelten niemals wieder gänzlich und dauernd verdrängt und außer Gebrauch gesetzt werden können, sondern sich neben diesen erhalten, nur daß sie genötigt werden, andere Aufgaben und Verwertungsgebiete aufzusuchen.

In der Medientheorie wurde es immer wieder als eine Art Gesetzmäßigkeit für die Entwicklung von Medien gesehen, dass verschiedene Medienarten sich immer irgendwie ergänzen würden, aber es nie zu einer vollständigen Verdrängung bestimmter Medienformen kommen würde. Fernsehen verdrängt Radio nicht vollständig, Radio verdrängt Zeitungen nie vollständig. Trotz Internet gibt es nach wie vor Tageszeitungen. Lange Jahre schien Riepl mit dieser Gesetzmäßigkeit etwas uneingeschränkt Gültiges geschaffen zu haben.

In dieser Degitalisierung des Jahres 2026 müssen wir uns die Frage stellen, inwieweit interaktive und soziale Arten von Medien und der Erstellung von Inhalten noch in die scheinbar zeitlose Gesetzmäßigkeit Riepls passen.

Bildstreifen

Anfang 2026 wird darüber diskutiert, ganze Arten von Medien – eigentlich als sozial betitelt – vollständig von bestimmten Altersgruppen fernhalten zu wollen. Seit Riepls Feststellung 1913 haben Medien allerhand neue Methoden entwickelt, zumindest im Ringen um Aufmerksamkeit „alte“ Medien zu verdrängen. 25 Prozent der Kinder oder Jugendlichen nutzen laut einer DAK-Studie von 2025 soziale Medien „riskant oder krankhaft oft“.

Riepl wurde medienwissenschaftlich zwar schon früher grundsätzlich widerlegt. Medien sind von ihren Verteilungswegen heutzutage nicht mehr so klar voneinander trennbar, denn irgendwie ist inzwischen vieles „over IP“, also alles über das „Internet“. Aber irgendwie scheinen speziell soziale Medien einen so großen Verdrängungseffekt auszuüben, dass etwas getan werden muss.

Anlass für die aktuellen Diskussionen um ein Social-Media-Verbot sind eigentlich die Geschäftsmodelle scheinbar „sozialer“ Medien. Geschäftsmodelle, die mit immer mehr manipulativen Designs mehr und mehr Nutzungszeit ihrer Plattformen erreichen und durch die Bindung von User*innen mehr Umsatz durch vorwiegend Werbung erreichen wollen. Diese Dark Patterns sind dabei nicht rein auf „soziale“ Medien beschränkt, sie betreffen auch Shopping-Plattformen wie Ebay oder Temu.

Die aktuell propagierte Problemlösung ist dabei aus systemischer Sicht zumindest spannend. Statt zu regulieren, welche Inhalte verbreitet werden, und diese Inhalte möglicherweise besser zu moderieren, wird aktuell versucht, mittels technischer Methoden wie Altersverifikation einfach den Zugang ganz zu verwehren. Medienhistorisch betrachtet ist allerdings doch interessant, wie der Versuch aussieht, schädliche Wirkungen „sozialer“ Medien zu regulieren.

Schon kurz nach Riepls Feststellung entstand in der Weimarer Republik 1920 ein Lichtspielgesetz, das auch an die Kinder damals dachte und Kinofilme entsprechend kontrollierte. „Bildstreifen“, die Jugendlichen unter 18 Jahren vorgeführt werden sollten, bedurften einer speziellen Zulassung. Die Sorge damals schon: Die Inhalte könnten „eine schädliche Einwirkung auf die sittliche, geistige oder gesundheitliche Entwicklung oder eine Überreizung der Phantasie der Jugendlichen“ haben.

Jugendschutz durch Regulierung von Inhalten wurde dann in der Folge etwa durch die FSK in der Bundesrepublik durchgeführt, die seit mehr als 75 Jahren immer noch Kinofilme prüft und mit Altersempfehlungen versieht.

Der Versuch der staatlichen Regulierung von medialen Inhalten ist also nicht neu. Er hat sich über die Jahre auch immer weiter an die mediale Vielfalt angepasst, sei es mit dem Aufkommen von Computerspielen als auch mit dem eher zweifelhaften Versuch, Internetinhalte hinter eine Art digitalen Jugendschutzvorhang zu stellen. Dabei ging es bei allen Versuchen der Regulierung bis zur Zensur von Medien bisher immer um die eigentlichen Inhalte.

Engagement

Bei den Regulierungsversuchen „sozialer“ Medien bedarf es nicht einer Betrachtung der eigentlichen Inhalte, es müsste um den Versuch gehen, die Medien selbst in ihrer Funktionsweise zu regulieren. Die Moderation von Inhalten ist zwar ein Teil des Problems, aber für die Bewertung von Inhalten gibt es ja bereits etablierte Methoden. Das ist medienhistorisch betrachtet dann doch neu und erklärt vielleicht auch ein wenig, warum die Versuche eines Social-Media-Verbots eher ungelenk wirken.

Kinos wurden bisher ja selten dazu aufgefordert, „keine bequemen Sessel nutzen zu dürfen, die das Ansehen von Filmen mit mehr als zwei Stunden fördern“. Einfach, weil Kino keine starken manipulativen Patterns verwendet, um den eigentlichen Konsum zu steigern und Menschen kontinuierlich „an den Kinosessel zu fesseln“. Erfahrungen zur Regulierung des Zugangs zu Inhalten sind seit Jahrzehnten mit unterschiedlichem Erfolg vorhanden, Erfahrungen in der Regulierung von Funktionen von Plattformen wie „sozialen“ Medien eben nicht.

„Soziale“ Medien erfordern eher eine differenzierte Betrachtung ihrer aufmerksamkeitsbindenden Verhaltensmuster und diversen Dark Patterns. Denn medientheoretisch betrachtet handelt es sich bei „sozialen“ Medien um eine immer extremer werdende Form von Lean-Forward- bzw. Lean-In-Medien. Medien, die auf eine starke aktive Auseinandersetzung mit ihnen abzielen. Im Gegensatz zu einem Kinofilm oder einer Fernsehdokumentation braucht es hier sehr starke aktive Handlungen, um die Inhalte zu konsumieren. Aktive Handlungen wie Likes oder Kommentare, die wiederum zu einer noch stärkeren Personalisierung und damit zu einem weiteren stärkeren Engagement führen. Der Versuch, das mit einer Alterskontrolle regulieren zu wollen, geht am eigentlichen Kern des Problems vorbei.

Ganz abgesehen davon, dass Alterskontrolle bislang bei Medien eh nie so ganz vollständig durchgesetzt werden konnte. Erfahrungen aus Australien zeigen, dass Altersschranken für Social Media eher zu mehr Kreativität in der Umgehung der Schranken geführt haben als zu einer wirksamen Regulierung der schädlichen Wirkungen.

Schwer zu sagen, ob Wolfgang Riepl 1913 schon absehen konnte, was die heute größte Gefahr der Verdrängung von Medienformen sein würde. Dass diese nicht zwangsläufig in eher technischen Gründen liegt, sondern in der Art und Weise, wie bestimmten Medienformen durch ihre Beschaffenheit anderen Medienformen schlicht und ergreifend alle Aufmerksamkeit entziehen wollen. In einer Aufmerksamkeitsökonomie, bei der soziale Medien mit besonders ausgereiften Methoden Aufmerksamkeit binden, geht es systematisch um Sucht. Oder um es mit Georg Franck zu sagen: „Die Aufmerksamkeit anderer Menschen ist die unwiderstehlichste aller Drogen.“

Unabhängig, ob bei dem Versuch einer Regulierung von Social-Media-Plattformen sinnvolle Maßnahmen ergriffen werden oder nicht, ist Engagement aber auch eine Triebfeder weiterer, sich schädlich verhaltender Formen von Medienkonsum oder Medienerzeugung, nämlich eines Umgangs mit Medien, der gerade mit sogenannter Künstlicher Intelligenz entsteht. Sie seien im Folgenden kurz generative Medien genannt.

Wir sind communityfinanziert

Unterstütze auch Du unsere Arbeit mit einer Spende.

Superfans

Der Musiker Adam Neely hat sich Anfang Februar sehr ausführlich und sehenswert mit diversen Aspekten der generativen Musikplattform Suno beschäftigt. Bemerkenswert ist dabei der Fokus der Macher von Suno auf Engagement und interaktive „Musikerfahrungen“. Mikey Shulman, CEO von Suno, schweben eine Art Multiplayer-Mode-Experience von Musik und ziemlich viele andere Buzzwords vor. Shulman entwertet in öffentlichen Aussagen Musik als Kunstform, findet, dass Musikmachen schwer sei, und dass mit generativen KI-Tools musikalische Fähigkeiten, etwa ein Instrument spielen zu können, nicht mehr relevant sein würden. Es würde nur noch um guten Geschmack gehen.

Suno selbst möchte aber zu einer Plattform für sogenannte Superfans werden, Fans also, die sich besonders intensiv mit Künstler*innen auseinandersetzen. Am Ende geht es dabei nicht um hohe Kunst, es geht um besonders viel und intensives Engagement. Also genau um die gleichen Patterns, die schon bei Social-Media-Plattformen zu einer gefährlichen Abhängigkeit der Nutzenden führen können.

Die Technik hinter generativen Medienplattformen wie Suno ist dabei aber bereits eine extrem weit fortgeschrittene Form von Verdrängungsversuchen bisheriger Medienformen und der bisherigen Urheber, sei es in Filmen, Musik oder Bildern. Generative KI ist voll von Plagiaten, die Hersteller befinden sich in mehreren Klageverfahren, etwa in Auseinandersetzungen mit der GEMA in Deutschland.

KI bedroht wegen vermeintlicher Effizienzgewinne eine ganze Reihe von bisher notwendigen Medienberufen, sei es im Lektorat, in der Synchronisierung von Inhalten oder bei Darstellenden. Inhalte werden noch stärker auf besonders hohe wirtschaftliche Chancen oder Passgenauigkeit für ein bestimmtes Genre optimiert, etwa durch die Analyse von Manuskripten durch KI.

All das hat nichts mit Empowerment von Menschen zu tun, wie viele Plattformen oftmals behaupten. Es verstärkt Gatekeeping, erhöht den Kostendruck in der eh schon schwankend gut finanzierten Medien- und Kulturbranche und fördert die Gewinne einiger weniger Anbieter und Plattformen.

Gehen schon die aktuelle Diskussion und die Lösungsvorschläge um ein Social-Media-Verbot am eigentlichen Kern des Problems vorbei, nämlich der Regulierung von Social-Media-Plattformen selbst, so dürften auf Engagement optimierte generative Medienplattformen aufgrund ähnlicher Geschäftsinteressen das nächste größere Problem werden.

Entgegen dem, was Riepl 1913 vermutete, könnte sogar eine weit schlimmere Verdrängung stattfinden. Auf mit Dark Patterns versehenen Plattformen gibt es nur noch eine Vielzahl generativer Medien, wie etwa mit KI generierte Musik oder Videos. Diese nehmen Medienschaffenden, Künstler*innen und damit in Verbindung stehenden Berufsgruppen nicht nur immer mehr die Aufmerksamkeit weg, sie bestehlen sie ihrer Schöpfungen und verdrängen diese sogar, sodass bis auf wenige große Kunstschaffende nur noch die sprichwörtliche brotlose Kunst bleibt.

Dann wäre Riepl zwar endgültig widerlegt, wir wären aber auch einer vielfältigen und menschlichen Medien- und Kulturlandschaft beraubt. Gegen diese Gefahren hilft nur Regulierung, keine Verdrängung.



Source link

Weiterlesen

Beliebt