Connect with us

Datenschutz & Sicherheit

Wie Chatbots die Wikipedia vergiften


Eigentlich wollte Mathias Schindler nur eine kleine Sache in der Wikipedia korrigieren. Doch dann baute der Wikipedianer versehentlich einen Detektor für bestimmte KI-generierte Inhalte in der Enzyklopädie. Auf dem 39C3 berichtet er, warum die halluzinierten Texte auch ein Problem für die Anbieter großer Sprachmodelle werden könnte und warum er den Autor:innen keine guten Absichten unterstellt.

Die kleine Sache, die Schindler korrigieren wollte, waren fehlerhafte ISBN-Nummern. Mit diesen 10 oder 13-stelligen Nummern werden Bücher identifiziert und finden sich oft in Quellenangaben von Wikipedia-Einträgen. Dabei sind die Zahlenkombinationen nicht vollkommen zufällig, erklärt Schindler im Talk. Die letzte Ziffer ist eine Prüfziffer, sie lässt sich aus den neun beziehungsweise zwölf vorherigen Ziffern berechnen. Ursprünglich wollte Schindler falsche ISBN-Nummern in der Wikipedia aufspüren und ausbessern, auch damit Nutzer:innen die richtigen Bücher finden, die als Referenzen in den Artikeln angegeben wurden.

Zufallsfund dank falscher ISBNs

„Referenzen auf Wikipedia sind nicht nur wichtig, sondern ein integraler Teil der Wikipedia“, sagt Schindler und verweist in seinem Vortrag auf den alten Spruch: „Wikimedia mag ein guter Ort sein, um eine Recherche zu starten, aber es ist ein schlechter Ort, um dort die Recherche zu beenden.“ (Alle Zitate aus dem Talk haben wir ins Deutsche übersetzt.) Schindler muss es wissen. Er ist Mitbegründer von Wikimedia Deutschland und Wikipedia-Autor seit 2003.

Um die inkorrekten ISBN-Nummern zu finden, schrieb Schindler ein Skript, lud die gesamte deutschsprachige Wikipedia herunter und durchsuchte sie nach ISBNs mit einer faulen Prüfziffer, erzählt er in seinem Vortrag. Doch er stieß nicht nur auf falsch eingegebene ISBNs oder von den Verlagen falsch ausgegebene ISBNs, sondern fand auch Artikel, bei denen zwei oder mehr Bücher fehlerhafte ISBN-Nummern hatten. Diese Bücher schienen zwar plausible Titel und Autor:innen zu haben, aber Schindler konnte sie nirgendwo sonst finden. Sie waren halluziniert.

Offenbar hatten sich Menschen ganze Artikel von einem Large Language Model (LLM) wie ChatGPT schreiben lassen, welches sich dann auch einen Abschnitt mit Einzelnachweisen ausdachte.

Noch ist es ein Nischenphänomen

Im Gespräch mit netzpolitik.org erzählt Schindler, dass er mit seiner Methode etwa 150 Artikel gefunden habe, bei denen man Sorge haben müsse, dass sie zumindest teilweise KI-generiert und frei erfunden seien. Allerdings seien die fehlerhaften Einträge nicht ausschließlich auf KI-Chatbots zurückzuführen, manchmal gebe es andere Gründe für mehrfach falsche ISBN-Nummern, sagt Schindler. Außerdem gibt es über drei Millionen deutschsprachige Wikipedia-Artikel, die 150 Auffälligen machen also nur ein äußerst geringen Anteil von 0,005 Prozent aus.

Andererseits erfasst Schindlers Methode auch nicht alle Halluzinationen, dafür war es schließlich nicht gedacht. „Dieses Werkzeug ist nicht das Universaltool zum Erkennen von ChatGPT-generierten Artikeln.“ Andere Möglichkeiten, solche Inhalte zu enttarnen, seien etwa systematische Abweichungen von der Syntax von „Media Wiki“ (der Software hinter Wikipedia). Oder wenn Autor:innen viele Adjektive verwenden: „Kein Wikipedianer, der was auf sich hält, wird den Fernsehturm als ‚großartig‘ oder ‚herausragend‘ bezeichnen.“

LLM generierter Text „Anti-These zu Wikipedia“

Doch auch wenn das Erstellen von Wikipedia-Artikeln mit LLMs noch nicht so verbreitet sein sollte, geht es für Wikipedia um Grundsätzliches: Die Kontamination mit Inhalten, die auf den ersten Blick wahr erscheinen könnten und sich als Fakten tarnen. Schindler sagt: „Man könnte es auch als Anti-These zu einem Enzyklopädie-Projekt wie Wikipedia beschreiben.“

Die Gefahren? Zum einen können sich falsche Infos verselbstständigen, wenn eine andere Veröffentlichung den vermeintlichen Fakt von Wikipedia abschreibt und die Wikipedia diese Veröffentlichungen hinterher als Beleg für genau diesen Fakt aufführen. Schindler weist in seinem Vortrag auf diesen Teufelskreis hin, der bereits vor LLMs ein Problem darstellte.

Glaubwürdigkeit in Gefahr – und die Qualität von LLMs

Zum anderen verschlingen LLM-generierte Quellen zunehmend die Ressourcen unterschiedlichster Einrichtungen. Nicht nur die der Online-Enzyklopädie: Irregeleitete Nutzer:innen fragen etwa Bibliothekar:innen nach ausgedachten Büchern, berichtete 404 Media im Herbst. Beim Internationalen Komitee des Roten Kreuzes (ICRC) wurde die Situation offenbar so schlimm, dass es sich mit einer „wichtigen Mitteilung“ an die Öffentlichkeit wandte.

„Wenn eine Referenz nicht gefunden werden kann, heißt das nicht, dass das ICRC Informationen zurückhält. Verschiedene Situationen können das erklären, wie etwa unvollständige Zitationen, Dokumente, die in andere Institutionen lagern, oder – zunehmend – KI-generierte Halluzinationen“, warnte das ICRC Anfang Dezember.

Auch für die Entwickler von Large Language Models hätten halluzinierte Wikipedia-Artikel Nachteile, argumentiert Schindler. Denn ihre Modelle werden oft mit Wikipedia-Artikeln trainiert. „Die KI-Firmen profitieren von hochwertigen Daten und leiden unter dem Verlust von Quellen, die frei von synthetischen Texten sind“, sagt im Schindler im Gespräch mit netzpolitik.org. Oder wie er es im Vortrag formuliert: „LLM-Provider vergiften damit auf eine Art den Fluss, aus dem sie selber trinken“, sagt Schindler.



Uns fehlen dieses
Jahr noch 31.963 Euro.


Bist Du auch Feuer und Flamme für Grundrechte?
Dann unterstütze jetzt unsere Arbeit mit einer Spende.


Bist Du auch Feuer und Flamme für Grundrechte?
Dann unterstütze jetzt unsere Arbeit mit einer Spende.

Wer macht sowas?

Doch wer stellt eigentlich LLM-generierte Inhalte in die Wikipedia? „Bunt gemischt“, erzählt Mathias Schindler im Gespräch mit netzpolitik.org. Von Wikipedia-Neulingen über langjährige Autor:innen bis zu einer Werbeagentur sei alles dabei gewesen. Er habe versucht, möglichst viele Autor:innen von verdächtigen Artikeln zu kontaktieren. Manche hätten ihn ignoriert, andere alles geleugnet oder den Einsatz einer LLM heruntergespielt.

„Eine Erklärung ist, dass Menschen LLMs tatsächlich als Recherchewerkzeug ansehen, das magischen Zugang zu wissenschaftlichen Datenbanken und Literatur hat und belastbare Belege liefert“, sagt Schindler zu netzpolitik.org. Bisher habe er aber noch keine solche Person unter den verdächtigen Autor:innen getroffen. Stattdessen vermutet Schindler eher persönlichen Geltungsdrang oder dass Personen eine Agenda verfolgen, die Enzyklopädie in ihrem Sinne umzuschreiben.

In seinem Vortrag erzählt Schindler, er habe alle verdächtigen Autor:innen, um den Prompt gebeten, mit dem diese den Artikel generiert hätten. „Das ist mein persönlicher ‚Litmus‘-Test, ob die Menschen ehrliche Absichten haben“, sagt Schindler. Nur eine einzige Person habe den Prompt nach vielen Nachfragen privat geteilt.

Die Herausforderung bleibt

Laut Schindler wurden alle gemeldeten Artikel gelöscht, bei denen die Autor:innen die Zweifel nicht ausräumen konnten, dass sie KI-generiert waren. In vielen Fällen wurden auch die Autor:innen gesperrt. In einem Richtlinien-Artikel der deutschsprachigen Wikipedia heißt es dazu: „Sprach-KI sind derzeit nicht in der Lage, korrekt belegte Beiträge zu erstellen. Beiträge, die damit erstellt werden, verstoßen daher unter anderem gegen WP:Keine Theoriefindung, WP:Belege, WP:Urheberrechtsverletzung, WP:Neutraler Standpunkt; ihre Verwendung ist daher derzeit generell unerwünscht.“

Für Schindler bleibt es eine Herausforderung für die Wikipedia-Community, halluzinierte Texte aufzudecken, zumal Chatbots künftig ISBNs mit einer korrekt berechneten letzten Stelle erfinden könnten. Er hofft auf einen konstruktiven Dialog mit den KI-Firmen. „Mein persönlicher Wunsch wäre, dass man durch Austausch und vielleicht Kompetenztransfer mit den KI-Firmen erreicht, dass man KI-generierte Texte leichter erkennt, wenn jemand versucht, sie in die Wikipedia zu stellen.“

Am Ende ist die Geschichte der KI-generierten ISBN-Nummern auch eine über falschen und vielleicht besseren KI-Einsatz. Denn den Code für seinen ISBN-Checker hat Schindler auch mithilfe von Large Language Models geschrieben.



Source link

Datenschutz & Sicherheit

Die Woche, in der wir zeigten, was Spionage-Apps anrichten


Liebe Leser*innen,

Aiko, die eigentlich anders heißt, wurde von ihrem Ex-Freund gestalkt. Über ein Browser-Interface konnte er sehen, wo sie ist, was sie liest, eintippt und fotografiert. Er hat ihr Handy zur multimedialen Wanze gemacht.

Immer wieder lauert er ihr auf, hält sie fest, redet auf sie ein. Sie traut sich nicht mehr aus dem Haus. Die einst lebensfrohe junge Frau wird depressiv, durchlebt Panikattacken und Albträume.

Es gibt zahlreiche Apps, die es erlauben, die Kontrolle über fremde Telefone zu übernehmen. Die App, die Aikos Ex-Freund nutzte, kennen meine Kollegin Chris und ich schon seit einer Weile. Vor zwei Jahren haben wir uns durch Nachrichten gegraben, die Menschen aus der ganzen Welt mit dem Kundendienst der App austauschten. Sie waren in einem Datenleck öffentlich geworden und sind nun für alle nachzulesen im Internet.

In dem Leak finden sich auch Daten von Aikos Ex-Freund.

Wie brutal der Eingriff in die Privatsphäre ist, den solche Apps ermöglichen, ist mir aber erst richtig klar geworden, als ich Aiko gegenübersaß und sie uns ihre beklemmende Geschichte erzählte.

Fast unmöglich, sich der Überwachung zu entziehen

Es ist etwas anderes, sich mit der technischen Seite von Stalking zu beschäftigen als einer Person zuzuhören, die es erlebt hat. Stalking kann einen Menschen zermürben. Kommt so eine App ins Spiel, wird es für Betroffene fast unmöglich, sich der Kontrolle und Überwachung zu entziehen.

Aiko ist nur eine von vielen. Jede 100. Frau hat in den vergangenen fünf Jahren Stalking mit digitalen Tools erlebt, so eine Studie des Bundeskriminalamtes. Aiko gibt diesen vielen Frauen ein Gesicht.

Sie wollte ihre Geschichte auch deshalb erzählen, damit andere gewarnt sind. Damit andere der Software und einem Täter oder einer Täterin nicht so hilflos ausgeliefert sind wie sie. Denn eigentlich ist es ziemlich einfach, frei zugängliche Spionage-Apps zu erkennen und ihre Tätigkeit zu stoppen. Dazu muss man aber wissen, dass es sie gibt. Aikos Geschichte hilft hoffentlich dabei, dieses Wissen zu verbreiten.

Gerne weitersagen.

Martin

Wir sind communityfinanziert

Unterstütze auch Du unsere Arbeit mit einer Spende.

Unsere Kolumnistin schaut sich nach Oscar-Vergleichen auf LinkedIn an, was Digitalisierung und Blockbuster-Filme gemeinsam haben – oder eben auch nicht. Denn den digitalen Verwaltungsleistungen haben die populären Filme einiges voraus. Vorhang auf!

Lesen Sie diesen Artikel: Großes Kino

Daten zu mehr als 700 Personen standen im Netz, weil das Bezirksamt Berlin-Mitte aus Versehen die Vorschlagslisten für die Schöff:innen-Wahl 2024 veröffentlichte. Schöff:innen wurden in der Vergangenheit schon wegen ihres Amts bedroht, sie müssen sich auf den Schutz ihrer Informationen verlassen können.

Lesen Sie diesen Artikel: Exponiert im Ehrenamt



Source link

Weiterlesen

Datenschutz & Sicherheit

Social-Media-Debatte: Ursachenbekämpfung statt Verbote



„Ich male mir die Welt, so wie sie mir gefällt.“ – Das gelingt den Plattformbetreibern hinter Instagram, Youtube, Snapchat oder TikTok bisher ganz gut. Das in Los Angeles eröffnete Verfahren könnte an diesem Prinzip jedoch rütteln und zeigen, dass es etwas anderes als ein Verbot für Jugendliche braucht, um die negativen Effekte sozialer Medien zu reduzieren.

Die 20-jährige Hauptklägerin will Meta und Google für ihr süchtig machendes Design zur Verantwortung ziehen. Vor Gericht gibt sie an, seit über zehn Jahren von sozialen Medien abhängig zu sein – einem Effekt, dem sich die Unternehmen laut interner Dokumente bewusst waren. Und wenn man ehrlich ist: Es ist ein Effekt, den die kommerziellen Plattformen wollen, damit sich die Aufenthaltszeit auf Plattformen verlängert, sie mehr Werbung an die Nutzer*innen abspielen und so mehr Gewinne einfahren können.

Wenn in den USA eine Person vor Gericht geht, deren Generation bisher am frühesten in der digitalen Welt aufgewachsen ist, führt das unweigerlich zu der Frage, wie für diese und nachfolgende Generationen eine bessere und andere Version von sozialen Medien aussehen könnte. Denn ob mit dem Verfahren letztlich ein Präzedenzfall geschaffen werden kann oder nicht – der Prozess stärkt eine andere Stoßrichtung als das derzeit heiß diskutierte Social-Media-Verbot.

Ein Verbot ist die falsche Antwort

Von einem Verbot sozialer Medien für junge Menschen werden viele negative Effekte erwartet: Für Minderheiten oder vulnerable Gruppen fällt ein Kanal zur Vernetzung und Gemeinschaftsbildung weg, ebenso ein Kanal zur Information, Menschen ohne Papiere könnten ganz ausgeschlossen sein und auf Kinder und Jugendliche entfallen die Folgen je nach Familiensituation und Wohnort ungleich.

Diese Nebeneffekte müssten weniger ins Gewicht fallen, wenn unterm Strich auf den Plattformen und ohne Verbot das ursprüngliche Ziel erreicht werden würde: Schutz von Kindern und Jugendlichen vor digitalem Missbrauch, vor Mobbing sowie übermäßigem Konsum und Sucht.

Ein Blick nach Australien zeigt, dass Verbote einerseits löchrig bleiben und andererseits große Risiken für Privatsphäre und Datenschutz bergen. Wie die australische Regierung erwartet hatte, finden Jugendliche einfach Schlupflöcher, das Verbot zu umgehen. Sie ändern ihren Standort über VPN-Verbindungen, legen sich neue Accounts an, wechseln auf nicht betroffene Apps oder nutzen Accounts von älteren Personen. Mit KI-generierten Bildern, Ausweisen von Älteren oder oder durch einfaches Stirnrunzeln bestehen sie Altersabfragen, die jetzt zur Architektur von Plattformen dazugehören.

Sollte die australische Regierung an diesen Stellen nachschärfen, bleiben Alterskontrollen aus datenschutzrechtlicher Perspektive trotzdem bedenklich. Ein vorab durchgeführtes Gutachten verzeichnet massive Bedenken, wie erhobene Daten gesammelt und an Behörden weitergegeben werden könnten. Das ist der eine Fall. Der andere Fall ist auch datenschutzrechtlich problematisch, wenn personenbezogene Daten aus Alterskontrollen an Drittanbieter weitergegeben werden, wie der Fall von Discord deutlicht.

Plattformen in die Pflicht nehmen statt Probleme in die Zukunft verlagern

Der Medienrechtler Stephan Dreyer erwartet, dass ein EU-Verbot den Jugendschutz auf sozialen Plattformen verschlechtern würde, wie er gegenüber netzpolitik.org darlegte.

Dazu kommt: Soziale Medien sind allgegenwärtiger Teil des Lebens auf der ganzen Welt. Haben Jugendliche die magische Grenze von 16 Jahren überschritten, sind sie zusammen mit den Älteren weiterhin endlosen Feeds, manipulativem Design, personalisierten Empfehlungssystemen und Dopamin-Kicks ausgesetzt. Statt „Cybergrooming“ heißt die Gefahr dann „digitale Gewalt“, wie der Grok-Skandal gerade deutlich vor Augen geführt hat.

Wir sind communityfinanziert

Unterstütze auch Du unsere Arbeit mit einer Spende.

Und warum eigentlich nur Jugendliche? Sind nicht auch gestandene Mittvierziger dem suchtmachenden Design der Plattformen verfallen und geraten nicht auch Boomerinnen in den Strudel, der sie in den verschwörungsideologischen Kaninchenbau zieht? Werden nicht uns allen polarisierende Inhalte von intransparenten Algorithmen gezeigt, damit wir möglichst lange mit den Plattformen interagieren und sie uns mit personalisierter Werbung zuballern können.

Bessere Plattformen für alle

Ein Verbot für Jugendliche macht die Plattformen nicht besser. Anstatt Plattformen zur Umsetzung von Alterskontrollen zu zwingen und junge Menschen auszuschließen, müssen die Plattformen zu einer anderen Architektur verpflichtet werden. Fairness by Design und by Default nennt sich der Ansatz, der digitale Plattformen dazu verpflichtet, ihre Webseiten und Apps nutzerfreundlich und manipulationsfrei zu gestalten. Die EU ist gegenüber TikTok einen Schritt gegangen, aber die Liste an manipulativen Techniken ist lang.

Ein Verbot ist letztlich eine platte und hilflose Maßnahme. Es erinnert an überforderte Eltern, die den Kindern das Handy wegnehmen, weil sie nicht weiterwissen. Dabei könnten auch die Verbotsbefürworter*innen beim Ansatz Fairness by Design auf ihre Kosten kommen. Er wäre einer von mehreren Ansätzen, die Plattformen nachhaltig zu verändern. Und es gibt Gesetzgebungen wie das Digitale-Dienste-Gesetz oder wie das geplante Gesetz für digitale Fairness, mit denen man Plattformen verändern kann.

Die Politik muss sich nur trauen – und nicht weiter vor der Lobby der Tech-Riesen einknicken.

 



Source link

Weiterlesen

Datenschutz & Sicherheit

Palantir will Gegendarstellung von Schweizer Magazin gerichtlich durchsetzen


Palantir Technologies, der US-Anbieter von Analysesoftware, sieht sich unmittelbar betroffen von zwei Berichten des Schweizer Onlinemagazins „Republik“. Nachdem das Unternehmen vergeblich eine Gegendarstellung des Magazins verlangt hat, will es diese nun vor Gericht durchsetzen. Es gehe um eine sachliche Gegenüberstellung, sagt der Softwareanbieter. Die „Republik“-Macher geben sich überrascht.

Weiterlesen nach der Anzeige

Mit dem Schritt vor Gericht hat Palantir mehr Aufmerksamkeit für die „Republik“-Berichterstattung ausgelöst, als die beanstandeten Artikel selbst hätten verursachen können – 23 Jahre, nachdem Barbra Streisand den nach ihr benannten Effekt auslöste. Und dennoch doch gibt es Gründe, warum Palantir so agiert.

Denn während in Deutschland der Anbieter von Datenverknüpfungs- und Datenanalysesoftware für Behörden mit Überwachungsbefugnissen zumindest bei manchen staatlichen Kunden erfolgreich ist, hatte die Firma in der Schweiz bislang – soweit bekannt – wenig staatliche Kundschaft.

„Republik“ hatte im Dezember umfangreich aus Akten der Schweizer Verwaltung zitiert. Demnach suchte Palantir immer wieder den Kontakt zu Schweizer Behörden – und fand ihn auch. Teils sei das von Palantir ausgegangen, teils wohl auch von öffentlichen Stellen. Es ging um das Militär, Polizei und Gesundheitsbehörden. Zu einem Geschäftsabschluss kam es dabei aber offenbar nicht.

Von der Berichterstattung darüber fühlt sich Palantir unfair behandelt. „Wir können bestätigen, dass in dieser Angelegenheit beim Handelsgericht ein Gesuch um Gegendarstellung gestellt wurde“, teilt die Kommunikationsbeauftragte des Kantons-Obergerichts am Freitag auf Anfrage heise online mit.

Das Schweizer Recht sieht bei Gegendarstellungen vor, dass sobald ein Gegendarstellungswunsch von einem Medium zurückgewisen wurde, ein Zivilgericht die Angelegenheit prüfen kann und dabei beide Seiten anhört. Zuständig ist hier das Handelsgericht Zürich. Zuständig ist hier das Handelsgericht Zürich.

Weiterlesen nach der Anzeige

Palantir sagt, es habe klagen müssen, um seinen Rechstanspruch aufrechtzuerhalten. „Palantir respektiert die Pressefreiheit und die wesentliche Rolle unabhängiger Medien in der öffentlichen Debatte uneingeschränkt“, sagte eine Unternehmenssprecherin. Das Recht auf Gegendarstellung sei ein „Korrekturinstrument, das der Öffentlichkeit ausgewogene Informationen liefern soll“.

Für Palantir kam die „Republik“-Berichterstattung zur Unzeit. Denn in vielen Staaten Europas werden in gleich mehreren Geschäftsfeldern derzeit wichtige Beschaffungsentscheidungen getroffen: Die Modernisierung und Erweiterung von Militär, Nachrichten- und Geheimdiensten aber auch Polizeibehörden wäre für Palantir und seine auch für behördliche Überwachung hilfreiche Software ein vielversprechendes Geschäft.

Im Heimatmarkt USA macht das Unternehmen mit US-Bundesbehörden laut Transparenzdaten etwa eine Viertelmilliarde US-Dollar Geschäft. Zu den Kunden gehören unter anderem das US-Verteidigungsministerium, die Armee und das FBI. Das Unternehmen weist für 2025 knapp 4,5 Milliarden US-Dollar Umsatz aus, etwa ein Zehntel des Jahresumsatzes von SAP. Und doch ist Palantir an der Börse mit etwa 300 Milliarden Euro bewertet, während SAP auf rund 200 Milliarden kommt.

Der europäische Markt bleibt ein schwieriges Pflaster für Palantir. Die Verbindung zur Immigration and Customs Enforcement-Behörde (ICE), die mit brachialen Mitteln und jeder Menge High-Tech illegale Migranten ausfindig machen soll, sorgt in Europa für Stirnrunzeln. Als US-Unternehmen unterliegt Palantir dem Recht der Vereinigten Staaten, die die internationale Zusammenarbeit bei Sicherheit zunehmend in Frage stellen – für Palantir dürfte das kaum verkaufsfördernd wirken.

Dabei hatte sich die Aufregung an anderer Stelle gerade erst gelegt: Palantir stand wegen seines Israel-Engagements in der Kritik. Die Gründer Peter Thiel und Alex Karp hatten im Januar 2024 eine strategische Partnerschaft mit dem israelischen Verteidigungsministerium vereinbart, berichtete Bloomberg damals. Der Bericht dazu ist auf der Palantir-Website öffentlich abrufbar hinterlegt.

Das kleine Medium aus der Schweiz ist mit Branchengrößen wie Bloomberg kaum vergleichbar. Seit 2018 erscheint es werbefrei und ausschließlich online. Es wird vor allem von gut 30.000 Abonnenten getragen, von denen ein Großteil zugleich mitstimmungsberchtigte Genossenschaftsmitglieder sind. Kein Medien-Dickschiff mit großem Verlag im Rücken.

Bereits kurz nach Erscheinen der beiden nun vor Gericht verhandelten Artikel hatte Courtney Bowman, Chef von Palantirs Abteilung für „Privatsphäre und Bürgerrechte“, auf Linkedin die Marschroute vorgezeichnet: Die Berichte von „Republik“ seien „voller Verzerrungen, Anspielungen und grenzwertiger Verschwörungstheorien“.

Bowman wirft den Autoren vor, das sie einen Bericht des Schweizer Armeestabes zu unkritisch wiedergegeben hätten – dessen Autoren sich jedoch leider „auf ein begrenztes Set von Suchmaschinentreffer-Quellen“ gestützt hätten. Belege für seine Behauptungen lieferte der Palantir-Vertreter seinerseits nicht mit.

„Ich glaube, dass wir eine hervorragende Recherche gemacht haben und wir das sehr umfassend dokumentiert haben“, sagt Daniel Binswanger, Ko-Chefredaktor von „Republik“ im Gespräch mit heise online. Eine Recherche, die auf Schweizer Regierungsdokumenten beruhe, sei eine der „besten Grundlagen für Berichterstattung”. Er sei sehr zuversichtlich, was den Ausgang des Verfahrens angehe.

Dem Eindruck, dass ein milliardenschweres Unternehmen bei einem kleinen Magazin die Muskeln spielen lässt, tritt Palantir entschieden entgegen: Jeder Vorwurf, es handele sich um einen strategischen Einschüchterungsversuch gegenüber unliebsamer Berichtsterstattung auf dem Klageweg, sei unbegründet, betont die Unternehmenssprecherin mit: „Palantir strebt lediglich die Veröffentlichung einer prägnanten und angemessenen Gegendarstellung an, um wesentliche Ungenauigkeiten zu korrigieren.“

Doch was konkret diese „wesentlichen Ungenauigkeiten“ wären, die Palantir korrigiert sehen will, teilt die Firma nicht mit. Einer Bitte um Übersendung der von der „Republik“ konkret geforderten „Richtigstellungen“ entsprach Palantir bis Freitagnachmittag nicht.

Ob die Firma mit ihrem Vorgehen bei Gericht zumindest Teilerfolge erzielt, ist dabei kaum vorhersagbar. Das Schweizer Gegendarstellungsrecht beinhaltet keinerlei Prüfung durch das Gericht, ob eine Darstellung tatsächlich richtig war. Weshalb es in der Schweizer Medienwelt eine häufig genutzte Form ist, wenn Unternehmen sich ins falsche Licht gerückt sehen.

„Es geht beim Gegendarstellungrecht nicht um die Frage, was wahr oder falsch ist“, erklärt „Republik“-Ko-Chefredakteur Daniel Binswanger. „Es geht um die Frage, ob eine andere Version der Fakten ebenfalls möglich sein könnte.“ Doch das betrifft rein die faktische Darstellung. Wertungen hingegen sind auch in der Schweiz nicht angreifbar.

Für das Schweizer Onlinemagazin ist der Effekt hingegen spürbar und messbar. „Wir sind überwältigt“, sagt Daniel Binswanger im Gespräch mit heise online. Von Spendenangeboten, Solidaritätsbekundigungen, das sei gigantisch, sagt er. „Das haben wir noch nie erlebt, dass eine Geschichte das auslöst.“ Frau Streisand lässt grüßen.


(vbr)



Source link

Weiterlesen

Beliebt