Connect with us

Künstliche Intelligenz

Deutschsprachige Wikipedia erwägt umfassendes KI-Verbot


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

In der deutschsprachigen Wikipedia zeichnet sich ein umfassendes Verbot von KI-generierten Inhalten ab. In einem Meinungsbild, einer Abstimmung unter regelmäßigen Autoren der freien Enzyklopädie, gab es bis Freitag eine deutliche Mehrheit für ein Verbot. Noch bis Montagabend, den 15. Februar um 19:00 Uhr, können berechtigte Teilnehmer abstimmen. Befürworter des Verbots argumentieren, dass die Wikipedia ein Leuchtturm menschengeschriebener Inhalte sein könnte, wenn sie auf KI-generierte Inhalte verzichte. Kritiker beanstanden mangelnde Kontrollierbarkeit eines solchen Verbots und fehlende Zukunftsfähigkeit, wenn sich Wikipedia der KI verschließe.

Weiterlesen nach der Anzeige

Kernforderungen des Meinungsbildes sind ein ausdrückliches Verbot von KI-generierten oder bearbeiteten Texten. Wer wiederholt dagegen verstößt, soll künftig unbefristet gesperrt werden. Das Verbot soll auch für Diskussionsseiten gelten.

Es soll allerdings Ausnahmen geben: Über KI-generierte Bilder soll im Einzelfall entschieden werden. Maschinelle Übersetzungen sollen bei vollständiger Überprüfung ebenso zulässig sein wie KI-gestützte Fehlerkorrekturen bei Rechtschreibung und Grammatik. Auch bei Recherchen soll KI-Unterstützung zulässig sein, sofern nicht Formulierungsvorschläge übernommen werden.

Für die Befürworter ist ein KI-Verbot eine klare Sache: „Von Menschen, für Menschen“ könnte als Qualitätssiegel gelten und die Glaubwürdigkeit der Enzyklopädie-Einträge schützen, heißt es in der Diskussion. Es wäre auch ein Signal gegen „KI-Müll im Internet“. Zudem seien Halluzinationen beim Gebrauch von KI ein grundlegendes, fortbestehendes Problem, wie selbst Unternehmen wie OpenAI einräumen.

Weiterlesen nach der Anzeige

Die Gegner des Verbots fürchten hingegen chaotische Zustände, da Erkennungskriterien mit Beweiskraft fehlten und es damit auch kein definiertes Verfahren bei Verstößen geben könne. Zudem sollte die Qualität des Ergebnisses zählen und nicht der Weg dorthin. Sie fordern zudem eine Zweidrittelmehrheit als Voraussetzung für ein Verbot. Die Entscheidung sei zu weitreichend, um sie mit einfacher Mehrheit zu beschließen. Sie halten ein Verbot zudem für zukunftsfeindlich. In Bildungssystemen steige die KI-Nutzung. Wikipedia wirke da wie „in der Zeit stehen geblieben“.

Im Falle der zunehmend wahrscheinlichen Annahme des Verbots stehen der deutschsprachigen Wikipedia viele Diskussionen ins Haus. Dazu zählt etwa, wie mit wissenschaftlichen Veröffentlichungen umgegangen werden soll. Der Vorschlag würde solche Journals als Belege ausschließen, was kontrovers ist, da viele seriöse Fachzeitschriften inzwischen LLM-Nutzung bei der Manuskripterstellung erlauben und transparent machen. Auch über bereits vorhandene KI-generierte Artikel wird zu beraten sein. Und Verdachtsfälle dürften aufgrund der schwierigen Erkennbarkeit sicherlich auch für viele Diskussionen sorgen.

Das Bestreben, das menschliche Alleinstellungsmerkmal der Wikipedia herauszuarbeiten, dürfte auch mit der Entwicklung der Abrufzahlen zu tun haben. Die steigende KI-Nutzung hat dazu geführt, dass eine zunehmende Zahl von Menschen ihre Fragen mithilfe von Chatbots beantwortet. Ob freilich der Verzicht auf KI-Generierung genügt oder ob die Bequemlichkeit vieler Nutzer angesichts der immer stärkeren Integration von KI in Betriebssysteme obsiegt, gilt es abzuwarten. Hinzu kommt, dass andere Wikipedia-Sprachversionen abweichende Regelungen getroffen haben. Die Wikimedia-Foundation etwa erlaubt in ihrer Strategie mit dem Schlagwort „Humans First“ (offiziell: AI Strategy Brief 2025, Zeithorizont 2025–2028) den Gebrauch von KI als Hilfsmittel.


(mki)



Source link

Künstliche Intelligenz

SPD will Social-Media-Verbot für Kinder unter 14


Das kürzlich eingeführte australische Social-Media-Verbot für Jugendliche ruft Nachahmer rund um den Globus auf den Plan. Jetzt will auch die SPD in Deutschland strengere Regeln für die Jugend.

Weiterlesen nach der Anzeige

Die SPD hat in einem Impulspapier die Einführung eines Social-Media-Verbots für Kinder unter 14 Jahren gefordert. Die Partei schlägt vor, eine Altersverifikation mithilfe der App „EUDI-Wallet“ verpflichtend zu machen.

Kern des Vorschlags ist eine nach drei Altersgruppen abgestufte Regelung: Für unter 14-Jährige solle fortan ein vollständiges Verbot der Nutzung von Social-Media-Plattformen bestehen. Die Anbieter sollen verpflichtet werden, „den Zugang technisch wirksam zu unterbinden“. Verstöße durch die Plattformen müssten für diese schnelle und spürbare Konsequenzen haben: „von sofortigen Anordnungen und empfindlichen Sanktionen bis hin zu temporären Einschränkungen oder Netzsperren als Ultima Ratio“.

Für unter 16-Jährige solle hingegen eine verpflichtende „Jugendversion der Plattformen“ gelten. Diese dürfe keine suchtverstärkenden Funktionen enthalten wie etwa Endlos-Scrollen, automatisches Abspielen von Inhalten oder Anreizsysteme, die intensive oder dauerhafte Nutzung belohnen. Zudem müsse eine Jugendversion ohne algorithmisch gesteuerte Feeds auskommen und dürfe Inhalte auch nicht mehr personalisiert ausspielen.

Jugendliche unter 16 sollen künftig ausschließlich über die „EUDI-Wallet“-App ihrer Erziehungsberechtigten Zugang zu Instagram und Co. haben. Bei der App (EU Digital Identity Wallet) handelt es sich um eine Art digitales Portemonnaie, in dem beispielsweise Personalausweis und Führerschein der Erziehungsberechtigten gespeichert sind.

Weiterlesen nach der Anzeige

Für alle Bürger ab 16 Jahren – also auch für Erwachsene – sollen künftig auf den digitalen Plattformen zudem algorithmische Empfehlungssysteme standardmäßig deaktiviert sein. Wollen Nutzer Inhalte durch Algorithmen vorgeschlagen bekommen, müssten sie sich also bewusst und aktiv dafür entscheiden. Auch diese Altersgruppe müsste sich dem Vorschlag entsprechend künftig vor der Nutzung mit „EUDI-Wallet“ verifizieren.

Über die Altersbegrenzungen hinaus versteht die SPD ihren Vorschlag als eine größer angelegte „Rückkehr zum klassischen Social-Media-Prinzip“. Nutzer sozialer Medien sollten künftig wieder selbst entscheiden können, was sie sehen wollen und was nicht. Die Standardeinstellung auf Plattformen müsse wieder sein, dass Nutzer auf ihrer Seite ausschließlich Inhalte von Personen und Accounts zu sehen bekommen, denen sie aktiv folgen. Statt eines automatisch kuratierten Feeds, der verdeckt priorisiert und einzelne Inhalte algorithmisch verstärkt, sollten Nutzer wieder selbst bestimmen, so das Papier.

Lesen Sie auch

Der SPD-Vorsitzende und Vizekanzler Lars Klingbeil hatte in einem Interview der Deutschen Presse-Agentur betont, dass bei ihm momentan ein Umdenken stattfinde: „Vor ein paar Jahren haben wir alle die Freiheit des Netzes betont und gesagt, da darf es keinerlei Einschränkung geben. Aber jetzt sehen wir doch in den Debatten, dass gesellschaftlich etwas passiert, dass junge Leute zu mir kommen und sagen, wir brauchen klare Regeln, wie wir mit sozialen Netzwerken umgehen.“

Dem Spiegel sagte sagte Klingbeil nun: „Der Schutz junger Menschen vor der Flut an Hass und Gewalt in sozialen Medien hat oberste Priorität.“ Und: „Wir kommen an klaren Regeln und Einschränkungen – wie sie der SPD-Vorschlag unterbreitet – nicht mehr vorbei.“

Im Ausland wollen gleich mehrere Länder wie Dänemark, Großbritannien, Frankreich und Spanien dem Vorbild Australiens folgen, das vor zwei Monaten als erstes Land der Welt ein generelles Social-Media-Verbot für unter 16-Jährige eingeführt hat. Die Kinder dürfen dort keine eigenen Social-Media-Accounts mehr haben.

Auch aus der CDU kamen zuletzt befürwortende Stimmen, was eine strengere Regulierung von sozialen Medien betrifft. Familienministerin Karin Prien (CDU) hatte erklärt, ein Verbot bis zu einem bestimmten Alter könne sie sich persönlich vorstellen. Die CDU will auf ihrem Parteitag am kommenden Wochenende über das Thema diskutieren.


(afl)



Source link

Weiterlesen

Künstliche Intelligenz

GitHub sicher nutzen: So reduzieren Sie Ihr Risiko bei Fremdcode-Installation


„GitHub? … das ist doch nur was für Entwickler!“ Bis vor wenigen Jahren konnte man so einem Satz weitgehend zustimmen. Doch inzwischen ist die Plattform auch bei unerfahrenen Nutzern beliebt: Dort erhalten sie Software direkt von der Quelle. Viele Hersteller spannender Tools machen ihre Software vor allem über GitHub und ähnliche Dienste der Öffentlichkeit zugänglich. Doch der offene Zugang hat seinen Preis.

Grundsätzlich gilt: Code von Fremden auszuführen, ist riskant. Und die wachsende Popularität von Plattformen wie Github zieht auch Angreifer an. Sie klonen etwa harmlose Projekte und verseuchen sie mit Malware. So lassen sich Hintertüren auf den Systemen ihrer Opfer einrichten, Ransomware oder Kryptominer installieren.

Dieser Artikel erläutert verschiedene Ansätze, die insbesondere Nicht-Softwareentwicklern und Nicht-Cybersecurity-Experten Anhaltspunkte geben, um offensichtlichere Kompromittierungen und Angriffe zu erkennen. Die Tipps beschreiben etwa, wie Einsteiger das Haupt-Repository eines gesuchten Projekts auf GitHub finden und von seinen Ablegern unterscheiden. Zudem behandelt er einige Suchansätze, um Kompromittierungen in Quellcode zu erkennen. Viele Gefahren lassen sich so reduzieren. Der Artikel konzentriert sich auf die Plattform GitHub, viele grundsätzliche Aussagen gelten implizit aber auch für andere Plattformen wie Gitlab, Gitea oder Codeberg.


Das war die Leseprobe unseres heise-Plus-Artikels „GitHub sicher nutzen: So reduzieren Sie Ihr Risiko bei Fremdcode-Installation“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

KI-Sicherheitsexperte kündigt bei Anthropic und sagt: Die Welt ist in Gefahr


Ein leitender Sicherheitsforscher für Künstliche Intelligenz hat die KI-Firma Anthropic verlassen, weil er die Welt in Gefahr sieht. Mrinank Sharma begründet diese kryptische Warnung aber nicht nur mit der Entwicklung von KI, sondern auch mit biologischen Waffen und aktuellen globalen Krisen. In einem Abschiedsbrief an Kollegen nach seiner Kündigung erwähnt er aber auch den von ihm verspürten Druck innerhalb Anthropics, was beiseiteschieben würde, was wirklich zählt. Sharma will nun für eine Weile untertauchen und sich der Poesie widmen.

Weiterlesen nach der Anzeige

Die Kündigung Sharmas erfolgte nur einen Tag, bevor eine KI-Forscherin OpenAI verließ. Zoe Hitzig begründete ihren Abschied vom Anthropic-Konkurrenten allerdings damit, dass ChatGPT in den USA Werbung einführt. „OpenAI verfügt über die detaillierteste jemals zusammengetragene Aufzeichnung privater menschlicher Gedanken“, schreibt sie bei X. „Können wir darauf vertrauen, dass sie den Versuchungen widerstehen, diese Aufzeichnungen zu missbrauchen?“

Hitzig verwies auf „frühe Warnsignale“, die darauf hindeuten würden, dass die Abhängigkeit von KI-Tools „besorgniserregend“ sei. Ähnlich wie soziale Netzwerke könnte dies die psychische Gesundheit der Nutzer beeinträchtigen und sogar zu Wahnvorstellungen führen. „Es ist wirklich gefährlich, einen Wirtschaftsmotor zu schaffen, der davon profitiert, solche neuen Beziehungen zu fördern, bevor wir sie verstehen“, sagte sie im Gespräch mit der BBC.

OpenAI wiegelte jedoch ab und erklärte der BBC: „Unsere Mission ist es, sicherzustellen, dass AGI (Künstliche allgemeine Intelligenz, Anm. der Red.) der gesamten Menschheit zugutekommt; unser Werbeengagement dient stets der Unterstützung dieser Mission und dem Ziel, KI zugänglicher zu machen.“ Weiter hieß es seitens der KI-Firma: „Wir behandeln Ihre Gespräche mit ChatGPT vertraulich und verkaufen Ihre Daten niemals an Werbetreibende.“

Zwar begründen die ehemaligen Mitarbeiter der hochrangigen KI-Firmen ihre Kündigungen unterschiedlich, Hitzig und Sharma haben aber ähnliche Bedenken. Auch der Ex-Angestellte Anthropics hat nach eigenen Angaben „immer wieder gesehen, wie schwer es ist, unsere Werte wirklich unser Handeln bestimmen zu lassen“. Denn die von den Start-ups angebotene KI kann nicht nur zu nützlichen Zwecken verwendet werden, Claude von Anthropic wurde auch von Cyberkriminellen missbraucht, wie die KI-Firma selbst darstellt. Allerdings gibt es auch Zweifel an dieser autonomen KI-Cyberattacke.

Weiterlesen nach der Anzeige

Lesen Sie auch

Jedenfalls ist es laut Mrinank Sharma „Zeit weiterzuziehen“, obwohl er seine Zeit bei Anthropic genossen habe. Denn „die Welt ist in Gefahr“, schreibt er bei X. „Und zwar nicht nur durch KI oder Biowaffen, sondern durch eine ganze Reihe miteinander verbundener Krisen, die sich in diesem Augenblick entfalten.“ Sharma wird nach eigener Aussage nach Großbritannien zurückkehren und „für eine gewisse Zeit unsichtbar werden“. Statt sich mit KI zu beschäftigen, hofft er, „ein Poesiestudium beginnen zu können“.


(fds)



Source link

Weiterlesen

Beliebt