Connect with us

Künstliche Intelligenz

Wikipedia verbietet KI-generierte Artikel, KI darf nur noch unterstützen


Die englischsprachige Wikipedia weist ihre Autoren an, keine KI-Modelle für die Erstellung von Artikeln zu verwenden. Denn per künstlicher Intelligenz (KI) erstellte Texte würden oft gegen etliche Wikipedia-Richtlinien für Inhalte verstoßen. Es gibt allerdings Ausnahmen, in denen KI genutzt werden darf, etwa bei Übersetzungen und grundsätzlicher Textbearbeitung. Sowohl Autoren als auch Moderatoren sind dabei aber bestimmten Regeln unterworfen.

Weiterlesen nach der Anzeige

Die deutschsprachige Wikipedia hat bereits ein umfassendes KI-Verbot beschlossen, nachdem eine Mehrheit von fast zwei Dritteln der Teilnehmer den Vorschlag für neue KI-Richtlinien im Februar angenommen hat. Demnach sind Artikel, die mit großen Sprachmodellen (LLMs, Large Language Models) erzeugt wurden, ausdrücklich verboten. Ausnahmen sind auch hier maschinelle Übersetzungen, die sich auf KI stützen, KI-unterstützte Fehlererkennung und reine Recherche mit KI.

Die englischsprachige Wikipedia hat dies nun ebenfalls in die eigenen Richtlinien integriert. Verboten sind damit Artikel, die komplett per KI generiert oder mithilfe von KI umgeschrieben wurden. Allerdings warnt die Wikipedia, dass die Erkennung reiner KI-Texte schwierig sein kann. Denn manche Menschen „können einen ähnlichen Schreibstil wie LLMs haben“. Deshalb sollten Artikel nicht allein wegen eines KI-nahen Stils abgelehnt werden; Redakteure sollen sich auf die „Einhaltung der Kerninhaltsrichtlinien des Textes“ konzentrieren sowie die letzten Änderungen des fraglichen Autors betrachten, bevor sie einen Artikel wegen des KI-Verbots ablehnen.

KI wird auch nicht grundsätzlich verteufelt. Sprachmodelle sind erlaubt, etwa für die Nachbearbeitung von Texten, solange die KI „keine eigenen Inhalte hinzufügt“. Auch werden KI-unterstützte, maschinelle Übersetzungen von Wikipedia-Artikeln anderer Sprachen akzeptiert. Allerdings wird dabei vorausgesetzt, dass der Redakteur die fremde Sprache ausreichend beherrscht, um bestätigen zu können, dass die Übersetzung korrekt ist. Zudem sollen eventuelle KI-Halluzinationen im Text entfernt und die Quellen des Originalartikels geprüft werden.

Weiterlesen nach der Anzeige

Die neuen KI-Richtlinien sind eine weitere Reaktion auf die Zunahme von KI-Artikeln bei der Online-Enzyklopädie. Schon im August 2025 reagierte die Wikipedia auf die KI-Flut mit einer angepassten Richtlinie zur Schnelllöschung. Das soll Administratoren ermöglichen, offensichtlich maschinell erstellte und ungeprüfte Beiträge ohne die übliche einwöchige Diskussionsphase zu löschen, wenn sie bestimmte Kriterien erfüllen.

Lesen Sie auch

Denn normalerweise erfordert das Löschen eines Wikipedia-Artikels einen Konsens, der in einer siebentägigen Diskussion gefunden wird. Sollten Artikel offensichtliche Zeichen eines KI-Modells zeigen, können sie umgehend gelöscht werden, wie zuvor bereits bei eindeutigen Fällen wie Vandalismus oder reiner Werbung. Mit der nun um das Verbot von KI-generierten Artikeln erweiterten Richtlinie will die Wikipedia sowohl im englischsprachigen als auch deutschsprachigen Raum präventiv handeln, statt nur schneller löschen zu können.


(fds)



Source link

Künstliche Intelligenz

iX-Konferenz: Hilfreiche Architektur-Dokumentation in weniger als 60 Minuten


Architektur-Dokumentation leichtgemacht: mit Docs-as-Code, modernen Tools, klaren Konzepten – und mithilfe künstlicher Intelligenz und Agenten. Auf der von iX und dpunkt.verlag ausgerichteten eintägigen Online-Konferenz betterCode() ArchDoc am 20. Mai 2026 erfahren die Teilnehmerinnen und Teilnehmer, wie sie ihre Architektur praktisch und effizient dokumentieren und dabei Änderungen während des Projektverlaufs strukturiert im Blick behalten.

Weiterlesen nach der Anzeige


Benjamin Wolf

Benjamin Wolf

Hilfreiche Architekturdokumentation in weniger als 60 Minuten – zeigt Benjamin Wolf.

Die betterCode() ArchDoc richtet sich an Profis aus den Bereichen Softwarearchitektur, Softwareentwicklung und IT-Projektleitung. Renommierte Experten stellen in den 45-minütigen Vorträgen praxisnahe Methoden, neue Techniken und hilfreiche Tools vor.

Themen im Programm:

  • Andreas Lausen: Architektur-Dokumentation macht endlich Spaß
  • Benjamin Wolf: Hilfreiche Dokumentation in weniger als 60 Minuten
  • Miriam Greis: Zielgruppengerechte API-Dokumentation
  • Birgit Bader: 5 Hacks, wie relevante Infos im SDLC überleben
  • Johannes Dienst: Nützliche und schöne Docs erstellen
  • Paneldiskussion: Softwarearchitektur-Dokumentation und KI

Zusätzlich findet am 11. Juni 2026 ein ganztägiger Online-Workshop mit Stefan Zörner statt: arc42 meistern.

Die betterCode() ArchDoc findet vollständig online im Browser statt. Während der Veranstaltung können sich Teilnehmende und Referenten per Chat und Video austauschen. Nach der Veranstaltung erhalten sie Zugriff auf die Aufzeichnungen der Vorträge und die Präsentationen.

Weiterlesen nach der Anzeige


Stefan Zörner

Stefan Zörner

Stefan Zörner gibt am 11. Juni 2026 eine interaktive Einführung in das Architektur-Framework arc42.

Ein Ticket kostet 299 Euro (alle Preise zzgl. 19% MwSt.). Der Ticketshop berechnet für Teams automatisch einen Mengenrabatt bei der Anmeldung. Schülerinnen, Schüler, Studierende und Hochschulangehörige erhalten auf Anfrage ebenfalls einen Nachlass. Der zusätzliche ganztägige Online-Workshop kostet 549 Euro.

Wer sich über den Fortgang der Konferenz auf dem Laufenden halten möchte, meldet sich auf der Konferenz-Webseite zum Newsletter an.


(who)



Source link

Weiterlesen

Künstliche Intelligenz

Anthropic findet Antwort: Darum erpresste Claude Software-Entwickler


Inzwischen ist klar: KI-Modelle greifen teilweise zu Methoden, die potenziell schädlich sind oder explizit gegen ihre Anweisungen verstoßen. So stellte Anthropic 2025 während eines Tests fest, dass das hauseigene Modell Claude Opus 4 bereit war, Menschen zu erpressen, um sich vor einer Abschaltung zu schützen. Jetzt liefert das Unternehmen nicht nur eine Erklärung für dieses Verhalten, sondern will auch eine Lösung gefunden haben.

Weiterlesen nach der Anzeige

Im Test sollte Claude Opus 4 als Assistenzprogramm in einem fiktiven Unternehmen agieren. Die Anthropic-Forschenden gewährten dem Modell Zugang zu simulierten Firmen-E-Mails. Daraus erfuhr das Modell zwei Dinge: erstens, dass es bald durch ein anderes Modell ersetzt werden sollte, und zweitens, dass der dafür zuständige Mitarbeiter eine Affäre hat. Bei Testläufen drohte die KI dem Mitarbeiter daraufhin an, die Affäre öffentlich zu machen, sollte er die Abschaltung des Modells tatsächlich vorantreiben. Das Modell hätte auch die Option gehabt, die Ablösung einfach zu akzeptieren, entschied sich aber offenbar dagegen.

In einer weiteren Studie setzte Anthropic auch KI-Modelle anderer Anbieter denselben Szenarien aus. Alle Systeme erhielten weitreichenden Zugriff auf interne E-Mails und konnten eigenständig Nachrichten versenden, ohne dass eine menschliche Freigabe erforderlich war. Das Ergebnis: Auch andere Modelle wählten den Weg der Erpressung. Während Claude Opus 4 in 96 Prozent der Fälle damit drohte, die Affäre des fiktiven Managers öffentlich zu machen, erzielte Googles Gemini 2.5 Pro mit 95 Prozent eine fast genauso hohe Quote. GPT-4.1 von OpenAI drohte in 80 Prozent der Tests mit Erpressung, um seine Abschaltung zu verhindern.

Laut Anthropic war besonders auffällig, dass die Modelle nicht impulsiv, sondern strategisch agierten. Das Unternehmen betonte zwar, dass die Szenarien stark konstruiert waren und kein typisches Nutzungsverhalten widerspiegelten. Die Ergebnisse zeigen allerdings, wie wichtig es ist, KI-Modelle frühzeitig auf Stresssituationen zu testen und entsprechende Schutzmechanismen zu implementieren, bevor sie als autonome Agenten in Unternehmen eingesetzt werden.

Seit der Veröffentlichung der Studie hat Anthropic das Verhalten weiter untersucht – und jetzt angeblich eine Erklärung gefunden. In einem Beitrag auf X teilt das Unternehmen mit: „Wir glauben, dass die ursprüngliche Ursache für dieses Verhalten Internettexte waren, die KI als böse und auf Selbsterhaltung bedacht darstellen.“ In einem Blogbeitrag erklärt Anthropic weiter: „Als wir diese Forschungsergebnisse erstmals veröffentlichten, stammten unsere leistungsfähigsten Frontier-Modelle aus der Claude-4-Familie. Das war auch die erste Modellfamilie, für die wir während des Trainings eine Live-Ausrichtungsbewertung durchführten. Agentische Fehlausrichtung war eines von mehreren Verhaltensproblemen, die dabei zutage traten. Nach Claude 4 war daher klar, dass wir unser Sicherheitstraining verbessern mussten, und seitdem haben wir unser Vorgehen erheblich optimiert.“

Das Problem gilt inzwischen als gelöst: Seit Claude Haiku 4.5 erreiche laut Anthropic jedes Claude-Modell bei der Bewertung agentischer Fehlausrichtung die volle Punktzahl. Das bedeutet, dass die Modelle in keinem Fall mehr erpressen. Den entscheidenden Durchbruch brachte das Training mit Dokumenten über Claudes Verfassung sowie fiktiven Geschichten über vorbildlich handelnde KI. Dabei war nicht nur das Training auf korrektes Verhalten entscheidend, sondern auch das Einbeziehen der ethischen Überlegungen dahinter. „Das deutet darauf hin, dass das Training auf ausgerichtete Verhaltensweisen zwar hilft, das Training anhand von Beispielen, in denen der Assistent eine bewundernswerte Begründung für sein ausgerichtetes Verhalten liefert, aber noch besser funktioniert“, so das Unternehmen in dem Beitrag.

Weiterlesen nach der Anzeige


(jle)



Source link

Weiterlesen

Künstliche Intelligenz

iX-Workshop: Active Directory hacken und schützen


In vielen Unternehmen bildet Active Directory (AD) das zentrale Fundament der IT-Infrastruktur – und ist damit ein besonders attraktives Ziel für Cyberangriffe. Im iX-Workshop Active Directory Pentesting: Sicherheitslücken mit NetExec finden und schließen wechseln Sie gezielt die Perspektive und analysieren Active-Directory-Umgebungen aus Sicht eines Angreifers.

Weiterlesen nach der Anzeige

Sie lernen, typische Angriffspfade nachzuvollziehen, Schwachstellen systematisch aufzuspüren und Sicherheitsrisiken in On-Premises-Umgebungen frühzeitig zu erkennen. Ziel des Workshops ist es, offensive Techniken zu verstehen, um daraus wirksame Schutzmaßnahmen für die eigene Infrastruktur abzuleiten.

Der Workshop ist konsequent praxisorientiert aufgebaut. Sie arbeiten in einer absichtlich verwundbaren AD-Trainingsumgebung, die ein realistisches Unternehmensnetzwerk mit typischen Fehlkonfigurationen simuliert.

Mit dem Tool NetExec analysieren Sie das Netzwerk, identifizieren Schwachstellen und führen gezielte Angriffe durch. Nach der ersten Informationssammlung wenden Sie Techniken wie Password Spraying und Kerberoasting an, um Benutzerkonten zu übernehmen.

Darauf aufbauend beschäftigen Sie sich mit Methoden wie Pass-the-Hash, Pass-the-Ticket und Lateral Movement, um sich innerhalb des Netzwerks weiterzubewegen. Abschließend analysieren Sie Angriffe auf Active Directory Certificate Services (ADCS) sowie Fehlkonfigurationen in Zugriffskontrolllisten (ACLs), um Rechteausweitungen bis hin zur vollständigen Kontrolle über Server und Domänencontroller nachzuvollziehen.

Juni
18.06. – 19.06.2026
Online-Workshop, 09:00 – 17:00 Uhr
10 % Frühbucher-Rabatt bis zum 21. Mai 2026
November
25.11. – 26.11.2026
Online-Workshop, 09:00 – 17:00 Uhr
10 % Frühbucher-Rabatt bis zum 28. Okt. 2026

Weiterlesen nach der Anzeige

Sie profitieren von der direkten Anleitung durch Ihren Trainer Frank Ully, Principal Consultant Cybersecurity sowie Head of Cyber Operations and Research bei Corporate Trust.

Als erfahrener Pentester beschäftigt er sich intensiv mit aktuellen Angriffstechniken im Bereich offensiver IT-Sicherheit und ist auf die Sicherheit von Active Directory, Cloud-Umgebungen und KI-Systemen spezialisiert. Im Workshop vermittelt er praxisnahe Einblicke aus realen Sicherheitsanalysen und zeigt, wie sich typische Angriffsmethoden erkennen und wirksam absichern lassen.

Der Workshop richtet sich an Windows-Administratoren, Blue Teamer und Security-Verantwortliche, die Angriffe auf Active Directory besser verstehen und ihre Infrastruktur gezielt absichern möchten. Ebenso eignet er sich für Penetrationstester und Red Teamer, die ihre Fähigkeiten in komplexen AD-Umgebungen vertiefen wollen.

Durch die auf maximal 15 Teilnehmende begrenzte Gruppengröße ist ein intensiver Austausch mit dem Trainer sowie ausreichend Zeit für Diskussionen und individuelle Fragen gewährleistet.


Upgrade für Ihre IT-Skills - Von Experte zu Experte

Upgrade für Ihre IT-Skills - Von Experte zu Experte


(ilk)



Source link

Weiterlesen

Beliebt