Connect with us

Künstliche Intelligenz

Stable Diffusion: Neue Erweiterung bringt KI-Bilder in LibreOffice


Nutzer der freien Office-Suite LibreOffice (ab Version 7.4) können jetzt direkt Bilder mittels generativer KI erzeugen lassen. Anders als bei kommerziellen Office-Suites wird das niemandem aufs Auge gedrückt, sondern Nutzer müssen eine Erweiterung installieren und einen kostenlosen, pseudonymen Schlüssel beantragen. Dann können sie in der Textverarbeitung Writer sowie der Präsentationssoftware Impress Textbefehle (prompts) eingeben, um entsprechende Bilder zu bestellen.

Erforderlich ist eine Internetverbindung. Erzeugt werden die Bilder gebührenfrei durch die KI Stable Diffusion auf Infrastruktur der AI Horde. Entsprechend heißt das LibreOffice-Plugin auch Stable Diffusion for LibreOffice. Der Entwickler der Erweiterung, Igor Támara, weist darauf hin, dass Eingaben auf Englisch derzeit bessere Ergebnisse zeitigen als Eingaben in anderen Sprachen. Letztere sind aber möglich, und er lädt ein, das auch auszuprobieren.

Wie schnell Bilder generiert werden, hängt davon an, wie rechenaufwändig die gestellte Aufgabe ist, und wie stark die Nachfrage nach Leistung der AI Horde gerade ist. Dies ist ein dezentrales Projekt, das Rechenzeit auf Computern Freiwilliger nutzt. Gefragt sind insbesondere Server mit starken Grafikprozessoren (GPUs); „normale“ Computer können ebenfalls bei der AI Horde mithelfen, schließlich müssen die Bilder nach der KI-Ausgabe automatisiert nachbearbeitet werden und der sogenannten interrogation unterzogen werden.

Interrogation meint hier eine Art Bilderkennung, die Objekte oder Personen im Bild erkennt, Bildbeschreibungen erstellt und/oder als Filter fungiert. Kinderpornografie ist bei AI Horde verboten; zudem kann jeder Freiwillige, die seine GPU zur Verfügung stellt, festlegen, ob sein System sexualisierte Darstellungen Erwachsener („NSFW“) generieren darf oder nicht.

Bevorzugt abgearbeitet werden Aufträge von Nutzern, die selbst etwas zur AI Horde beitragen. Ihre Beiträge werden in einer Art Währung namens Kudos erfasst; sie können auch ohne Beisteuern von Rechnerleistung erworben werden, beispielsweise durch Bewerten von Bildern, erfüllen von Aufgaben, für die Kudos ausgelobt wurden (bounties), oder Spenden über Patreon. Wer keine Kudos hat, kann sich dennoch Bilder erzeugen lassen, muss aber vielleicht ein bisschen länger warten und häuft mit der Zeit immer mehr negative Kudos an.

Die Registrierung für einen Schlüssel (API Key) der AI Horde erfolgt ohne Angabe von Namen oder E-Mail-Adresse per sofort. Das Projekt hofft also darauf, dass Nutzer irgendwann auch etwas beisteuern und die Freiwilligeninfrastruktur nicht nur ausnutzen.

Támara arbeitet daran, das LibreOffice-Plugin auch in die Tabellenkalkulation Calc sowie das Zeichenprogramm Draw zu bringen. Und er rät davon ab, sensible Bildaufträge zu erteilen, da jede Aufgabe an einen Rechner eines unbekannten Freiwilligen übertragen wird.

Wer ein Large Language Model (LLM) auf dem eigenen Rechner betreibt, kann sich dank des LibreOffice-Plugins localwriter KI-Texterzeugung in die Textverarbeitung Writer holen. Voraussetzung ist, dass text-generation-webui installiert ist und mit dem LLM zusammenarbeitet.

Experimentelle Einbindung eines lokalen LLMs gibt es zudem in der LibreOffice-Erweiterung WritingTool. Sie soll – mit oder ohne KI – Verbesserungsvorschläge zu Rechtschreibung, Schreibstil und Grammatik unterbreiten.


(ds)



Source link

Künstliche Intelligenz

OLG-Urteil: Biometrische Überwachung bei Online-Prüfungen ist rechtswidrig


Das Thüringer Oberlandesgericht (OLG) hat mit einem Urteil vom Montag entschieden, dass die Online-Überwachung von Studierenden während digitaler Prüfungen mithilfe biometrischer Gesichtserkennung („Proctoring“) rechtswidrig ist (Az.: 3 U 885/24). Die Richter stellen mit dem Urteil in 2. Instanz klar, dass die Praktiken, die viele Universitäten während der Corona-Pandemie zur Betrugsprävention einführten, einen tiefen und unzulässigen Eingriff in die Grundrechte der Betroffenen darstellen.

Weiterlesen nach der Anzeige

Konkret verstößt die Verarbeitung von biometrischen Daten, die etwa zur Gesichtserkennung und damit zur Identifizierung der Prüflinge dienen, laut der an der Klage beteiligten Gesellschaft für Freiheitsrechte (GFF) gegen Artikel 9 der Datenschutz-Grundverordnung (DSGVO). Demnach dürfen solche besonders sensiblen Körperinformationen nur in Ausnahmefällen und vor allem nur mit einer ausdrücklichen, freiwilligen und informierten Einwilligung der betroffenen Person verarbeitet werden.

Das Gericht stellte fest, dass die beklagte Hochschule diese Anforderungen nicht erfüllte. Wichtiger Grund: Die Studierenden hatten in der Regel keine echte Wahl, an den Online-Prüfungen teilzunehmen, wenn sie ihr Studium fortsetzen wollten. Die Studentin Jennifer Kretzschmar, die in dem Fall gegen die Universität Erfurt klagte und von der GFF sowie der Studentenorganisation FZS unterstützt wurde, erhielt daher Schadensersatz zugesprochen. Damit erkennen die Richter die erlittene Rechtsverletzung und die damit verbundenen Ängste und Unsicherheiten rund um die Verwendung und Speicherung ihrer sensiblen Daten an.

Im Zentrum des Verfahrens stand die Anwendung Wiseflow, die die Uni Erfurt zur digitalen Beaufsichtigung einsetzte. Diese Software überwachte die Studierenden auch per Gesichtserkennung. Dies sollte sicherstellen, dass während der gesamten Prüfungszeit dieselbe Person vor dem Monitor saß. Das OLG beanstandete vor allem die Tatsache, dass Wiseflow die gesammelten biometrischen Daten zudem an den externen Cloud-Dienstleister Amazon Web Services (AWS) weiterleitete. Dieser als klar rechtswidrig eingestufte Transfer verschärfte die datenschutzrechtlichen Bedenken erheblich.

Die GFF betont die Notwendigkeit, einen klaren Unterschied zwischen Aufsicht und Ausspionieren zu ziehen. Sie fordert Hochschulen auf, die Grundrechte ihrer Studierenden zu respektieren. GFF-Jurist David Werdermann lobt die OLG-Ansage: „Big Brother hat keinen Lehrauftrag.“ Das Urteil unterstreiche, dass die digitale Überwachungspraxis vieler Unis die informationelle Selbstbestimmung und das Recht auf Privatsphäre der Studierenden unangemessen einschränke.

Neudeutsch Proctoring wird die Beaufsichtigung von Prüfungen und Tests genannt, um die Identität der Teilnehmer zu überprüfen und Täuschungsversuche zu verhindern. Dazu kommt nicht nur bei Online-Prüfung oft Software zum Einsatz. Aus einem von der GFF beauftragten Gutachten geht hervor: Studierende sind dafür oft gezwungen, Anwendungen zu installieren, deren Funktionsumfang Spyware ähnelt.

Die Klägerin hob hervor, dass die eingesetzte Überwachungssoftware starke Ängste bei ihr ausgelöst habe. Die Entscheidung sei daher nicht nur ein rechtlicher Erfolg, sondern auch eine Bestätigung des Gefühls vieler Studierender, in ihren Grundrechten verletzt worden zu sein.

Weiterlesen nach der Anzeige

Das OLG kassierte mit seiner Entscheidung die der vorherigen Instanz. Das Landgericht Erfurt hatte die Klage im November 2024 zunächst noch abgewiesen. Das Urteil hat nach GFF-Ansicht Signalwirkung weit über den Bildungssektor hinaus, da es die strengen Anforderungen der DSGVO an die Verarbeitung biometrischer Daten in einer digitalen Umgebung bekräftige. Es diene als wichtiger Maßstab für alle Bereiche, in denen Technologien zur biometrischen Überwachung – etwa am Arbeitsplatz oder in anderen öffentlichen oder privaten Umfeldern – genutzt werden sollen.

Die GFF reichte zusammen mit einem Studenten der Fernuniversität Hagen auch einen Eilantrag beim Oberverwaltungsgericht (OVG) Nordrhein-Westfalen ein. Ziel war es, dass eine für März 2021 geplante Prüfung nicht aufgezeichnet, sondern allenfalls mittels Videoübertragung beobachtet wird. Die Münsteraner Richter wiesen den Eilantrag aber ab. Diese Entscheidung beruhte nicht auf einer ausführlichen Prüfung der Rechtslage, sondern nur auf einer Folgenabwägung. Ausdrücklich heißt es vom OVG: Die „Rechtmäßigkeit der Aufzeichnung und Speicherung“ könne im Eilverfahren nicht geklärt werden.


(vbr)



Source link

Weiterlesen

Künstliche Intelligenz

Niedersachsen: Polizei soll schon im Vorfeld von Straftaten überwachen dürfen


Die niedersächsische Landesregierung will mit ihrem Entwurf zur Novelle des Polizei- und Ordnungsbehördengesetzes (NPOG) den Strafverfolgern des Landes umfassende neue Befugnisse im digitalen Raum und bei der präventiven Gefahrenabwehr verschaffen. Die Reform soll es den Ordnungshütern ermöglichen, auf neue Bedrohungsformen – insbesondere im Bereich Cyberkriminalität und Terrorismus – effektiver reagieren zu können.

Weiterlesen nach der Anzeige

Doch es hagelt Kritik: In deren Zentrum stehen die Herabsetzung der Eingriffsschwelle und die geplanten technologischen Überwachungsinstrumente, die erhebliche Grundrechtseingriffe zur Folge haben könnten.

Die wohl einschneidendste Neuerung ist die Einführung des Konzepts der „Vorfeldstraftat“ in Paragraf 2, das die Eingriffsschwelle polizeilicher Maßnahmen senkt und an die Precrime-Dystopie aus dem Film „Minority Report“ erinnert. Mit dem vom Bundesverfassungsgericht im Urteil zum BKA-Gesetz behandelten Ansatz sollen Überwachungsbefugnisse schon in einem sehr frühen Stadium zur Anwendung kommen, sofern eine strafbewehrte Vorbereitungshandlung von erheblicher Bedeutung vorliegt.

Zu den zentralen Überwachungsmaßnahmen, die bereits im Vorfeld zulässig sein sollen, gehört der nachträgliche biometrische Abgleich mit öffentlich zugänglichen Daten aus dem Internet (Paragraf 32 c). Dies würde es Ermittlern erlauben, biometrische Merkmale, etwa aus Fotos oder aus der Videoüberwachung von Personen, die mit einer einschlägigen Vorfeldstraftat in Verbindung stehen, mit öffentlich zugänglichen Informationen abzugleichen. So könnten sie etwa mit automatisierter Gesichtserkennung die Identität feststellen.

Gegner werten dies als rechtliche Grundlage für ein weitreichendes, anlassloses Internet-Crawling durch die Polizei. Ebenfalls ist der Einsatz der automatisierten Datenanalyse (Paragraf 45 a) zur Abwehr von Gefahren im Zusammenhang mit einer Vorfeldstraftat von erheblicher Bedeutung vorgesehen.

Die Novelle sieht generell eine Reihe neuer Befugnisnormen zur Nutzung moderner Technologien vor, die tief in die informationelle Selbstbestimmung der Bürger eingreifen. Der Entwurf regelt etwa den Einsatz sogenannter intelligenter Videoüberwachung. Dabei unterscheidet die rot-grüne Landesregierung zwischen zwei den Hauptformen Verhaltenserkennung und biometrischer Echtzeit-Fernidentifizierung.

Bei ersterer werden automatisierte Systeme zur Erkennung und Auswertung von Mustern bezogen auf Personen eingesetzt. Die Anwendung soll auf die Feststellung von Verhaltensmustern beschränkt werden, die auf eine geplante Straftat oder einen Unglücksfall hindeuten. Eine pauschale Zulassung zur biometrischen Erkennung wird zwar ausgeschlossen, eine automatisierte Vorhersage potenzieller Gefahrenlagen aber nicht.

Weiterlesen nach der Anzeige

Auch eine Kompetenz zur besonders umkämpften Live-Gesichtserkennung im öffentlichen Raum soll neu geschaffen werden. Sie ist dem Plan nach nur zulässig, um eine gegenwärtige Gefahr für Leib oder Leben abzuwehren oder zur Verhinderung einer terroristischen Straftat, und unterliegt einem strengen Richtervorbehalt mit hohen Eingriffshürden. Die KI-Verordnung der EU setzt hier enge Grenzen, deren Einhaltung voraussichtlich gerichtlich überprüft werden dürfte.

Mit der Einführung der automatisierten Datenanalyse soll die Polizei KI-gestützte Anwendungen nutzen dürfen, um große Mengen von rechtmäßig erhobenen, internen Fall-, Personen- und Sachdaten zu verknüpfen und auszuwerten. Ziel ist es, durch die Erkennung von verborgenen Mustern und Beziehungen in komplexen Datensätzen Gefahren frühzeitig zu erkennen und abzuwehren.

Obwohl die Regierung betont, keine Software der umstrittenen US-Firma Palantir einsetzen zu wollen, sollen damit potenziell ähnlich weitreichende Big-Data-Analysen zulässig werden. Die Kontrolle will sie durch den vagen Grundsatz „Human-in-the-Loop“ gewährleistet wissen, bei dem die finale Entscheidung über polizeiliche Schritte beim Beamten verbleiben würde.

Auch weitere Bereiche sollen eine deutliche rechtliche Ausweitung erfahren: Der Entwurf schafft Rechtsgrundlagen für den Einsatz unbemannter Fahrzeugsysteme (Drohnen). Dieser soll grundsätzlich offen erfolgen. Zudem geht es um die Detektion und Abwehr solcher Flugobjekte, die eine unberechtigte Gefahr darstellen.

Ferner soll die Nutzung von mobilen Bild- und Tonaufzeichnungsgeräten räumlich und technisch erweitert werden. Künftig könnten Bodycams unter strengen Voraussetzungen – zur Abwehr einer dringenden Gefahr für Leib oder Leben – auch in Wohnungen genutzt werden. Technisch ermöglicht wird zudem die automatisierte Auslösung der Aufzeichnung, beispielsweise über eine Holster-Signalvorrichtung beim Ziehen der Dienstwaffe, um das Deeskalationspotenzial und die Beweissicherung in Stresssituationen zu erhöhen.

Im Rahmen der Anpassung an europäische Vorgaben sollen zudem die Regeln zur Datenübermittlung an öffentliche und private Stellen auch in Drittstaaten überarbeitet werden. Das nährt Sorgen für die Privatsphäre bei Weitergaben in Länder mit potenziell geringerem Datenschutzniveau.

Bürgerrechtler vom Freiheitsfoo monieren, dass das Vorhaben einen Paradigmenwechsel in der niedersächsischen Sicherheitspolitik einleite. Der Staat verlagere damit seinen Fokus von der konkreten Gefahrenabwehr hin zur Vorhersage. Die Bevölkerung werde unter Generalverdacht gestellt. Punkte wie Transparenz insbesondere zur Funktionsweise der KI-Systeme und die Gefahr der Diskriminierung durch algorithmische Voreingenommenheit blieben unterbelichtet.

Die 1. Lesung im Landtag ist für Mittwoch geplant. Auch Länder wie Berlin oder Baden-Württemberg stricken aktuell an Novellen ihrer Polizeigesetze, wobei ebenfalls KI-Analysen im Vordergrund stehen. Bei der Bundesregierung ist ein ähnliches „Sicherheitspaket“ in der Mache.


(wpl)



Source link

Weiterlesen

Künstliche Intelligenz

Öffentliche Sicherheit wichtiger als Umwelt: Klage gegen A1-Ausbau abgewiesen


Das Bundesverwaltungsgericht hat grünes Licht für den ersten Teil des Lückenschlusses der Autobahn 1 in der Eifel gegeben. Das oberste deutsche Verwaltungsgericht in Leipzig wies die Klage des rheinland-pfälzischen Umweltschutzverbandes BUND gegen die Planungen des Landesbetriebs Mobilität ab. (Az.: BVerwG 9 A 17.25). Der Ausbau der A1 sei ein wichtiges europäisches Infrastrukturvorhaben und als solches bedeutsam für die öffentliche Sicherheit.

Weiterlesen nach der Anzeige

Die A1 ist eine der längsten Autobahnen Deutschlands. Sie führt über 730 Kilometer von der Ostseeküste in Schleswig-Holstein über Hamburg, Bremen und Köln durch die Eifel bis nach Saarbrücken – allerdings mit Unterbrechung. Derzeit endet sie im Norden nahe Blankenheim in Nordrhein-Westfalen und im Süden bei Kelberg und hinterlässt eine etwa 25 Kilometer lange Lücke. In dem Verfahren ging es um den Abschnitt Adenau-Kelberg.

Die Umweltschützer hatten eine Vielzahl von Verstößen gegen den Arten- und Habitatschutz gerügt. Die geplante, rund zehn Kilometer lange Strecke führt durch das Vogelschutzgebiet „Ahrgebirge“.

Die Bundesrichter betonten die Bedeutung der Autobahn als Teil des europäischen Verkehrsnetzes. Dies habe durch die Corona-Pandemie und den russischen Angriffskrieg auf die Ukraine eine stärkere Bedeutung erlangt. Lückenschlüsse wie jener der A1 seien auch unter militärischen Gesichtspunkten wichtig. Daher seien bestimmte Ausnahmen beim Vogelschutz zulässig.

Der Lückenschluss soll nach jüngsten Angaben vom Bund rund 730 Millionen Euro kosten. Geplant sind drei Abschnitte zwischen Kelberg und Blankenheim in NRW. Die anderen beiden Teilstücke befinden sich noch im Planungsstadium.

Weiterlesen nach der Anzeige

Lesen Sie auch


(fpi)



Source link

Weiterlesen

Beliebt