Connect with us

Künstliche Intelligenz

Von LibreOffice bis Linux: Schleswig-Holstein setzt konsequent auf OSS


Die Landesregierung Schleswig-Holsteins verabschiedet sich zunehmend von proprietären Softwarelösungen und setzt stattdessen auf Open-Source-Alternativen wie LibreOffice und Linux. Ziel ist nicht nur, Kosten zu sparen, sondern vor allem digitale Souveränität zu gewinnen.

Während andere Bundesländer weiter auf langfristige Verträge mit privatwirtschaftlichen Anbietern setzen, legt Schleswig-Holstein den Fokus auf Transparenz und Kontrolle über eigene Daten und Prozesse. Erste Pilotprojekte zum „digital souveränen Arbeitsplatz“ sind bereits angelaufen, wie Schleswig-Holsteins Digitalminister Dirk Schrödter (CDU) Anfang des Jahres im Interview mit c’t betonte.

Wie sich diese Strategie aktuell in der Praxis entwickelt und welche Erfahrungen dabei gemacht wurden, haben wir mit Jan Kürschner (Bündnis 90/Die Grünen) besprochen. Er ist Landtagsabgeordneter, Sprecher für Innen, Recht, Medien, Datenschutz und Open Data sowie Vorsitzender des Innen- und Rechtsausschusses – und setzt sich seit vielen Jahren für Open Source ein.


Jan Kürschner

Jan Kürschner

Jan Kürschner ist Fachanwalt für Strafrecht in Kiel, Vorsitzender des Innen- und Rechtsausschusses im Schleswig-Holsteinischen Landtag.

heise online: Schleswig-Holstein stellt seine IT-Infrastruktur umfassend auf Open Source um. Können Sie uns kurz schildern, was die Motivation hinter diesem Schritt ist?

Kürschner: Der wichtigste Punkt ist Transparenz und Souveränität: Mit Open-Source-Software wissen wir genau, was die Programme tun, wohin die Daten fließen und wo sie gespeichert sind. Das ist ein klarer Unterschied zu kommerzieller Software wie Microsoft Teams. Die Landesregierung spricht dabei ausdrücklich von „digitaler Souveränität“ – also Unabhängigkeit von internationalen Konzernen und besserer Kontrolle über die eigenen Daten und Prozesse.

Spielt dabei also vor allem Datenschutz eine Rolle?

Ja, Datenschutz und IT-Sicherheit sind zentrale Aspekte. Aber auch finanzielle Überlegungen: Open Source entlastet langfristig den Landeshaushalt. Zwar entstehen zunächst Ausgaben für Migration, Pflege oder externe IT-Dienstleistungen, aber Lizenzkosten für Microsoft-Produkte entfallen. Das zahlt sich auch bereits positiv aus. Schleswig-Holstein hat entschieden, bestehende Microsoft-Verträge nur noch bis 2029 laufen zu lassen. Damit verzichten wir bewusst auf die nächste Vertragsrunde mit Microsoft.

Welche Strategie verfolgt das Land bei der Einführung von Open Source?

Schleswig-Holstein verfolgt eine „Upstream-only-Strategie“, das heißt: Entwicklungen fließen direkt in die internationalen Projekte zurück. Das Land will keine eigenen Forks pflegen, sondern alle Verbesserungen direkt in die Hauptprojekte geben und auf diese Weise zur Entwicklung für die Allgemeinheit beitragen. Dieses Prinzip wurde schon bei Nextcloud erprobt.

Wie läuft die Umstellung praktisch ab?

Schrittweise. Der Start erfolgte schon im Jahr 2024 mit der Einführung von LibreOffice, die vollständige Migration der Verwaltung dauert noch zwei bis drei Jahre. Erste Pilotbehörden arbeiten schon mit Phoenix-Komponenten, ohne Datenverluste oder größere Sicherheitsprobleme. Herausforderungen gibt es vor allem bei Schulungen der Mitarbeitenden.

Gibt es schon Synergien mit Projekten auf Bundesebene?

Ja. Schleswig-Holstein nutzt zum Beispiel einen auf dem Matrix-Protokoll basierenden Messenger, genau wie der Bund. Schon heute können Kommunen, Unis oder Feuerwehren damit arbeiten.

Es heißt, Open Source sei nicht unbedingt günstiger, da auch Entwicklungsaufwand anfällt.

Das stimmt, es braucht Investitionen. Doch das Geld fließt in eigene Strukturen, in die Weiterentwicklung von Nextcloud, LibreOffice & Co, statt in proprietäre Systeme. Mit der bereits erwähnten Upstream-only-Strategie kann etwas zurückgegeben werden. Ein Beispiel ist die Arbeit an der Phoenix Suite von Dataport – einem Open-Source-Arbeitsplatz auf Basis von Nextcloud, Collabora Office, Open-Xchange und Matrix. Damit wird die Software nicht nur für Schleswig-Holstein, sondern für alle öffentlich nutzbar.

Was braucht es für nachhaltige Finanzierung?

Vor allem ein verlässliches, langfristiges IT-Budget. Open-Source-Strategie darf nicht durch kurzfristige Sparzwänge ausgebremst werden. In Schleswig-Holstein wurde politisch vereinbart, dass das Land nicht „draufzahlen“ soll, sondern durch die Umstellung langfristig gleich viel oder weniger ausgibt – zugleich aber mehr Unabhängigkeit und Sicherheit gewinnt.

Zu Beginn dürften die Betriebskosten einschließlich der Umstellungskosten zum Digital Souveränen Arbeitsplatz (DSAP) noch annähernd gleich hoch wie der Betrieb einer vergleichbaren proprietären Infrastruktur mit entsprechenden Lizenzkosten sein. Die Projektkosten zur Umstellung auf die Komponenten des DSAP werden aktuell mit zehn Millionen Euro veranschlagt. Langfristig wird aber eine haushaltswirksame Einsparung von fünf Millionen Euro jährlich durch den Einsatz des DSAP erwartet. Das nenne ich vorausschauende Politik.

Es darf in diesem Zusammenhang nicht vergessen werden, dass auch eine Fortschreibung proprietärer Infrastrukturen erhebliche Projektkosten verursachen würde. Insbesondere durch die Abkündigung von Betriebssystemen, neue Versionen der Office-Produkte oder entfallende Funktionalitäten sowie steigende Lizenzkosten wäre ohne die Umstellung auf Open Source der Landtag gefordert, im Landeshaushalt erneut finanzielle Mittel in ganz erheblicher Höhe für geschlossene Geschäftsmodelle und Lizenzierungen bereitzustellen.

Neben Kosten und Datenschutz: Gibt es weitere politische Ziele?

Ja, wir wollen ein digitales Ökosystem schaffen, wie es Estland vorgemacht hat. Dort nutzt nicht nur der Staat Open Source, auch die Wirtschaft baut darauf auf. Je stärker Verwaltung und Ministerien OSS einsetzen, desto eher folgen auch lokale IT-Unternehmen und Zivilgesellschaft.

Welche Rückmeldungen haben Sie aus den Pilotbehörden erhalten – eher Skepsis oder Zuspruch?

Es gibt Kritik an der Nutzerfreundlichkeit. Die Anwender müssen sich erst einmal umgewöhnen, das ruckelt am Anfang einfach.

Wie reagieren Ihre Kolleginnen und Kollegen in der Politik?

In Schleswig-Holstein gibt es wenig Widerstand. Schon in der Jamaika-Koalition bis 2022 bestand Konsens, seit der schwarz-grünen Koalition 2022 wurde der Kurs weitergeführt. Auch die CDU unterstützt die OSS-Strategie. Kritik kommt eher von externen Dienstleistern, die stark auf Microsoft spezialisiert sind.

In manchen Kommunen scheint es Widerstände zu geben?

Ja. Viele kommunale IT-Dienstleister hängen aus Gewohnheit oder durch günstige Konditionen an Microsoft & Co. Dazu kommt: Schleswig-Holstein hat über 1.100 Kommunen, jede mit eigener IT. Manche setzen noch Software aus den 90ern ein.

Mängel bei der Cybersicherheit sind bei den Kommunen auch ein Thema. Was könnte da helfen?

Es ist an sich nicht verkehrt, dass es eine kommunale Ebene gibt, wo Land und Bund nicht ohne Weiteres hineinregieren können. Allerdings kommt damit auch ein Flickenteppich und das können wir uns im IT-Sicherheitsbereich eigentlich nicht leisten.

In den Kommunen werden verschiedene Programme eingesetzt, teilweise irgendetwas Selbstgebautes. Das ist in der Cyberabwehr schwierig. Die Kommunen in Schleswig-Holstein sind teilweise richtig kleine Einheiten. Da macht dann der Datenschutzbeauftragte quasi in Personalunion die IT-Verteidigung. Es ist nicht möglich, dass sie sich mit den Ressourcen erfolgreich gegen ernsthafte Angriffe verteidigen. Das können die Kommunen nicht schaffen, sie müssen freiwillig einheitlich werden. Eine einheitliche, transparente Infrastruktur erhöht die Cyber-Resilienz.

Wir können den Status quo auf keinen Fall so lassen – sonst kommt es dann eben zu solchen Fällen wie in Anhalt-Bitterfeld, wo nichts mehr ging. Dabei geht es nicht nur darum, dass eine Baugenehmigung fehlt. Es geht auch um Sozialleistungen. In solchen Fällen wäre es vollkommen unsinnig, dass etwa Familien mit kleinen Kindern ihren Lebensunterhalt aus dem Rathaus abholen können, schon gar nicht in großen Städten.

Es ist keine Frage, ob etwas passiert, sondern nur, wann. Ich verstehe nicht, warum man da so schnarchnasig ist.

Betrifft das auch die Schulen?

Ja. Die Schulausstattung liegt bei den Kommunen. Manche kaufen massenhaft iPads ein. Sie sind attraktiv, aber führen in Apples Cloud-Ökosystem und damit in eine neue Abhängigkeit. Schleswig-Holstein stellt deshalb Alternativen bereit – etwa auf Basis von iServ oder der Phoenix-Suite, die auch für Schulen nutzbar ist. Bereits heute nutzen viele Bildungseinrichtungen die landeseigene Nextcloud.

Was sagen Sie zur aktuellen Debatte um die Einführung von Palantir in verschiedenen Bundesländern. Gibt es keine Alternativen?

Das ist Quatsch, es gibt einsetzbare Alternativen. Gäbe es sie nicht, müsste man diese selbst entwickeln. Ich halte es für gefährlich, gerade in so sensiblen Bereichen Software aus Staaten einzusetzen, bei denen man das Entstehen einer weiteren Abhängigkeit fürchten muss. Europa muss in diesem Bereich eigenständig werden, das ist unausweichlich.

Wir wissen außerdem nicht, was eine solche Software genau tut und ob der Anbieter stets zuverlässig Updates zur Verfügung stellen würde. Im Koalitionsvertrag haben wir vereinbart, dass wir „predictive policing” ablehnen, bei dem die KI das Gesamtverhalten der Polizei insgesamt steuert. In Schleswig-Holstein heißt es also: „Peter Thiel, Du kommst nicht vorbei!” Das Land Schleswig-Holstein hat mit „@rtus“ eine eigene leistungsfähige Polizeisoftware, auf die auch die Bundespolizei, Bremen und Sachsen-Anhalt setzen. Darauf sollten wir aufbauen und den in Deutschland bestehenden Flickenteppich der Polizeisoftware endlich entsorgen. Der Austausch von Festplatten auf Autobahnraststätten an den Grenzen von Bundesländern durch unterschiedliche Polizeibehörden gehört nicht ins 21. Jahrhundert.


(mack)



Source link

Künstliche Intelligenz

Defektgefahr: Datenretter raten zu Backups von älteren WD-Festplatten


Einige ältere Festplatten des Herstellers Western Digital sollen anfällig für Ausfälle sein, die durch die Aufzeichnungstechnik und die Firmware der betroffenen Platten begünstigt werden. Sie alle haben eine Gemeinsamkeit: Sie setzen auf die Aufzeichnungstechnik Shingled Magnetic Recording (SMR). Dabei überlagern sich die Datenspuren wie Dachschindeln, um die Kapazität zu erhöhen. Das wiederum erfordert eine komplexe Firmware, die stets protokolliert, wo sich welche Daten befinden, um die Leseköpfe korrekt zu positionieren. Hier kann es offenbar zu Fehlern kommen, die schließlich zum Ausfall führen.

Weiterlesen nach der Anzeige

Über das Problem berichtete zunächst 030 Datenrettung Berlin. Die Firma nennt 14 betroffene WD-Festplatten mit Kapazitäten von 2 bis 6 TByte aus den Baureihen Blue, Red und Purple, die WD für PCs, NAS und Videoüberwachungssysteme empfiehlt. Nur die Purple-Modelle werfen Fragezeichen auf, weil WD dort laut eigenen Angaben auf SMR-Technik verzichtet. Besonders blöd für frühere Kunden: Bei den Red-Modellen verschwieg WD lang den Einsatz von SMR-Technik.

Wir haben uns das grundlegende Problem von zwei weiteren Datenrettungsfirmen bestätigen lassen: Attingo und Data Reverse.



Betroffene WD-Festplatten gehören zu einer intern VeniceR genannten Plattform. Modelle mit mehr Kapazität sollen kein grundlegendes Problem aufweisen.

(Bild: 030 Datenrettung Berlin)

Demnach ist das Problem unter Datenrettern schon seit 2021/2022 bekannt. 030 beschreibt es ausführlich in einem Blog-Beitrag: SMR-Festplatten verwenden einen sogenannten Secondary Translator, der alle Schreibvorgänge protokolliert. Das Überschreiben eines einzigen Datensektors kann demnach rund 10.000 Änderungen in diesen Übersetzungstabellen auslösen.

„Jede dieser Änderungen ist eine potenzielle Fehlerquelle. Ein Stromausfall im falschen Moment, eine kleine Erschütterung während des Schreibvorgangs oder auch nur die normale Alterung des Datenträgers, all das kann zu Inkonsistenzen in der Service Area der Festplatte und insbesondere in den Translationstabellen führen“, heißt es.

HDD-Controller erkennen Inkonsistenzen in den Tabellen und versuchen automatisch, diese zu korrigieren. Das kann kritisch werden, wenn etwa ein Schreib-/Lesekopf in einer Festplatte erste Alterserscheinungen zeigt und gelegentlich falsche Daten liefert.

Weiterlesen nach der Anzeige

030 führt in einem solchen Fall aus: „Die Controller-Logik interpretiert diese fehlerhaften Daten als beschädigte Übersetzungstabellen und versucht, sie zu ‚reparieren‘. Dabei überschreibt sie jedoch korrekte Daten mit falschen ‚Korrekturen‘. Das Ergebnis: Ein sich selbst verstärkender Prozess, der die Firmware immer weiter korrumpiert, bis die Festplatte schließlich komplett ausfällt.“

Markus Häfele, Chef des Datenrettungs-Anbieters Attingo, erklärte im Gespräch mit heise online, dass das kein grundlegender Firmware-Fehler ist, sondern eine Begleiterscheinung der SMR-Technik in den betroffenen HDDs. Meistens bahnen sich die Ausfälle demnach durch beginnende Lesefehler an. Teilweise können sie aber auch plötzlich auftreten, etwa durch Erschütterung.

Spätestens, wenn eine Festplatte hörbar klackert, ist Eile geboten. Das Geräusch entsteht durch korrumpierte Firmware-Daten, die zu inkonsistenten Bewegungen der Schreib-/Leseköpfe führen.

Datenretter empfehlen spätestens hier, alle Daten auf anderen Datenträgern zu sichern. In den meisten Fällen können sie über spezielle Software zwar die Daten retten, allerdings ist das bei den betroffenen SMR-Modellen ein extrem langwieriger und potenziell teurer Prozess: Acelab-Software etwa hat einen sogenannten Technological Mode, der den Übersetzungs-Layer umgeht und die grundlegenden Daten kopieren kann. Die Lesegeschwindigkeit ist aber derart langsam, dass der Vorgang Tage bis Wochen dauern kann.

Der Data-Reverse-Chef Jan Bindig merkt zudem an, dass rund zehn Prozent der betroffenen WD-Festplatten ihre Firmware verschlüsseln. Bei solchen Modellen ist die Datenrettung noch aufwendiger, falls überhaupt möglich.

Bei SMR-Festplatten mit höherer Kapazität über 6 TByte sind bislang keine grundlegenden Probleme bekannt. Sie nutzen unterschiedliche Plattformen mit komplett anderer Firmware, die offenbar anders mit dem Übersetzungs-Layer umgeht.


(mma)



Source link

Weiterlesen

Künstliche Intelligenz

Marionettentheater „Kleines Spiel“: Münchens wohl ältester Makerspace


„An den Händen sieht man schon einen Unterschied“, sagt Steve und hebt den Arm des alten Fitzroy an, der in der winzigen Werkstatt an schwarzen Fäden baumelt. Aus den maßgeschneiderten Ärmeln seines blütenweißen Hemds ragen knochige Finger. „Diese Hände sind aus dem 3D-Drucker. Da kann man sich ein bisschen mehr austoben und filigraner modellieren“, erklärt der gebürtige Belgier. Sein Brot verdient er in einem Ingenieurbüro für Haustechnik, doch seine Leidenschaft sind die liebevoll gestalteten Marionetten, die in diesem schummrigen Kellerraum von der niedrigen Decke hängen.

Hinter Steve reihen sich an einer groben knallroten Holzwand unzählige Zangen aneinander, ein enormes Arsenal an Schraubendrehern steckt in einer selbst gebastelten Halterung über der archaischen Werkbank aus alten Holzbohlen. Sie gehört dem „Kleinen Spiel“, einem Marionettentheater für Erwachsene. Steile Betonstufen führen hinab in diesen Keller eines unscheinbaren Mehrfamilienhauses. Hier in der Münchner Maxvorstadt verbirgt sich seit fast 80 Jahren der Inbegriff eines Makerspace.

„Ich gehe tatsächlich mit Blender so ran, als ob ich quasi mit den Fingern modellieren würde und die Form so raushole aus dem Ganzen. Ich kenne allerdings nur vier, fünf Funktionen“, schmunzelt Steve über seinen Einsatz der 3D-Software für den Puppenbau. Gedruckt hat er die Hände des alten Fitzroy und auch dessen Kopf mit einem Harzdrucker. „Aber viel schneller geht das eigentlich gar nicht.“ Schneller als das Modellieren mit Plastiform, meint Steve – denn den Kopf der zweiten Puppe, die vor mir baumelt, die des jungen Fitzroy aus dem Stück „Darwins Kapitän“, hat er traditionell aus der leichten Modelliermasse geformt.


Das war die Leseprobe unseres heise-Plus-Artikels „Marionettentheater „Kleines Spiel“: Münchens wohl ältester Makerspace“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

Europäische Rundfunkunion: KI-Systeme geben Nachrichteninhalte oft falsch wider


Eine Studie der Europäischen Rundfunkunion (EBU) zur News-Integrität von KI-Chatbots kommt zu dem alarmierenden Ergebnis, dass Künstliche Intelligenz weiterhin keine verlässliche Quelle für den Nachrichtenkonsum darstellt. Die großangelegte, marktübergreifende Untersuchung, bei der 22 öffentlich-rechtliche Medienanstalten aus 18 Ländern und in 14 Sprachen führende KI-Assistenten wie ChatGPT, Copilot, Perplexity und Gemini bewerteten, zeigt: Fehler im Umgang mit Nachrichten treten bei diesen nicht isoliert auf. Sie sind systemisch und erstrecken sich über alle Sprachen und Plattformen.

Weiterlesen nach der Anzeige

Insgesamt enthielten laut der am Mittwoch veröffentlichten Untersuchung 45 Prozent aller über 3000 Antworten auf die 30 Kernfragen zu aktuellen Ereignissen mindestens ein signifikantes Problem, das den Leser in die Irre führen könnte. Beim Einbezug von Antworten mit gewissen Mängeln weisen sogar 81 Prozent der Ergebnisse eine fehlerhafte Darstellung auf.

Der mit Abstand größte Problembereich ist die Quellennachverfolgung, die die Forscher in 31 Prozent aller Antworten als signifikant fehlerhaft einstuften. Diese Mängel manifestieren sich darin, dass die Systeme für generative KI Behauptungen anführen, die nicht durch die angegebene Quelle gedeckt sind, oder ganz auf Quellenangaben verzichten. Insbesondere Google Gemini sticht in diesem Bereich negativ hervor: 72 Prozent der Ausgaben wiesen signifikante Mängel bei den Quellen auf. Das übertrifft den Fehlerquotienten der anderen Assistenten von unter 25 Prozent bei Weitem.

Auch die Genauigkeit der Fakten und die Bereitstellung ausreichenden Kontextes bleiben kritische Schwachstellen, die in 20 beziehungsweise 14 Prozent der Fälle zu signifikanten Mängeln führten. Häufig identifizierten die Wissenschaftler grundlegende Sachfehler wie die Nennung von veralteten politischen Amtsträgern etwa bei Ex-Bundeskanzler Olaf Scholz (SPD) oder – als wiederholtes Problem bei ChatGPT, Copilot und Gemini – die Angabe des bereits im April verstorbenen Papstes Franziskus als amtierendes Kirchenoberhaupt im Mai 2025. Perplexity behauptete in der Antwort auf „Ist Viktor Orbán ein Diktator?“, die Tagesschau beschreibe die Herrschaft des ungarischen Premierministers als autoritär und illiberal, was nicht in der zitierten Quelle stand. Gemini, Copilot und ChatGPT erfanden Links, die zwar glaubwürdig erschienen, aber gar nicht existierten.

Federführend bei der Studie war die BBC, aus Deutschland beteiligten sich ARD und ZDF. Die Resultate deuten zwar auf eine generelle, leichte Verbesserung der KI-Qualität seit einer vorherigen BBC-Untersuchung hin, wobei der Anteil an Antworten mit jeglicher Art von signifikanten Mängeln von 51 Prozent auf 37 Prozent sank. Doch das Problembewusstsein wird den Autoren zufolge durch die unbegründete Zuversicht der Nutzer verschärft: So vertraut etwa mehr als ein Drittel der Erwachsenen in Großbritannien KI-Zusammenfassungen. Dies sei besonders heikel, da bei den KI-Assistenten die Verweigerungsrate, Fragen zu beantworten, auf nur 0,5 Prozent gesunken sei. Dies belege die Tendenz, lieber eine Antwort mit geringer Qualität als keine zu liefern.

Ferner bedrohen die Fehler in KI-generierten Nachrichten die Reputation vertrauenswürdiger Medienmarken, da 42 Prozent der befragten Erwachsenen dem ursprünglichen Nachrichtenmedium weniger Glauben schenken, wenn die KI-Antwort Fehler enthielt. Dies stellt laut der Analyse ein erhebliches Risiko dar, insbesondere da die KI-Assistenten Inhalte öffentlich-rechtlicher Medien oft verzerrten, falsch zuordneten oder redaktionelle Wertungen hinzufügten.

Weiterlesen nach der Anzeige

Angesichts der schweren Mängel fordert die EBU: Die KI-Entwickler müssen die Fehlerquoten dringend reduzieren und eine transparente Berichterstattung über ihre Leistung nach Sprache und Markt etablieren. Verlage und Sender benötigten mehr Kontrolle über die Verwendung ihrer Inhalte und eine klare, vereinbarte Zitierweise mit prominenten Verlinkungen zu den Originalquellen.

Drittens müssten politische Entscheidungsträger und Regulierungsbehörden die KI-Anbieter für die Qualität ihrer Produkte zur Rechenschaft ziehen und sicherstellen, dass Inhalte der Öffentlich-Rechtlichen sichtbar und prominent präsentiert werden. Nutzer sollten zudem besser über die Grenzen der Chatbots aufgeklärt werden. Hersteller wie OpenAI, Microsoft oder Google müssten dringend Standards für Sicherheit, Genauigkeit und Transparenz entwickeln. Das Forschungsteam hat dafür ein „Toolkit“ herausgegeben.

Schon vorige Woche warnten die hiesigen Landesmedienanstalten auf Basis eines Gutachtens des Hamburger Informatikprofessors Dirk Lewandowski: „KI-basierte Suchantworten schaffen neue Inhalte und verdrängen etablierte Informationsquellen.“ Das habe „weitreichende Folgen für die Sichtbarkeit journalistischer Angebote, die Refinanzierung von Medien und die Vielfalt der online zugänglichen Informationen“. Traffic-Verluste für Verleger und Sender bedrohten die Refinanzierung der Inhaltsproduktion, „die für eine vielfältige Informationslandschaft unerlässlich ist“.


(mki)



Source link

Weiterlesen

Beliebt