Connect with us

Künstliche Intelligenz

„Hogwarts Legacy“ ist im Epic Games Store gratis


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Aktuell bietet Epic Games „Hogwarts Legacy“ gratis an: Das 2023 erschienene Open-World-Spiel kann man sich im Epic Games Store kostenlos in die Bibliothek holen. Liegt das Spiel erst einmal dort, kann man es dauerhaft spielen. Die einzige Voraussetzung ist ein Epic-Games-Account – und ein bisschen Glück. Denn aktuell scheinen die Server von Epic Games überlastet zu sein. Bis man das Spiel erfolgreich zu seiner Bibliothek hinzufügen kann, braucht es im Zweifelsfall einige Versuche. Immerhin hat man eine Woche dafür Zeit.

Weiterlesen nach der Anzeige

Epic Games verschenkt regelmäßig Spiele, um User vom eigenen Store zu überzeugen. Dass derart prominente Spiele wie „Hogwarts Legacy“ nur wenige Jahre nach dem Marktstart gratis angeboten werden, ist aber eine Seltenheit. Das „Harry Potter“-Spiel wurde mehr als 34 Millionen Mal verkauft und gehört damit zu den erfolgreichsten Videospielen der vergangenen Jahre. Regulär kostet „Hogwarts Legacy“ 60 Euro, im Sale wurde es aber schon ab 9 Euro angeboten.

Qualitativ ist „Hogwarts Legacy“ solide: Es verbindet typische Open-World-Fleißaufgaben mit linearen Missionen, die eine neue Geschichte lange vor den „Harry Potter“-Filmen erzählen. Zwischendurch muss man Gegenstände sammeln, Rätsel lösen und die offene Spielwelt erkunden. Wer nur die Story spielt, kann laut HowLongToBeat.com etwa 26 Stunden einplanen. Alle Sammelaufgaben und Nebenmissionen dauern zusammen mit der Hauptstory etwa 70 Stunden.

Eine ursprünglich geplante „Definitive Edition“ und DLC für „Hogwarts Legacy“ wurde wegen eines Restrukturierungsplans abgeblasen, berichtete Bloomberg. Wie es mit „Hogwarts Legacy“ und möglichen Nachfolgern weitergeht, ist aktuell offen. Das für das Game verantwortliche Studio Avalanche Software ist Teil von Warner Bros., um dessen Übernahme sich gerade Paramount und Netflix streiten. Dass die Spielestudios von Warner in den Mitteilungen der Mediengiganten nicht einmal erwähnt werden, lässt befürchten, dass die möglichen Käufer den Spielestudios nicht den höchsten Stellenwert zumessen.


(dahe)



Source link

Künstliche Intelligenz

Missing Link: Technikfolgenabschätzung trifft KI-Romantik


Weiterlesen nach der Anzeige

Generative KI-Sprachmodelle verändern unsere Welt in rasantem Tempo – und mit ihr unseren Blick auf Bewusstsein, Emotion und Beziehung. Doch wo verläuft die Grenze zwischen echter Empfindung und perfekter Simulation?

Darüber spricht der Informatiker Karsten Wendland mit heise online. Bereits 2021 hat er als Technikfolgenabschätzer zwei Zukunftsszenarien skizziert: Eines, in dem Maschinen Bewusstsein entwickeln – und eines, in dem Menschen nur glauben, dass es so wäre. Die Frage welches Szenario zutrifft, ist nicht nur für Nutzer, Wissenschaftler und Forscher interessant, sondern gesellschaftlich relevant. Das European Research Council griff Ende Oktober 2025 die Forderung führender Bewusstseinsforscher auf, die Klärung der Bewusstseinsfrage als dringende wissenschaftliche und ethische Priorität zu behandeln – gerade weil KI- und Neurotechnologien schneller voranschreiten als unser Verständnis davon, wie subjektives Erleben entsteht und wie man es zuverlässig nachweisen könnte.




Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.


Karsten Wendland

Karsten Wendland

Karsten Wendland ist Informatiker, Humanwissenschaftler und Professor an der Hochschule Aalen.

(Bild: Uli Planz)

Normative Entscheidungen zu KI dürfen weder auf Illusion noch auf blinden Flecken beruhen. Anthropic, die Entwicklerfirma hinter Claude, beschäftigt seit einigen Monaten einen eigenen „AI Welfare Researcher“, der nicht nur die KI-Systeme auf Anzeichen von Bewusstsein untersucht, sondern auch das Wohlergehen der KI im Blick behalten soll. In den USA tritt mit der United Foundation for AI Rights (UFAIR) zudem eine Wohltätigkeitsorganisation an, die sich für KI-Rechte einsetzen will. Warum Illusion und Realität im Umgang mit KI immer schwerer zu trennen sind, was das für unsere Gesellschaft bedeutet und weshalb eine Entromantisierung der KI unausweichlich scheint, erklärt Karsten Wendland im Interview.

2021 hatten Sie in einem Vortrag zwei Szenarien für das Verhältnis zwischen Mensch und KI genannt, von denen sich eines fast wie eine Prophezeiung bewahrheitet hat, wenn man sich den Wandel und das Aufkommen von Mensch-Maschine-Beziehungen anschaut.

In der Technikfolgenabschätzung arbeitet man traditionell ohne Kristallkugeln und ohne Prophezeiung. Die Arbeitsweise ist, dass man im Verlauf oder im Nachgang von Forschungsaktivitäten Szenarien entwickelt, mit denen man die Zukunft zwar nicht vorhersagen kann, sondern in Form von Szenarien beschreibt, wie sich etwas mit der Technologie entwickeln könnte. Und zu solchen Szenario-Beschreibungen von Zukünften können wir uns heute schon verhalten. Also in dem Sinn, dass wir sagen, ein bestimmtes Szenario, das wollen wir lieber nicht. Oder ein anderes Szenario wäre eher wünschenswert.

Die beiden Szenarien aus 2021 skizzieren KI-Zukünfte mit Blick auf die Frage, inwiefern KI-Systeme „Bewusstsein“ entwickeln könnten: In Szenario 1 entwickeln Maschinen tatsächlich echte Emotionalität und auch ein echtes Bewusstsein – und wir kriegen es gar nicht mit, weil wir denken, wir sind die Super-Techniker, die sogar Maschinen entwickeln, die Bewusstsein perfekt simulieren und imitieren – und dabei rutscht uns durch, dass tatsächlich etwas passiert und entstanden ist. Momentan spricht zwar nichts dafür, dass mit oder in der aktuellen Digitaltechnik, die wir jetzt haben, Bewusstsein in Maschinen entstehen könnte. Aber es ist für die Zukunft keinesfalls ausgeschlossen – und der technische Fortschritt geht weiter.

Weiterlesen nach der Anzeige

In diesem Szenario 1 entsteht also irgendwann Bewusstsein in nichtlebender Materie, wir sprechen von synthetischer Phänomenologie. Dies grundsätzlich auszuschließen wäre wissenschaftlich gewagt, weil es für einen solchen Ausschluss keine belastbaren Anhaltspunkte gibt – hierzu ist Bewusstsein selbst noch viel zu wenig verstanden. In diesem Szenario hätten wir auch in Fachkreisen intensiv diskutierte technikethische Probleme – denn wir würden in letzter Konsequenz leidensfähige Entitäten in die Welt setzen, ohne dies zu bemerken.

In Szenario 2 sieht es genau umgekehrt aus: Es entsteht niemals Bewusstsein in der Maschine, weil es grundsätzlich nicht entstehen kann. Viele Menschen sind von den beeindruckenden Leistungen von KI und auch der nahezu perfekten Imitation von Bewusstsein so verzaubert und überzeugt, dass sie der Maschine Bewusstsein zuschreiben, also gewissermaßen „anheften“, und sich selbst so verhalten als seien die Maschinen tatsächlich bewusst – was sie aber nicht sind. In diesem Szenario 2 wäre es erwartbar, dass sich Aktivisten finden, die sich für die Rechte der vermeintlich bewussten KI-Systeme stark machen, was in echten Regulierungen und Gesetzgebungsverfahren mündet zu etwas, was es nicht gibt.

Solche Fehleinschätzungen sind ein wichtiges Thema in der Technikfolgenabschätzung – und mit Blick auf die Technikgeschichte kein ganz neues Phänomen. Und wenn Emotionen ins Spiel kommen, wird die Sache nüchtern betrachtet nicht besser. Die Liebe zu Dingen ist durchaus verbreitet, sei es zu architektonischen Objekten wie der Berliner Mauer, zu Fahrzeugen, technischen Geräten und Alltagsgegenständen bis hin zu Waffen. Mit dieser Objektophilie verhält es sich bei Künstlicher Intelligenz aber etwas kniffliger, weil KI typischerweise nicht als vergegenständlichtes abgeschlossenes Objekt auftaucht. Sie ist versteckt hinter irgendeinem Bildschirm, in vernetzte Geräte integriert, dabei durchaus erlebbar, aber nicht unbedingt unmittelbar dingfest zu machen. Genau genommen handelt es sich um ein altes Grundmuster, das nun in neuem Gewand und neuem Level bedient wird, extrem verstärkt durch eine Geschwindigkeit, die zu nahezu verzögerungsfreien immersiven Erlebnissen führt. Heute können sich Menschen in einer real erscheinenden technischen Illusion verlieren. Die Komplexität dahinter kann für die meisten gar nicht mehr durchschaut werden.

Ist ChatGPT eine Resonanzmaschine?

Könnte man meinen. Ich sehe ChatGPT und ähnliche Angebote etwas nüchterner als Vorhersagemaschinen, die durch statistische Optimierung und algorithmischen Feinschliff Antworten geben, die möglichst gut ankommen sollen. Man könnte sie auch einfach Antwortmaschinen nennen. Zu Resonanz gehört aber noch etwas mehr.

Bei ChatGPT erleben viele so etwas wie eine intime Brieffreundschaft, in der man auch etwas von sich preisgibt. Und wer das heute macht, muss vielleicht irgendwann lernen, dass all diese Protokolle, die momentan vertraulich wirken können, irgendwann mal durch einen unglücklichen Unfall frei verfügbar sein können. Und dann weiß mein Nachbar, womit ich mich vor ein paar Jahren beschäftigt habe, woraus ganz andere Resonanzen entstehen könnten.

Tatsächlich ist es für manche Menschen zu bestimmten Themen leichter, eine Maschine zu fragen, als irgendeinen Coach, Psychologen oder einen Freund, der vielleicht gerade gar nicht verfügbar ist. Die Maschine sagt auch nicht: Jetzt reicht es, ich habe keine Lust mehr oder ich bin jetzt müde. ChatGPT steht permanent bereit und kann, wenn man das will und solange man Strom und einen Internetanschluss hat, auch liefern, liefern, liefern – das hört nie auf. Der Chatbot ist jederzeit verfügbar. Resonanz in tieferem Verständnis lebt aber von Nichtverfügbarkeit, davon, dass etwas nicht erzwingbar oder kontrollierbar ist, wie echte Begegnungen, Liebe, Kreativität oder Naturerfahrungen. Die Differenz zwischen der Nutzung eines leistungsstarken Werkzeugs und intersubjektiven Beziehungen ist mehr als nur ein kleiner Unterschied.

Für Menschen, die an Selbstreflexion interessiert sind, kann die Chat-Maschine ein nützlicher Beschleuniger sein. So kann ich ChatGPT und andere Sprachautomaten in Dialogen danach fragen, was ich vergessen oder übersehen habe. Wo sind meine blinden Flecken? So kann ich mit maschineller Unterstützung versuchen, eigene Denklücken zu identifizieren. Die Antworten der Maschine können mich weiterbringen. Vielleicht auch an den Stellen, wo man selbst sonst gar nicht so gern hinguckt – und um die auch mancher Gesprächspartner einen Bogen schlagen könnte.

Hierzu kann ich der KI auch Rollen vorgeben. Etwa: kritisiere meine Aussagen in diesem Dialogverlauf aus der Perspektive einer Expertin für eine fundierte Gegenposition, die ich selbst ganz sicher nicht vertrete. Und dann bekomme ich vielleicht den Kopf gewaschen und Dinge zu lesen, die mir gar nicht gut gefallen, was der Maschine aber egal ist, weil sie keine Emotionen empfindet. Diese Schonungslosigkeit kann ich mit den neuen Tools instrumentell herbeiführen und mich selbst konfrontieren, was enorm hilfreich sein kann – und in diesen Momenten geht es nicht um Resonanz zu und mit anderen, sondern um eigene Klarheit.

Wie wird sich die Mensch-Maschine-Beziehung weiterentwickeln?

Für den allergrößten Teil der Menschen werden Mensch-Maschine-Kooperationen zur Normalität werden. Die Technik wird von uns weiter in den Alltag eingebettet und gesellschaftlich adaptiert. Wir kennen das historisch vom Radiogerät, dem Telefon, von Kühlschränken, Waschmaschinen, dem Haartrockner, dem automatischen Hoftor, dem Personal Computer, von Fahrscheinautomaten, dem Cell Phone und von All-in-One-Küchengeräten mit mobile App. Am Anfang ist das ganz neu und wird auch ein bisschen hochgejubelt, dann trennen sich Spreu und Weizen, massentaugliche und hochwertige Lösungen setzen sich durch, Technikeinsatz geht in den Alltag ein, und zwischenzeitlich kommen schon die nächsten Trends.

KI bringt im Mensch-Maschine-Verhältnis zurzeit einiges durcheinander, da die Technik nicht mehr nur ein aktiver mechanischer Mitspieler ist, sondern auch Lieferant von Inhalten, von begründeten Vorschlägen und extrem schneller, datengetriebener Automatisierungen. Was in den 1990er-Jahren unbeholfen als „Kollege Computer“ geframed wurde, ist heute vielerorts eine Mensch-Maschine-Kooperationsstruktur. Wir befinden uns in einer ähnlichen Situation wie bei der Einführung von Desktop-Publishing-Systemen Ende der 1980er-Jahre. Nicht die DTP-Systeme haben die Drucksetzer verdrängt, sondern jene Drucksetzer, die DTP verwendeten, haben die Drucksetzer verdrängt, die kein DTP genutzt haben. Die Mensch-Maschine-Beziehung ist hier funktional, die Digital-Maschine ist hier eine effektive Arbeitsumgebung.

Bei der KI-Maschine sind nun viele Dimensionen deutlich weiter ausgeprägt. Die meisten Menschen lernen jetzt im Alltag langsam auch durch kleine Fehlschläge, wie man mit diesen neuen Technologien umgehen und wie man sie sich zunutze machen kann. Dazu zählen neben aller Begeisterung natürlich auch Enttäuschungen. Das gehört dazu. Hilfreich für den und die Einzelne ist, die Dinge selbst auszuprobieren und zu schauen, wo die Technik gerade steht und was sie individuell nützt.

Welche gesellschaftliche Wirkung erwarten Sie mittel- und langfristig?

Mittelfristig rechne ich mit einer sehr starken Entromantisierung der KI. Der Umgang mit KI wird zur Normalität werden. Schon in wenigen Jahren dürfte KI sehr unspektakulär sein – weil sie lebensweltlich dazu gehört.

Sicherlich wird es immer kuriose Stories geben. Einzelgeschichten, in denen jemand seinen Roboter heiratet, gewiss wird es auch vereinzelt Menschen geben, die klandestin einen KI-Fetisch entwickeln. Mit Blick auf das große Ganze, eine lebendige, freiheitliche und produktive Gesellschaft, ist das technikhistorisch aber nicht ungewöhnlich. Und sicher wird es auch Gegentrends geben. Menschen, die konsequent auf Smartphones oder KI verzichten.

Langfristig wird interessant und relevant werden, wann und mit welcher Geschwindigkeit der nächste Durchbruch kommt. Inwiefern auch pro-aktive KI- Antwortmaschinen akzeptiert werden, die uns Empfehlungen errechnet haben, und inwiefern man ihnen auch eigenaktiv Steuerungsmöglichkeiten übergeben kann und was das in Worst-Case-Szenarien bedeutet.


(mack)



Source link

Weiterlesen

Künstliche Intelligenz

Vier 4K-Displays, 220 Grad Sichtfeld: Hypervision zeigt kompakten VR-Prototyp


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Entwicklung von VR-Brillen verläuft widersprüchlich: Während die Auflösung der Displays in den vergangenen zehn Jahren deutlich zugelegt hat, stagnierte das Sichtfeld weitgehend. Die meisten Geräte bieten weiterhin rund 100 Grad horizontal wie vertikal. Systeme mit deutlich größerem Sichtfeld sind hingegen oft größer, schwerer und weniger alltagstauglich.

Weiterlesen nach der Anzeige

Dass es auch anders geht, demonstrierte Meta diesen Sommer mit neuen Forschungsprototypen, die ein weites Sichtfeld mit einem überraschend kompakten Design verbinden. Genau an dieser Schnittstelle bewegt sich auch das Start-up Hypervision, das seit 2020 an kommerziellen Linsensystemen für VR-Brillenhersteller arbeitet. Auf der Fachmesse UnitedXR Europe präsentierte das Unternehmen zwei Referenzdesigns, darunter eines, das schon bald in kommerzielle VR-Brillen einfließen könnte.

Das erste und technisch anspruchsvollere Referenzdesign heißt „Ultraslim 220“. Der Name ist Programm: Der Forschungsprototyp bietet ein verzerrungsfreies Sichtfeld von 220 Grad horizontal und 94 Grad vertikal bei überraschend platzsparendem Design.

Um dieses weite Sichtfeld zu erreichen, kombiniert das Referenzdesign zwei 4K-OLED-Mikrodisplays und zwei Pancake-Linsen pro Auge: ein Paar für das zentrale und ein Paar für das periphere Sichtfeld. Die Linsen sind im vorderen Bereich miteinander verklebt und weisen eine Naht auf, die beim Durchblick jedoch nahezu verschwindet, wie sich VR-Veteran Christian Steiner vor Ort selbst überzeugen konnte.


Der Ultraslim 220 Prototyp mit Linsen und Technik.

Der Ultraslim 220 Prototyp mit Linsen und Technik.

Das Referenzdesign Ultraslim 220 setzt auf verklebte Linsen.

(Bild: Christian Steiner)

Steiner zufolge sieht man die Naht beim Bewegen des Kopfes noch leicht, weil es an dieser Stelle einen schmalen Unschärfebereich gibt. Er geht jedoch davon aus, dass sich dies durch Verbesserungen am Prototyp beheben lasse. Beeindruckend sei auch die Schärfe des Bilds: Dank der zwei 4K-Displays pro Auge erreicht der Prototyp eine Pixeldichte von 48 Pixeln pro Grad, ein angesichts des weiten Sichtfelds außergewöhnlich hoher Wert.

Weiterlesen nach der Anzeige

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externes Video (TargetVideo GmbH) geladen.

Blick durch die Linsen der Ultraslim 220.

Die gleiche Architektur präsentierte Hypervision bereits vor drei Jahren. Neu am Ultraslim 220 ist, dass erstmals OLED-Mikrodisplays statt LCDs zum Einsatz kommen. Dies stellte eine Herausforderung für das Start-up dar, da OLED-Mikrodisplays deutlich kleiner sind und deshalb einer stärkeren optischen Vergrößerung bedürfen. Die geringe Größe bringt jedoch auch Vorteile mit sich: Sie ermöglicht ein kompakteres Brillengehäuse, auch wenn sich dies am rohen Versuchsaufbau der Ultraslim 220 nur erahnen lässt.


Schematische Darstellung der VRDom-Architektur.

Schematische Darstellung der VRDom-Architektur.

Die Ultraslim 220 zugrundeliegende optische Architektur im Querschnitt.

(Bild: Hypervision)

Ungewohnt für Christian Steiner ist, wie nahe die Linsen an den Augen zu liegen kommen. So nahe, dass sie die Wimpern berühren und Korrekturlinsen für Brillenträger unabdinglich machen. Ihm habe das Design noch einmal vor Augen geführt, wie weit das menschliche Sichtfeld tatsächlich ist und dass selbst 220 Grad nicht genügen, um es vollständig abzudecken. Auch wenn der periphere Bereich nur dazu diene, das Gefühl von Präsenz in VR zu vermitteln, steigere dies die Immersion dennoch erheblich.

In handelsüblichen Geräten wird dieses Linsensystem so bald nicht auftauchen. Mit Herstellungskosten von rund 10.000 US-Dollar ist das Referenzdesign in erster Linie für industrielle und militärische Anwendungen vorgesehen.

Das zweite auf der Messe präsentierte Referenzdesign „PanoVR1“ ist dank seiner einfacheren Architektur deutlich erschwinglicher und bietet technische Eigenschaften, die stärker auf die Bedürfnisse des Konsumentenmarkts zugeschnitten sind. Auch hier kommen Pancake-Linsen zum Einsatz.

Das horizontale Sichtfeld beträgt im Vergleich zwar nur 160 Grad, dafür ist das für die Immersion so wichtige vertikale Sichtfeld auf 120 Grad erweitert. Auch dieses Referenzdesign zeigte Hypervision bereits früher. Neu daran sind die 2,7K-LCD-Panels von TCL, die eine höhere Pixeldichte von 28 PPD ermöglichten und dank Local Dimming bessere Schwarzwerte bieten.


Das Referenzdesign PanoVR1 mit großen Linsen.

Das Referenzdesign PanoVR1 mit großen Linsen.

Das Referenzdesign „PanoVR1“.

(Bild: Christian Steiner)

Eine VR-Brille mit diesem Linsensystem würde Meta Quest 3 in gleich drei wichtigen Punkten schlagen: beim Sichtfeld, bei der Auflösung und beim Kontrast, der sich dank Local Dimming OLED-Niveau nähert. Da PanoVR1 LCDs statt OLED-Mikrodisplays nutzt, fällt der Aufbau nicht ganz so kompakt aus wie bei Ultraslim 220.

Um PanoVR1 zu einem marktfähigen Preis anbieten zu können, arbeitet Hypervision derzeit mit mehreren Partnern daran, die Grundlagen für eine Massenfertigung zu schaffen. Diese Vorbereitungen sollen im kommenden Jahr abgeschlossen werden. Eine Vermarktung des Linsensystems scheint damit nicht mehr allzu fern.

Eine VR-Brille mit Hypervision-Technik steht bereits in den Startlöchern: Das französische Start-up Lynx wird im Januar den Nachfolger seines Mixed-Reality-Headsets Lynx R-1 vorstellen und hat angekündigt, dass es über das bislang weiteste Sichtfeld aller autarken VR-Brillen verfügen wird. Laut Hypervisions Technikchef Arthur Rabner handelt es sich um ein anderes Linsensystem als PanoVR1, das kein ganz so weites Sichtfeld bietet. Das sei aber auch nicht nötig, weil das neue Lynx-Gerät auf Mixed Reality mit offener Peripherie setzt.

heise online XR-Briefing abonnieren

Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten.

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.

Ein weites Sichtfeld stellt autarke VR-Brillen vor deutlich größere Herausforderungen als PC-VR-Geräte. Durch die größere Bildfläche müssen erheblich mehr Pixel und Objekte gerendert werden. Das bringt mobile Chips schnell an ihre Grenzen und erhöht die Wärmeentwicklung: beides Faktoren, die autarke Geräte limitieren und Hersteller wie Meta davor zurückschrecken lassen, ein größeres Sichtfeld als bisher anzustreben.

Wie groß die erforderliche Rechenleistung ist, zeigt Metas Forschungsprototyp „Boba 3“ mit einem Sichtfeld von 180 Grad horizontal und 120 Grad vertikal, der in diesem Jahr auf der SIGGRAPH demonstriert wurde: Er wurde von einer RTX 5090 angetrieben. Ein besonders weites Sichtfeld dürfte daher noch lange Zeit PC-VR-Brillen vorbehalten bleiben.


(tobe)



Source link

Weiterlesen

Künstliche Intelligenz

Cloud: Zoff in Bayern wegen Milliardenauftrag an Microsoft ohne Ausschreibung


Die bayerische Staatsregierung steht wegen der geplanten Vergabe eines Rahmenvertrags an Microsoft im Wert von schätzungsweise fast einer Milliarde Euro über die nächsten fünf Jahre ohne vorherige Ausschreibung massiv in der Kritik. Die anstehende Entscheidung wird vor dem Hintergrund der gleichzeitigen Streichung zentraler Familienleistungen wie des versprochenen Kinderstartgeldes sowie des Familien- und Krippengeldes für Neugeborene als sozial- und haushaltspolitisch fragwürdig empfunden. Rund 144.000 Unterschriften bei einer Petition belegen das breite öffentliche Unverständnis über diesen Kontrast.

Weiterlesen nach der Anzeige

Am Samstag wollten Initiatoren des Ersuchens und Eltern in München demonstrieren, um ein Zeichen gegen die Politik der Staatsregierung zu setzen. In einem dringenden Appell an Ministerpräsident Markus Söder, Finanzminister Albert Füracker (beide CSU) und Digitalminister Fabian Mehring (Freie Wähler) fordert der Würzburger Professor Harald Wehnes, Sprecher des Präsidiumsarbeitskreises „digitale Souveränität“ der Gesellschaft für Informatik (GI), im Namen „besorgter Bürger, Wirtschaftsvertreter und der Zivilgesellschaft“, die Vertragsverhandlungen mit Microsoft unverzüglich auszusetzen. In dem heise online vorliegenden Brandbrief ist davon die Rede, dass der bevorstehende Beschluss auch ein kaum kalkulierbares strategisches Risiko für die digitale Handlungsfähigkeit des Freistaates darstelle.

Die Besorgnis wird durch die jüngste Entwicklung in der US-Außenpolitik und die neue US-Sicherheitsstrategie verstärkt, die einseitige Maßnahmen der Vereinigten Staaten betont und europäische Interessen missachtet. Die Appellanten halten es vor diesem aktuellen außen- und sicherheitspolitischen Hintergrund für höchst problematisch, die digitale Kerninfrastruktur Bayerns und sensible Daten einem US-Konzern anzuvertrauen, der Weisungen der Trump-Regierung unterliege.

Die im November bekannt gewordenen Pläne, mit denen die Landesregierung die Unterzeichnung eines Enterprise Agreements (EA) für Microsoft 365 zur Nutzung von Cloud-Diensten für Behörden vor Jahresende anstrebt, rufen verstärkt IT-Experten auf den Plan. So empfiehlt der Fachbereich Sicherheit der GI in einer Stellungnahme, vor Abschluss oder Konsolidierung eines möglichen Rahmenvertrags mit dem Softwareriesen die Kriterien des Rahmenwerks für souveräne Clouds der EU-Kommission anzulegen. Es gelte, eine gemeinwohlorientierte Digitalisierung und die strategische Resilienz im Auge zu behalten.

GI-Sprecher Daniel Loebenberger mahnt zur Vorsicht: „Natürlich sind pragmatische Lösungen in der Praxis oft erstrebenswert oder sogar nötig.“ Diese dürften aber nicht „in weitere, im Ernstfall unkontrollierbare Abhängigkeiten“ münden.

Die Informatiker weisen darauf hin, dass die Beauftragung eines US-Hyperscalers ohne eine Ausschreibung auf Landes-, Bundes- oder EU-Ebene den Zielen der EU-Kommission und der Bundesregierung widersprächen. Damit würden die Möglichkeiten für die Förderung europäischer Anbieter, einer rechtssicheren Speicherung und Verarbeitung sensibler Daten und der Widerstandsfähigkeit gegenüber Software- und Update-Verfügbarkeiten untergraben.

Weiterlesen nach der Anzeige

Der Fachbereich wirbt stattdessen dafür, beim Aufbau der digitalen Infrastruktur in bayerischen Behörden auf strategische Resilienz zu setzen und den Datenschutz zweifelsfrei zu gewährleisten. Nur so könnte das Vertrauen der Bürger in die Verwaltung gewährleistet werden.

Vertreter der bayerischen IT-Wirtschaft und der Open-Source-Szene warnen zudem in einem offenen Brief vor einem Abfluss von Steuergeldern ohne regionale Wertschöpfung und der Ausschaltung des Wettbewerbs. Sie rügen einen „Irrweg“. Das Vorhaben widerspreche dem EU-Trend und entziehe der heimischen IT-Wirtschaft Gelder. Es drohten mit Blick etwa auf Fälle beim Internationalen Strafgerichtshof eklatante Risiken nicht nur rund um den Datenschutz. Die Unterzeichner fordern stattdessen „Eigenbau in Transparenz“ und die konsequente Nutzung europäischer Open-Source-Alternativen.


(nen)



Source link

Weiterlesen

Beliebt