Künstliche Intelligenz
Missing Link: Tech-Monopole gegen digitale Souveränität an Schulen
Informatikunterricht wird gerade erst nach jahrelangen und zähen Vorbereitungen in einigen Bundesländern in die Schulen gebracht, während des Auftakt-Panels der diesjährigen „Konferenz Bildung Digitalisierung“ wurde allerdings erklärt, dass dieser Unterricht „Unsinn“ ist. Auf dem Podium saßen neben der Moderatorin Katja Weber der netzpolitische Aktivist Markus Beckedahl und Prof. Dr. Caja Thimm, Professorin für Medienwissenschaft und Intermedialität an der Universität Bonn. Sie stimmten die Anwesenden auf das Leitthema „digitale Souveränität“ ein und warben um ein unabhängiges Bildungssystem, das sich der Digitalisierung nicht verschließt, sondern sie national-europäisch gestaltet. Nach dem Panel (Video) konnte heise online Beckedahl und Thimm genauer zu ihren Kernthesen befragen und auch genauer der Frage auf den Grund gehen, weshalb Informatikunterricht „Unsinn“ sein könnte und was er vielleicht doch mit digitaler Souveränität zu tun hat.

Die diesjährige Konferenz des Forum Bildung Digitalisierung lief unter dem Leitthema „Power Up – souverän für die digitale Transformation“ und diskutierte mit Blick auf unsere Bildungslandschaft digitale Souveränität. Es wurde erörtert, wie diese im Bildungssystem verankert werden sollte, aber auch durch Veränderungen im Bildungssystem gesellschaftlich überhaupt erst erreicht werden kann. Die aktuellen Debatten zu einem Handyverbot in Schulen und der Social-Media-Nutzung von Jugendlichen wurden eigentlich in jedem größeren Redebeitrag angeschnitten. Zumeist wurde darauf hingewiesen, dass zumindest in Bezug auf die Social-Media-Nutzung mehr Regulation der Plattformen nötig sei – das Problem übersteige die Ressourcen und Fähigkeiten von Bildungseinrichtungen und Individuen. Mit Blick auf Handyverbote wurde verschiedentlich darauf aufmerksam gemacht, dass Verbote nur dazu führen, dass genau denjenigen Heranwachsenden, die zu Hause keinerlei Medien- oder auch Digitalkompetenz erhalten können, nur der schulische Raum bleibt, um einen reflektierten und sicheren Umgang mit Endgeräten, aber auch den vielfach kritisierten sozialen Medien erlernen zu können.
Die Konferenz konnte mit großen Namen auf ihren Podien aufwarten: Unter anderem waren Bildungsforscher John Hattie, Prof. Dr. Klaus Hurrelmann, Bundesbildungsministerin Karin Prien (CDU), mehrere Landesminister, Bildungsexperten- und -Influencer wie Tarek Zaibi und Fabian Grischkat zugegen.
heise online: Frau Prof. Dr. Thimm, Herr Beckedahl, Sie haben zum Auftakt der Konferenz des Forum Bildung Digitalisierung über digitale Souveränität im Bildungssystem gesprochen – was Sie darunter verstehen, weshalb es sie derzeit nicht gibt und was sich verändern muss. Unter anderem hat Herr Beckedahl die Nutzung von Angeboten großer Akteure wie Microsoft oder Apple in unserem Schulsystem kritisiert und dafür plädiert, dass wir mehr eigene Lösungen aufbauen und auch Open-Source-Angebote stärken. Zugleich haben Sie aber auch die Eigenentwicklung der Lernplattform Logineo in NRW kritisiert. Wie passt das zusammen?

Markus Beckedahl ist Mitgründer und kuratorischer Leiter der re:publica-Konferenz. Als Gründer des Zentrum für Digitalrechte und Demokratie arbeitet er an neuen Narrativen für demokratische Zukünfte und entwickelt mit seinem Team gesellschaftliche Strategien, um die Abhängigkeit von Big Tech aufzulösen.
Beckedahl: Zunächst muss uns bewusst sein, dass wir in den letzten 30 bis 40 Jahren einen Monopolbildung im Bildungssystem hatten. Wir haben über eine Generation hinaus Menschen an Microsoft-Produkten geschult. Das war auch recht praktisch. Die kamen dann ins Berufsleben rein und haben im Microsoft-Monopol dort weiter in der Wirtschaft arbeiten können. Mittlerweile wird uns aber bewusst, dass wir uns abhängig gemacht haben von wenigen Unternehmen, die die digitalen Infrastrukturen kontrollieren, die einseitig bestimmen, wie sie funktionieren und die auch jedes Jahr mit Lizenzgebühren immer mehr Geld aus dem Bildungssystem ziehen. Das bedeutet schlussendlich – im übertragenen Sinne – , dass Microsoft nun auch über Nacht entscheiden könnte, dass wir nur noch rückwärts in Toiletten reinlaufen dürfen. Aber das sollten wir so nicht wollen oder fortführen. Wir müssen Infrastrukturen schaffen, die wir kontrollieren und über die wir Kontrolle haben.
Meine Kritik an der NRW-Lösung ist, dass das so schlecht gemacht wurde, dass dann tatsächlich Microsoft wieder als Retter eingesprungen ist. Das ist absurd. NRW hat es also gerade nicht geschafft, eine souveräne, zukunftsfähige Infrastruktur aufzubauen und zu betreiben. Es hat das ganze Großprojekt an die Wand gefahren. Wir leisten uns ins Deutschland durch den Föderalismus aber genau so etwas. Ich würde mir wünschen, dass wir auf Basis von offenen Standards und Open-Source-Software ein Ökosystem schaffen und betreiben würden, auf dem dann die 16 Bundesländer gemeinsam aufbauen können.

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.
Frau Thimm, Sie hatten sich – trotz der Föderalismuskritik und dem damit einhergehenden Klein-Klein – für mehr Schulautonomie ausgesprochen. Das bedeutet für Sie dann aber nicht, dass jede Schule eine eigene Lösung finden soll, sondern sich Schulen aus einem Software-Pool bedienen können sollen, der auf Bundesebene entwickelt und gefördert wird, so wie Herr Beckedahl das sehen möchte?

Prof. Dr. Caja Thimm ist seit 2001 Professorin für „Medienwissenschaft und Intermedialität“ an der Universität Bonn. Sie hatte Gastprofessuren u.a. in Santa Barbara/USA, Cardiff/Großbritannien und Dijon/Frankeich, war Mitglied mehrerer Enquete-Kommissionen zum digitalen Wandel und ist seit 2024 Mitglied des Verwaltungsrates des WDR. Von 2010-2016 leitete sie das DFG-Projekt „Deliberation im Netz“, von 2017 – 2022 war sie Koordinatorin und Sprecherin des NRW Graduiertenkollegs und des Forschungsverbundes „Digitale Gesellschaft“. Seit 2021 ist sie Mitglied der NRW Akademie der Wissenschaften.
Thimm: Ja, und wir haben eigentlich auch genügend Talente im Land, die so einen Pool aufbauen können. Das sieht man schon allein in der Start-Up-Szene, nicht nur in Berlin. Die Frage ist, was mit dem Geld im Bildungssystem passiert und wo es hinfließt. Nutzen wir unsere Talente und betreiben aktive Förderung der Digitalwirtschaft und machen uns zugleich unabhängiger oder fließt das Geld woandershin? Viele Start-Ups stehen in den Startlöchern, um beispielsweise KI-Produkte für die Bildung zu entwickeln. Aber ob das im Digitalpakt oder dem Sondervermögen berücksichtigt wird, weiß keiner. Vor allem fehlt es auch an Leitlinien für bundesweit einsetzbare Softwareprodukte für den Bildungsbereich. Hier steht uns auch der Föderalismus im Weg. Die 16 Bundesländer müssten hier zumindest Standards setzen, damit so ein Software-Pool dann auch wirklich genutzt werden könnte.
Wenn die Software dann so konzipiert wird, dass Schulen sie nach ihren Bedürfnissen vor Ort anpassen können, wäre schon viel gewonnen. Ich stimme mit Markus Beckedahl auf jeden Fall darin überein, dass wir die Fehler der Vergangenheit nicht fortsetzen oder wiederholen dürfen.
Sie hatten in diesem Zusammenhang auch das Kooperationsverbot erwähnt. Das steht dem Bund dabei im Weg, in Sachen Bildung Länder zu unterstützen oder etwas zu entwickeln.
Thimm: Ja, dieses Verbot steht souveränen und tragfähigen Lösungen oft im Weg.
Frau Thimm, im Vorfeld zur Konferenz hatte Kristin van der Meer, Lehrerin an der Neuen Grundschule Potsdam und auch Referentin der Konferenz, in einem gemeinsamen Pressegespräch mit Ihnen gesagt, dass solche Länder- oder Bundeseigenentwicklungen insoweit unpraktisch oder sogar schlecht sind, weil diese oft in ihren Funktionen begrenzt sind und die Kinder in den Schulen dann nicht lernen, mit den Angeboten zu arbeiten, die sie in ihrer Freizeit nutzen – man kann ihnen dann z.B. nicht im Schulkontext den kritischen Umgang mit ChatGPT beibringen. Kann man solche Angebote also doch nicht ganz aus den Schulen heraushalten?
Thimm: Das sind für mich zwei unterschiedliche Debatten. Schulen können, in kooperativer Absprache mit den Schülerinnen und Schülern, Eltern und Kollegium, den Schulraum kontrollieren, Stichwort Handyverbot in Grundschulen. Die Digitalerziehung im Elternhaus erfordert ganz andere Maßnahmen, da kann es nicht um Verbote gehen.
Ich habe es so verstanden, dass es Frau van der Meer wichtig ist, dass Kinder in der Schule auf die reale Welt vorbereitet werden sollen – auch ganz konkret mit der Hard- und Software, die ihnen dort wirklich zur Verfügung steht. Eigenentwicklungen würden quasi am eigentlichen Bedarf vorbeientwickelt.
Thimm: Ich kann diesen Ansatz nachvollziehen, trotzdem sollten wir hier nicht die Fehler der Vergangenheit wiederholen. Es ist genau die Falle, die uns unter anderem Microsoft seit 40 Jahren stellt.
Beckedahl: Folgen wir dieser Argumentation immer weiter, kommen wir nicht aus dieser Logik raus. Dann heißt es: „Wir verwenden hier überall Microsoft, weil zuhause haben auch alle Microsoft und Microsoft Office.“ Für anderes bleibt dann keine Zeit oder Möglichkeit. Dabei geht es ja eigentlich darum, dass Schülerinnen und Schüler den Umgang mit Textverarbeitungsprogrammen lernen und nicht den Umgang mit einem bestimmten Produkt.
Ist Informatik-Unterricht Unsinn?
In dem Zusammenhang hat mich eine Aussage von Ihnen gewundert, Frau Thimm. Sie sagten auf der Bühne, dass Informatik-Unterricht „Unsinn“ ist. So, wie er gestaltet würde, werde er nicht gebraucht. Aber ist nicht gerade der Informatikunterricht der Ort, wo Kinder lernen würden, wie Hard- und Software zusammenspielen, was Algorithmen sind, wie man etwa Microcontroller ansteuert, Programme schreibt und auch einen Einblick in die Funktionsweisen von Apps erhält, die ansonsten Blackboxen bleiben? Genau so ein grundlegendes Wissen brauchen wir doch für digitale Souveränität.
Thimm: Wir müssen uns doch fragen: Was für eine Art von „Informatik“ ist hier gemeint und für wen? In einigen Bundesländern ist zum Beispiel auch „Medienbildung“ einbezogen, in anderen nicht. Zudem ist „Informatik“ als Schulfach maßgeblich für die Gymnasien konzipiert, aber die Lehrpläne sehen hier vor allem technische Skills vor, während digitale Ethik, Folgen für Gesellschaft und Individuum wenig Platz haben. In Hessen experimentiert man seit einigen Jahren mit dem Fach „Digitale Welt“, wo Skills mit gesellschaftlichen Fragen kombiniert werden, das sehe ich als eine wichtige Ergänzung an. Nicht zu vergessen ist, dass die Informatikgrundlagen von heute massiv durch KI verändert werden, auch unsere universitären Studiengänge stehen unter hohem Anpassungsdruck. Und ich gehen auch davon aus, dass Schülerinnen und Schüler heute bestimmte Dinge können, die über Klicken und Wischen hinausgehen.
Beckedahl: Hier muss ich widersprechen. Ich glaube schon, dass Schülerinnen und Schüler grundlegende technische Kompetenzen brauchen und verstehen sollten, wie informationstechnische Systeme funktionieren. Das ist bisher vor allem durch die klassischen Mathe- und Physiklehrer abgebildet worden, zumindest war das in meiner Schulzeit so. Vielleicht ist das heutzutage immer noch so und das ist das, was Caja kritisiert: Der Skandal ist, dass die Lehrkräfte-Ausbildung nicht das bringt, was wir eigentlich bräuchten – auch nicht für ein Fach Informatik. Wir müssen viel struktureller ansetzen.
Thimm: Genau! Wenn es ein Schulfach Informatik gibt, das wissenschaftlich weiterentwickelt wird und innerhalb der universitären Forschungslandschaft auch unter pädagogischen Aspekten konzipiert wird, dann braucht man eben auch eine breitere Diskussion über die Inhalte und mehr Mittel für solche Lehrstühle an den Universitäten. Ich gebe zudem zu bedenken, dass Schulinformatik den rasanten technologischen Wandel wirklich abbilden muss, und hier bin ich doch sehr skeptisch, ob das eine realistische Perspektive ist. Und ob und wie lange man z.B. noch Grundlagen des Programmierens braucht, denn die Prüfung komplexer Algorithmen würde die Schulinformatik sicher überfordern, ist doch angesichts der frappierenden Kompetenzen der LLMs in diesem Bereich wirklich fraglich. Diese Problematik haben wir ja sogar inzwischen im Studienfach Informatik an den Hochschulen, wo die Inhalte teilweise angepasst werden müssen.
Einer Ihrer Punkte auf dem Podium war, dass Schülerinnen und Schüler gewisse Dinge aus einem Informatikunterricht nicht mehr lernen müssen, weil KI mittlerweile diese Programmieraufgaben übernimmt. Deshalb sollten wir aber doch Programmieren und Grundlagen des Programmierens nicht aus dem Unterricht streichen? Souveränität bedeutet schließlich auch, dass Menschen noch Code verstehen und als Kontrollinstanz auftreten können, da KI Fehler macht und schon allein die Trainingsdaten diskutabel, zum Beispiel unvollständig und biased sein können. Auch Algorithmusverständnis ist essenziell. Dass heutige Kinder schon per se durch regelmäßige Techniknutzung mehr als nur „Klicken und Wischen“ können, sehe ich auch nicht unbedingt bestätigt, wenn ich ihnen begegne. Kommen wir aber zu einer anderen Frage: Sie haben beide kritisiert, dass in der Öffentlichkeit stets von Medienkompetenz gesprochen wird, beziehungsweise diese als Unterrichtsziel verlangt wird. Welche Kompetenzen sollten es stattdessen sein?
Beckedahl: Das, was wir eigentlich brauchen, sind Digitalkompetenzen. Wenn ich Medienkompetenz höre, dann hat das für mich vor allem etwas mit klassischen Medien zu tun, aber nichts mit den vielen anderen Aspekten, die zum Verständnis des Digitalen nötig sind.
Thimm: Dem kann ich so nur zustimmen. Digitalkompetenz beinhaltet für mich Fähigkeiten zum selbstbestimmten Umgehen mit und im Digitalen. Deshalb bin ich auch für eine Begriffsanpassung.
Debatte um „Digitalfaschismus“
Frau Thimm, Sie haben in Ihrem Input zur Diskussion auch auf die Gefahr von „Technofaschismus“ hingewiesen. Unser Föderalismus oder auch gezielte Parallelstrukturen, sollen in Deutschland ein Sicherheitsnetz darstellen, damit Systeme nicht auf einen Schlag übernommen werden können. Was bedeutet das für Sie in Bezug auf Regulation oder Strukturreformen?
Thimm: Zunächst möchte ich, wie auch in meinem Input, darauf verweisen, dass wir in Deutschland mit den Begriff „Faschismus“ sehr bedacht umgehen müssen. Aber diese Debatte um einen „Digitalfaschismus“, die aus den USA kommt, wird nun auch zunehmend bei uns reflektiert. Um Digital-Eliten beziehungsweise mächtige Monopolstrukturen mit massivem politischen Einfluss zu verhindern, sind schützende Strukturen sinnvoll. Wie Markus aber zurecht erklärt hat, darf das in Deutschland auch nicht dazu führen, dass wir hier nichts mehr gestalten oder verändern können. Auf europäischer Ebene sehe ich aber auf jeden Fall Handlungsbedarf, um Abhängigkeiten und systemische Gefahren zu begrenzen. Wir sehen, dass es mittlerweile eine irrsinnige Machtkonzentration im Tech-Sektor gibt und da sollte unter anderem der AI-Act schlagkräftig drauf reagieren können. Dass beispielsweise in den USA gerade von einem Gericht entschieden wurde, dass Google nicht zerschlagen werden muss, sollte ein Alarmzeichen sein.
Sie sagten beide, dass jetzt die Zeit ist, in der wichtige Weichenstellungen erfolgen könnten – unter anderem durch den Digitalpakt 2 und das Sondervermögen. Wie diese genau eingesetzt oder gestaltet werden, ist noch offen.
Beckedahl: Ja, es gibt zumindest die Hoffnung, dass wir jetzt ein Momentum zum Handeln haben. Wir könnten jetzt in souveräne digitale Infrastrukturen investieren, sowohl in die Software, als auch in die Bildung zu mehr Souveränität. Die Gefahr ist, dass Politiker:innen das nicht ausreichend auf dem Schirm haben und sich wieder in Großlizenzierungen hineinquatschen lassen und wir weiter gefährlich abhängig bleiben.
Thimm: Hier gibt es eine Chance – dazu kann und soll auch die Konferenz des Forum Bildung Digitalisierung beitragen. Ich halte übrigens die aktuelle Handyverbotsdebatte in diesem Zusammenhang sogar für einen sinnvollen Weckruf. Auch wenn wir Ungenauigkeiten oder Polarisierungen in der Debatte sehen, geht damit doch auch eine öffentlich breit geführte Diskussion einher. Gefahren für Kinder und Jugendliche werden benannt, Aspekte von „Digitalkompetenz“ diskutiert und damit kommt auch „digitale Souveränität“ auf die Agenda.
(kbe)
Künstliche Intelligenz
Steam Frame: Valves VR-Brille rückt klassisches Gaming und VR näher zusammen
Valve bringt eine neue Brille für Virtual-Reality-Computerspiele (VR) auf den Markt. Sie heißt Steam Frame und zeichnet sich durch geringes Gewicht aus. Um optimales PC-Streaming zu gewährleisten, liefert Valve einen USB-Drahtlosadapter mit, der in den PC gesteckt wird.
Weiterlesen nach der Anzeige
Das Headset selbst verfügt über zwei Funkmodule: Eines empfängt Bild und Ton vom PC und Drahtlosadapter über einen dedizierten 6-GHz-Kanal, das andere stellt die WLAN-Verbindung mit dem heimischen Router her. So ermöglicht der Adapter niedrige Latenz und stabiles Streaming ohne komplizierte Netzwerkeinrichtung. Die beiden Eye-Tracking-Kameras erfassen zudem, wohin der Nutzer blickt, und optimieren das Streaming entsprechend, um im Blickbereich besonders hohe Bildqualität zu erzielen.
In Kombination mit einem PC unterstützt Steam Frame die gesamte Steam-Bibliothek, einschließlich aller SteamVR-Titel. Die Controller des Headsets kombinieren die Eingabemöglichkeiten eines Gamepads mit denen eines räumlich getrackten VR-Controllers und stellen so die Kompatibilität mit beiden Gaming-Welten sicher. Die Controller werden jeweils mit einer herkömmlichen AA-Batterie betrieben, die laut Hersteller bis zu 40 Stunden Laufzeit bietet.
Steam Frame läuft auf einer VR-Version von SteamOS. Für den autarken Betrieb setzt die VR-Brille auf den Smartphone-Chip Snapdragon 8 Gen 3 sowie 16 GB RAM. Diese Prozessorleistung reicht natürlich längst nicht für alle Spiele der Steam-Bibliothek aus. Für grafisch anspruchsvollere Titel oder VR-Spiele wie Half-Life: Alyx ist weiterhin ein PC erforderlich. Um hervorzuheben, welche Bildschirmspiele und VR-Titel auf dem Steam Frame laufen, wird Valve das Deck-Verified-Programm vor dem Marktstart um Bewertungen für Steam Frame erweitern.
Valve zielt auf ein breiteres VR-Publikum als bisher
Was Art und Auflösung der Displays betrifft, bewegt sich Steam Frame etwa auf dem Niveau der Meta Quest 3 mit einem LC-Display mit 2160 × 2160 Bildpunkten pro Auge. Auch das Sichtfeld fällt vergleichbar aus. Wie die meisten modernen VR-Brillen setzt Steam Frame auf Pancake-Linsen. Es unterstützt Bildwiederholraten von bis zu 144 Hertz.
Beim Passthrough geht Valve nicht mit der Zeit und setzt auf monochrome statt auf RGB-Kameras. Der Fokus liegt damit klar auf klassischem Gaming und VR, nicht auf Mixed Reality. Die Kameras dienen zugleich dem räumlichen Tracking des Geräts. Zwei Infrarot-LEDs stellen zudem sicher, dass die Raumerfassung auch bei schwachem Licht zuverlässig funktioniert. Das externe Trackingsystem von Valves älterer VR-Brille wird nicht unterstützt.
Weiterlesen nach der Anzeige
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.
Valve
Mit 440 Gramm ist Steam Frame leichter als die Konkurrenz: Meta Quest 3 etwa bringt 515 Gramm auf die Waage, Apple Vision Pro sogar bis zu 800 Gramm. Die Kopfhalterung enthält in beiden Bügeln zwei Lautsprecher sowie einen wiederaufladbaren Akku auf der Rückseite. An der gleichen Stelle befindet sich auch ein USB-Port für den Betrieb per Kabel oder Powerbank.

Die Steam Frame Controller schlagen eine Brücke zwischen Gamepad- und VR-Steuerung.
(Bild: Valve)
Noch ist nicht klar, wie viel Steam Frame kosten wird. Der technischen Ausstattung nach dürfte Valve jedoch das mittlere Preissegment anpeilen. Valves letzte VR-Brille, die 2019 erschienene Valve Index, war für damalige Verhältnisse ein High-End-Gerät und richtete sich mit einem Preis jenseits der 1000 Euro klar an Enthusiasten. Das Steam Frame wird in zwei Speichervarianten erscheinen: mit 256 GB und 1 TB. Der Speicher lässt sich per MicroSD-Karte erweitern.
Steam Frame erscheint Anfang 2026, so wie die neue Steam Machine und der Steam Controller, die ebenfalls heute angekündigt wurden.
(tobe)
Künstliche Intelligenz
Arbeitsrecht: EU-Abgeordnete sind gegen Kündigung durch KI
EU-Abgeordnete machen sich für ein Gesetz stark, das den Einsatz algorithmischer Entscheidungssysteme und von KI in Unternehmen einhegen soll. Der Ausschuss für Beschäftigung und soziale Angelegenheiten des EU-Parlaments hat dazu mit der deutlichen Mehrheit von 41 zu 6 Stimmen bei 4 Enthaltungen eine Reihe von Empfehlungen ausgesprochen. Ziel ist, die transparente, faire und sichere Anwendung automatisierter Überwachungs- und Entscheidungshilfen am Arbeitsplatz zu gewährleisten.
Weiterlesen nach der Anzeige
Die Parlamentarier betonen zwar, dass Algorithmen Prozesse optimieren können. Sie fordern aber, dass diese Technik unter menschlicher Aufsicht stehen muss. Im Kern geht es darum, Grundrechte und Datenschutz der Arbeitnehmer zu wahren.
Einer der Pfeiler der vorgeschlagenen Regeln ist menschliche Kontrolle. Arbeitnehmer sollen auch das Recht auf eine Erklärung algorithmisch unterstützter Entscheidungen haben. Vor allem Beginn und Ende eines Arbeitsverhältnisses, die Verlängerung von Verträgen, Lohnanpassungen oder Disziplinarmaßnahmen müssten stets von Menschen entschieden werden.
Ferner legt der Ausschuss großen Wert auf Transparenz und das Recht auf Information: Arbeitnehmer müssen darüber in Kenntnis gesetzt werden, wie sich diese Systeme auf ihre Arbeitsbedingungen auswirken, wann sie zur Entscheidungsfindung eingesetzt werden, welche Art von Daten sie erfassen und wie menschliche Überwachung sichergestellt ist. Zudem sollen Mitarbeiter Zugang zu Schulungen im Umgang mit dieser Technik erhalten und bei maschinengestützten Entscheidungen zu Vergütung, Bewertung, Aufgabenverteilung oder Arbeitszeit konsultiert werden.
EU-Kommission soll Gesetzentwurf vorlegen
Ein weiterer Punkt betrifft den Schutz der Daten und des Wohlbefindens der Arbeitnehmer. Die geforderten Vorschriften sollen gewährleisten, dass der Einsatz algorithmischen Managements die psychische und physische Gesundheit sowie die Sicherheit der Beschäftigten nicht gefährdet.
Um die Privatsphäre zu schützen, verlangen die Volksvertreter ein Verbot der Verarbeitung bestimmter sensibler Daten. Dazu gehören Informationen über den emotionalen, psychologischen oder neurologischen Zustand der Beschäftigten, private Kommunikation, Daten über Freizeitaktivitäten und Echtzeit-Ortung außerhalb der Arbeitszeiten. Auch Gewerkschaftsfreiheit und Kollektivverhandlungen sollen außen vor bleiben.
Der Berichterstatter Andrzej Buła von der konservativen EVP-Fraktion hält den Vorschlag für ausgewogenen, da er beiden Seiten der Sozialpartnerschaft zugutekomme. Arbeitgeber blieben frei in der Wahl ihrer Systeme und müssten keine neuen administrativen Hürden befürchten. Arbeitnehmer erhielten neue Informationsrechte und besseren Datenschutz. Dies sei Ausdruck eines „europäischen Lebenswegs“, der Wettbewerbsfähigkeit mit hohen Sozialstandards verbinde.
Weiterlesen nach der Anzeige
Das Parlamentsplenum wird im Dezember über die Initiative abstimmen. Anschließend hat die EU-Kommission drei Monate Zeit, um auf den Appell zu reagieren. Bestehende Gesetze wie der AI Act, die Datenschutz-Grundverordnung (DSGVO) und die Richtlinie für Plattformarbeit bilden laut einer Studie für die Abgeordneten bereits einen allgemeinen Rahmen, der durch gezielte Vorschriften für den Einsatz von KI am Arbeitsplatz ergänzt werden müsse.
(wpl)
Künstliche Intelligenz
Astronomie: Erstmals initiale Geometrie einer Supernova ergründet
Dem Very Large Telescope (VLT) ist es im vergangenen Frühjahr erstmals gelungen, die Explosion eines massereichen Sterns quasi unmittelbar nach ihrem Beginn zu beobachten und die Geometrie des Materieauswurfs zu ergründen. Das hat die Europäische Südsternwarte ESO jetzt publik gemacht und eine künstlerische Darstellung dieser frühestmöglichen Phase einer solchen Sternenexplosion veröffentlicht. Hätte man das Observatorium nur einen Tag später auf den Vorgang gerichtet, wäre der nicht mehr zu beobachten gewesen, erklären die Verantwortlichen die Bedeutung des Funds. Das VLT hat die 22 Millionen Lichtjahre entfernte Explosion demnach dank der schnellen Reaktion des Studienleiters nur 26 Stunden nach ihrer ursprünglichen Entdeckung beobachtet.
Weiterlesen nach der Anzeige
Schnelle Reaktion als Grundlage des Erfolgs

Die Supernova in der Galaxie NGC 3621
(Bild: ESO/Y. Yang et al.)
Wie die Forschungseinrichtung in Erinnerung ruft, besteht bei einem typischen Stern zeit seines Lebens ein präzises Gleichgewicht zwischen der Gravitationskraft, die ihn zusammenzieht, und dem gegenläufigen Druck „seines nuklearen Motors“. Ist die Energiequelle dagegen erschöpft, kollabiert der Kern des Sterns, die ihn umgebende Masse stürzt auf ihn und wird abgestoßen. Die dabei entstehende Schockwelle zerstört den Stern dann von ihnen, es entsteht eine Supernova. Der Durchbruch dieser Schockwelle durch die Oberfläche des Sterns lasse sich aber nur für wenige Stunden beobachten, danach interagiere die sich ausbreitende Explosion mit Material um den Stern. Genau dieses enge Zeitfenster konnte nun erstmals mit dem VLT für detaillierte Beobachtungen genutzt werden.
Verantwortlich für den Erfolg war demnach die Reaktionsschnelligkeit des Astronomen Yi Yang von der Tsinghua-Universität in Peking. Als die Supernova mit der Bezeichnung SN 2024ggi am 10. April 2024 entdeckt wurde, war der gerade nach einem Langstreckenflug in San Francisco gelandet. Zwölf Stunden später lag sein Antrag für eine Beobachtung mit dem VLT bei der ESO vor, dem unmittelbar nachgekommen wurde. Schon am 11. April wurde es demnach auf die Explosion gerichtet, weshalb die Geometrie der Supernova ermittelt werden konnte. Ausschlaggebend dafür war demnach das Instrument FORS2, dessen Daten ergeben haben, dass die ausgeworfene Materie die Form einer Olive hatte. Die Symmetrieachse sei im Verlauf der Explosion unverändert geblieben, auch als die Form sich abflachte.
Auf die Geometrie konnte das Forschungsteam demnach aus der Polarisation des Lichts schließen, das mit dem Teleskop eingefangen wurde. Die Beobachtung verändere unser Verständnis stellarer Explosionen, erklärt Mitautor Ferdinando Patat von der ESO. Dank des gewonnenen Wissens könnten bereits einige Supernova-Modelle ausgeschlossen und andere verbessert werden, ergänzt er. Als Vorläufer der Explosion hat das Team einen Roten Überriesen mit etwa 12 bis 15 Sonnenmassen ausgemacht, dessen Radius etwa 500-mal größer war als der der Sonne. Die Arbeit wird in einem Fachartikel vorgestellt, der im Wissenschaftsmagazin Science Advances erscheinen wird.
Weiterlesen nach der Anzeige
(mho)
-
UX/UI & Webdesignvor 3 MonatenDer ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 2 MonatenAdobe Firefly Boards › PAGE online
-
Apps & Mobile Entwicklungvor 3 MonatenGalaxy Tab S10 Lite: Günstiger Einstieg in Samsungs Premium-Tablets
-
Social Mediavor 3 MonatenRelatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Datenschutz & Sicherheitvor 2 MonatenHarte Zeiten für den demokratischen Rechtsstaat
-
UX/UI & Webdesignvor 4 WochenIllustrierte Reise nach New York City › PAGE online
-
Entwicklung & Codevor 3 MonatenPosit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 MonatenEventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
