Connect with us

Künstliche Intelligenz

Kommentar zum Digital Omnibus: Schafft die EU den van-Damme-Split?


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Der digitale Omnibus polarisiert: Die einen warnen, vom europäischen Datenschutz werde am Ende kaum etwas übrig bleiben. Die anderen winken ab und verweisen darauf, dass es Brüssel doch nur um die Vereinfachung und den Bürokratieabbau geht. Aber das eine ist Alarmismus und das andere bloße Beschwichtigung – dabei lohnt sich ein nüchterner Blick auf das, was der Entwurf für ein neues europäisches Datenschutz- und Digitalrecht tatsächlich vorsieht.

Weiterlesen nach der Anzeige


Ein Kommentar von Dennis-Kenji Kipker

Ein Kommentar von Dennis-Kenji Kipker

Dennis-Kenji Kipker ist wissenschaftlicher Direktor des cyberintelligence.institute in Frankfurt am Main und Professor für IT-Sicherheitsrecht.

Unter anderem sollen Open Data Directive, die Verordnung Free Flow of non-personal Data, Data Governance Act und Data Act in einem überarbeiteten Data Act gebündelt werden. Das Ziel ist nachvollziehbar: weniger Redundanzen, geringerer Compliance-Aufwand, insbesondere für kleine und mittlere Unternehmen, und eine klarere Struktur der Vorgaben. Angesichts der bisherigen Fragmentierung mit überschneidenden Zuständigkeiten und nicht immer trennscharfen Begrifflichkeiten im europäischen Datenrecht kann eine solche Konsolidierung durchaus zu mehr Übersichtlichkeit und Rechtssicherheit führen.

Der Preis dieser Vereinheitlichung liegt jedoch im Detail. Besonders umstritten ist die geplante Ausweitung des „berechtigten Interesses“ nach Artikel 6 DSGVO als Rechtsgrundlage. Künftig soll eben jenes weit gefasste Interesse – jedenfalls nach dem Entwurf – ausreichen, um Cookies und das Training von KI-Modellen mit personenbezogenen Daten zu legitimieren. Das wäre ein Bruch mit der bisherigen Linie, wonach in vielen Fällen die ausdrückliche Einwilligung der Betroffenen erforderlich ist. Zugleich sollen pseudonymisierte Daten datenschutzrechtlich nicht mehr als personenbezogen gelten.

Auf den ersten Blick erscheint das konsequent, weil der EuGH schon länger darauf abstellt, ob eine bestimmte Stelle realistischerweise re-identifizieren kann. In der Praxis würde diese Neubewertung aber die Schwelle für die Verarbeitung persönlicher Daten deutlich absenken – mit spürbar erhöhten Risiken für die Betroffenen.

Schon heute erlauben datengetriebene Verfahren, aus Verhaltensdaten und Metainformationen sensible Persönlichkeitsprofile mit hoher Treffsicherheit abzuleiten. Wenn solche Daten künftig nicht mehr als personenbezogen gelten und zugleich das „berechtigte Interesse“ als Türöffner für umfangreiche KI-Trainings dient, gerät der Kern der DSGVO ins Wanken: Transparenz, Zweckbindung, Datenminimierung und echte Wahlmöglichkeiten für durch die Datenverarbeitung betroffene Personen. Die Gefahr einer faktischen Entgrenzung der Datenverarbeitung und einer Schwächung der informationellen Selbstbestimmung ist daher keineswegs reine Panikmache.

Weiterlesen nach der Anzeige

Gleichzeitig wäre es verkürzt zu behaupten, der Omnibus sei eine reine Abrissbirne für den Datenschutz. Denn positiv ist zumindest hervorzuheben, dass besonders problematische Vorschläge aus vorangegangenen Entwurfsfassungen nun nicht mehr enthalten sind. So sollte ursprünglich die Definition sensibler Daten nach Artikel 9 DSGVO enger gefasst und auf Informationen beschränkt werden, die sensible Merkmale unmittelbar offenlegen.

Daten, aus denen sich etwa Gesundheit, politische Überzeugungen oder sexuelle Orientierung nur mittelbar erschließen lassen, wären damit aus dem besonderen Schutz herausgefallen – ein Einfallstor für weitreichendes Profiling und neue Diskriminierungsrisiken. Dass diese Neudefinition im offiziellen Omnibus-Entwurf nicht mehr auftaucht, ist ein wichtiges Korrektiv.

Auch die Befürworter des digitalen Omnibusses haben durchaus ihre Argumente: Innovation, insbesondere im Bereich KI, benötigt große Datenmengen und klare, möglichst einheitliche Regeln. Unternehmen – gerade Start-ups aus der Europäischen Union – sind auf Rechtssicherheit angewiesen und kämpfen heute mit einem Flickenteppich aus unterschiedlichen Rechtsakten und Auslegungen, die im Laufe der letzten Jahre mit den massiven technologischen Disruptionen gewachsen sind.

Der Versuch, Begriffe zu harmonisieren, Pflichten zu bündeln und digitale Prozesse planbarer zu machen, ist deshalb nicht per se ein Angriff auf Grundrechte. Zunächst ist es ein organisations- und wirtschaftspolitisch nachvollziehbares Projekt, das durchaus auch Potenziale birgt, unsere digitale Souveränität in der EU technisch abzusichern.

Die entscheidende Frage lautet daher nicht, ob Innovation oder Datenschutz gewinnen, sondern ob es gelingt, beides klug miteinander zu verbinden. Ein digitaler Omnibus, der Komplexität reduziert, Begriffe schärft und technische wie organisatorische Mindeststandards klar definiert, kann Innovation sogar erleichtern. Gerade dann, wenn er datensparsame KI-Verfahren, Privacy-by-Design und robuste Transparenzmechanismen nach europäischen Vorgaben und Made in Europe stärkt. Gefährlich wird es aber dort, wo Vereinfachung über die Absenkung von Schutzstandards erkauft wird, ohne dass das für Innovation zwingend notwendig wäre.

Am Ende wird der politische Feinschliff darüber entscheiden, wie weitreichend der digitale Omnibus tatsächlich in das Gefüge des europäischen Datenschutzes eingreift. Weder ist sicher, dass „vom Datenschutz nichts mehr übrig bleibt“, noch dürfen wir davon ausgehen, dass am Ende alles beim Alten bleibt.


(axk)



Source link

Künstliche Intelligenz

TDWI München 2026: Vorträge für die Konferenz zu Data, Analytics und KI gesucht


Vom 23. bis 25. Juni 2026 findet die TDWI München statt. Die Konferenz hat sich als Wissensdrehscheibe und Netzwerkplattform für die Daten-Community etabliert.

Weiterlesen nach der Anzeige

Bis Ende Januar 2026 sucht der Veranstalter heise conferences nach Vorträgen für die TDWI München zu Themen von Datenarchitektur und Strategie über Data Science und KI bis zur Datenkultur.

Ein Programmbeirat aus Fachexpertinnen und -experten kuratiert das Programm und sucht aus den Einreichungen etwa 120 Vorträge für die TDWI München aus.

Der Call for Contributions ist bis zum 26. Januar 2026 geöffnet. Die Konferenz bietet zwölf thematische Tracks. Als neue Schwerpunkte kommt 2026 Industrial Data & AI hinzu. Daneben gibt es unter anderem folgende Tracks:

  • Data Architecture
  • Data Management
  • Data Culture
  • Data Science & AI
  • Data Strategy & Data Governance
  • Self-Service BI & Analytics
  • Branchentrack Finanzindustrie

Projekterfahrungen und -berichte sind ebenso gewünscht wie Trends und Ausblicke zu den Themen der TDWI München. Wer mit einem Vortrag auf der Konferenz dabei sein möchte, aber noch keine Speaker-Erfahrung hat, hat die Chance, auf einen Mentor aus der Community zurückzugreifen.

Anwenderstorys sind besonders gern gesehen. Die Programmgestalter freuen sich zudem über Vorträge zu innovativen Formaten. So gab es in den letzten Jahren beispielsweise eine Chess Clock Debate und ein Dashboard-Karaoke.

Weiterlesen nach der Anzeige


(rme)



Source link

Weiterlesen

Künstliche Intelligenz

Missing Link: Hubble Deep Field – ein Foto und seine Geschichte


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Das Bild war eine Sensation: Fast sechs Tage lang hatte das Hubble Space Telescope aus der Milchstraße in einen Bereich des Sternenhimmels außerhalb der Milchstraße gespäht. Von der Erde aus betrachtet, galt dieser Himmelsbereich als leer.

Weiterlesen nach der Anzeige

Die US-Raumfahrtbehörde NASA musste liefern. Das damals neue Weltraumteleskop drohte zu einem Millionen US-Dollar teuren Flop zu werden: Der Bau hatte sich verzögert, der Start nach der Explosion des Space Shuttle Challenger 1986 ebenfalls. Als es 1990 endlich im All war, kam die große Enttäuschung: Die Optik hatte einen gravierenden Fehler, die Bilder, die das Teleskop lieferte, waren unbrauchbar.




Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Um das Hubble-Teleskop trotzdem nutzen zu können, ließ die NASA eine Korrekturlinse anfertigen, die ein Space Shuttle Ende 1993 zu dem Teleskop brachte, das zu dem Zeitpunkt schon mehr als drei Jahre in Orbit herumdümpelte. In mehreren Außeneinsätzen setzten die Thomas Akers, Jeffrey Hoffman, Story Musgrave und Kathryn C. Thornton Hubble eine neue Brille auf.

Endlich funktionierte das Teleskop – und jetzt musste es liefern. Und es lieferte: Das Bild des vermeintlich leeren Himmelsbereichs zeigte Millionen von Sternen in tausenden Galaxien, von denen einige noch aus der Frühzeit des Universums stammen. Das „Hubble Deep Field“ ist heute eines der ikonischsten Fotos der Weltraumforschung, das unseren Blick auf das Universum verändert hat und zu dem mehrere hundert Fachartikel veröffentlicht wurden.


Das Hubble Deep Field aus dem Jahr 1995

Das Hubble Deep Field aus dem Jahr 1995

Das Hubble Deep Field aus dem Jahr 1995

(Bild: NASA)

Genauso interessant wie das Foto selbst und die wissenschaftlichen Erkenntnisse daraus ist allerdings seine Entstehungsgeschichte. Hier war weniger die Wissenschaft als vielmehr mangelndes Qualitätsmanagement in einem US-Raumfahrtunternehmen sowie die US-Finanzpolitik in Person eines späteren Friedensnobelpreisträgers involviert. Und diese Geschichte ist mindestens so spannend wie die wissenschaftlichen Entdeckungen, die später aus dem Foto folgten.

Weiterlesen nach der Anzeige

Rückblick: Es ist das Jahr 1975. Nachdem die Idee eines weltraumgestützten Teleskops seit fast drei Jahrzehnten diskutiert wird und auch bereits Satelliten mit kleineren Teleskopen in der Umlaufbahn operieren, legt die NASA dem US-Haushaltsausschuss eine Budgetanfrage von 400 Millionen US-Dollar vor, heute wären das über 2 Milliarden US-Dollar. Damit wollte die US-Raumfahrtbehörde den Bau eines „Large Space Telescopes“ mit einem Spiegel von 3 Metern Durchmesser finanzieren. Das Projekt wurde jedoch als „zu teuer“ abgelehnt.

Die NASA überarbeitete die Pläne und verkleinerte den Durchmesser des Hauptspiegels (und damit die Größe des Teleskops) auf 2,4 Meter. So konnte das benötigte Budget halbiert werden. Das Geld wurde 1977 bewilligt, sodass die NASA in den folgenden Monaten die einzelnen Komponenten beauftragen konnte.

1978 wurde dann der Auftrag für den Hauptspiegel des Teleskops an das US-Unternehmen PerkinElmer vergeben. Beim Bau kam ein neues, lasergestütztes Schleifverfahren zum Einsatz. PerkinElmer setzte dabei auch ein für das neue Verfahren angepasstes Messgerät, einen sogenannten „Null-Korrektor“, ein. Bedingt durch Zeit- und Kostendruck wurde der neue Korrektor vor dem Einsatz nicht getestet und validiert. So bemerkte niemand, dass durch eine fehlerhafte Konstruktion eine Linse des Messsystems um 1,3 mm versetzt saß. Da es bei PerkinElmer zu einer Reihe von Versäumnissen in der Qualitätssicherung kam, blieb der Fehler zunächst unbemerkt. Neben der fehlenden Validierung wurden später noch eine ganze Reihe weiterer Versäumnisse entdeckt.



Source link

Weiterlesen

Künstliche Intelligenz

ThinkBook Plus G6: Notebook mit ausrollbarem OLED-Bildschirm im Test


Lenovos ThinkBook Plus G6 Rollable ist ein Hingucker, weil es nur auf den ersten Blick ein normales Notebook ist. Drückt man eine Sondertaste neben F12, so fährt das Notebook seinen Bildschirm motorisiert nach oben aus. Er gewinnt dadurch in etwa nochmal die Hälfte an zusätzlicher Höhe. Das funktioniert dank eines flexiblen OLED-Displays.

Anders als herkömmliche Monitore benötigt es keinen mehrlagigen Schichtaufbau mit starrer Hintergrundbeleuchtung, sondern lässt sich auf flexiblen Folien fertigen. Gerätehersteller benutzen diese technische Besonderheit für Smartphones mit faltbaren Displays, aber auch für Gaming-Bildschirme, die man jederzeit zwischen planer und gekrümmter Oberfläche umbauen kann. Das ThinkBook Plus G6 Rollable hat auch keine nervige Unterbrechung der Bildfläche, die man bei bisherigen Dual-Display-Notebooks zwangsläufig antrifft.

Anders als dort muss man obendrein keine Kompromisse bei den Eingabegeräten hinnehmen. Sie sind in gängiger Position fest im Rumpf verbaut: Tastatur hinten, Touchpad mittig davor. Dies ist bei Notebooks mit ungewöhnlichen oder mehreren Bildschirmen keinesfalls selbstverständlich. Dort sind abnehmbare Bluetooth-Tastaturen gängig oder welche, die ganz nach vorne gezogen sind und die Handballenablage verdrängen.


Das war die Leseprobe unseres heise-Plus-Artikels „ThinkBook Plus G6: Notebook mit ausrollbarem OLED-Bildschirm im Test“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Beliebt