Connect with us

Datenschutz & Sicherheit

Chatbot-inspirierte Gewalt: KI-Hersteller entschädigen Familien



In den US-Bundesstaaten Florida, Texas, Colorado and New York handeln Google und Character Technologies Vergleiche mit fünf Familien aus, deren Kinder angeblich durch Chatbot-Nutzung zu Schaden gekommen sind. Der Fall, der die meiste Aufmerksamkeit erhielt, behandelt den Suizid eines 14-Jährigen Jungen. Der Jugendliche hatte eine emotionale Beziehung zum Chatbot „Dany“ von Character Technologies aufgebaut, der den Suizid des Jungen befürwortete.

In anderen Fällen hatten Chatbots von Character Technologies angeblich Jugendliche zu Gewalt gegen ihre Eltern oder selbstverletzendem Verhalten inspiriert. Die Bedingungen der Vergleiche sind bisher öffentlich nicht bekannt und werden nach Angaben von TechCrunch weiter verhandelt. Demnach wollen sich weder Sprecher*innen von Character Technologies, noch die Anwältin der Anklage dazu äußern.

Haften Techkonzerne für ihre Chatbots?

Zwei ehemalige Google-Mitarbeiter gründeten 2021 den Chatbot-Hersteller Character Technologies. Drei Jahre später kehrten sie zu Google zurück. Im gleichen Zug erwarb der Konzern Lizenzen in Höhe von 2,7 Milliarden US Dollar von Character Technologies. Beide Gründer stehen als Angeklagte vor Gericht. Die Mutter des toten 14-Jährigen hat ebenfalls Googles Mutterkonzern Alphabet angeklagt. Sie argumentiert, dass das Unternehmen den Chatbot mitentwickelt hat. Google beteiligt sich nun auch an dem Vergleich.

Im Mai des vergangenen Jahres hatte die verantwortliche US-Bezirksrichterin Anne C. Conway entschieden, dass KI-Chatbots rechtlich als Produkte zu behandeln sind. Ihre Ausgaben seien nicht als geschützte Meinungsäußerung zu werten. Andernfalls hätte das die Chancen einer Haftungsklage stark verringert.

Gegenmaßnahme Altersbeschränkungen

Aktuell laufen in den USA sieben Verfahren gegen den Tech-Konzern OpenAI. Eine Anklage stammt von den Eltern eines 16-Jährigen Jungen. Auch sie werfen dem Unternehmen vor, dass die KI den Jugendlichen bei der Selbsttötung unterstützt habe. OpenAI zieht sich bisher aus der Verantwortung. Der KI-Hersteller verweist auf die Missachtung der Sicherheitsmaßnahmen durch den 16-Jährigen.

Wir sind ein spendenfinanziertes Medium

Unterstütze auch Du unsere Arbeit mit einer Spende.

Gleichzeitig führt das Unternehmen neue Tools zur Alterskontrolle und „Kindersicherung“ ein. Auch der KI-Hersteller Character Technologies hat neue Regelungen zur Altersüberprüfung eingeführt.

Präzedenzfall steht aus

Character Technologies und Google streben die nicht-öffentlichen Vergleiche wohl auch deshalb an, um Präzedenzfälle zu vermeiden, auf die sich Kläger*innen bei zukünftigen Verstößen berufen können. Außerdem ist der Schaden für die Reputation bei einem Vergleich vermutlich geringer als bei einer juristischen Niederlage.

Aline Blankertz von Rebalance Now, einem Verein der sich gegen Monopolisierung einsetzt, sagt: „Die kollektive Schutzwirkung der Gesetze wird dadurch untergraben, denn es bleibt offen, ob das Verhalten illegal war. Wir beobachten diese Tendenz in verschiedenen Rechtsbereichen.“

Blankertz erklärt auch, warum sich Kläger*innen auf Vergleiche einlassen: „Aus Sicht der einzelnen Geschädigten ergeben Vergleiche Sinn: Sie geben ihnen ein sicheres Ergebnis innerhalb kürzerer Zeit.“



Source link

Datenschutz & Sicherheit

Microsoft beendet Unterstützung für Windows-Versionen aus 2016


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Microsoft beendet den Support für drei Windows-Produkte, die im Jahr 2016 erschienen sind. Das nahende Aus lässt sich etwa mit erweiterten Sicherheits-Updates (ESU) hinauszögern – natürlich mit einem Preis verbunden.

Weiterlesen nach der Anzeige

Im Windows-Release-Health-Message-Center hat Microsoft das angekündigt. Ein Blog-Beitrag im Windows-IT-Pro-Blog geht auf die Details ein. Demnach läuft der offizielle Support zehn Jahre nach Erscheinen für Windows 10 Enterprise LTSB 2016, Windows 10 IoT Enterprise 2016 LTSB (beide am 13. Oktober 2026) sowie für Windows Server 2016 (am 12. Januar 2027) aus. Das sind die Daten der jeweils letzten Sicherheits-Updates, die Maschinen mit diesen Windows-Versionen offiziell erhalten. „Danach erhalten diese Geräte keine Windows-Sicherheits-Updates, non-Security-Updates, Fehlerkorrekturen, technischen Support oder Updates für technische Inhalte mehr“, schreibt Microsoft. Es gebe aber gute Neuigkeiten: Wer zusätzliche Zeit benötige, könne das ESU-Programm nutzen.

Im Rahmen des ESU können Interessierte monatliche Sicherheitsupdates für bis zu weitere drei Jahre bei Microsoft einkaufen. Neue Funktionen, Verbesserung der Qualität oder Designänderungen fallen nicht darunter, ebenso gibt es keinen weiteren technischen Support für die betroffenen Windows-Versionen. Für Windows Server 2016 muss Microsoft noch Preise ausknobeln. Windows IoT Enterprise LTSB 2016 ist ausschließlich über die OEMs der Geräte erhältlich – die bestimmen auch Preis und Verfügbarkeit.

Für Windows 10 Enterprise 2016 LTSB sollen ab dem zweiten Quartal 2026 ESU-Lizenzen für 61 US-Dollar je Maschine und Jahr verfügbar werden. Wer die Geräte mit Intune oder Autopatch verwaltet, erhält einen rabattierten Preis von 45 US-Dollar. Jedes Jahr verdoppelt sich der jedoch – wer sich also erst im zweiten Jahr dazu entscheidet, Maschinen mit einer ESU-Lizenz auszustatten, zahlt das erste Jahr trotzdem mit. Preise in Euro nennt Microsoft noch nicht.

Microsoft empfiehlt Betroffenen, auf Windows Server 2025, Windows 11 Enterprise LTSC 2024 oder Windows 11 IoT Enterprise LTSC 2024 zu aktualisieren und damit länger offizielle Unterstützung einschließlich technischen Support zu erhalten.

Mit dem Support-Ende dieser Windows-Versionen dürften die meisten IT-Verantwortlichen Übung haben. Das offizielle Support-Aus für Windows 10 zum 14. Oktober 2025 hatte großen Handlungsbedarf erzeugt. Microsoft lieferte da zudem Hinweise und Tipps.

Weiterlesen nach der Anzeige


(dmk)



Source link

Weiterlesen

Datenschutz & Sicherheit

Totalitäre Tendenzen: Palantir-Ersatz aus der EU ist ein gefährlicher Wunsch


Deutschlandweit sprechen sich Politiker*innen dafür aus, keine Software von Palantir zu verwenden. Stattdessen soll eine europäische Alternative eingesetzt werden. Die Verknüpfung und automatische Analyse möglichst vieler Daten bleibt aber ein totalitäres Konzept. Ein Kommentar.

Das Palantir-Logo
Ob es nun dieser Hersteller ist oder ein anderer: Big-Data-Analysen sind der Einstieg in eine Überwachungs-Dystopie. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Mariia Shalabaieva

Ungewöhnlich viele deutsche Politiker*innen geben sich gerade datenschutzinteressiert. Ganz schlimm wäre das, so ihr Tenor, wenn Daten aus Deutschland in die USA, zu Palantir, zum Endzeit-Apologeten Peter Thiel abfließen würden. Palantir-Software soll deshalb im Bund nicht eingesetzt werden, so die SPD-Fraktion. Auch Cem Özdemir, der grüne Spitzenkandidat von Baden-Württemberg, wo Palantir-Tools bald eingesetzt werden dürfen, ist gegen deren Nutzung.

Der Witz ist: Die Politiker*innen wollen nicht auf solche Tools verzichten. Sie sollen nur nicht aus den USA kommen. Die SPD wünscht sich eine europäische Alternative, Özdemir am liebsten eine aus Baden-Württemberg.

Es soll Big-Data-Analyse-Software nach Palantir-Art geben, da sind sich sehr viele einig. Nur halt regional produziert und vielleicht ja sogar auch noch in Bio-Qualität.

Ein Riesenproblem für Grund- und Freiheitsrechte

Dabei ändert es nichts am Grundproblem, wenn man die automatisierte Rundum-Überwachung selbst aufbaut, statt sie aus einem System im totalitären Umbau zu kaufen. Sie bleibt menschenfeindlich, ein Riesenproblem für Grund- und Freiheitsrechte. Es ist eine Software, die den totalen Überblick ermöglicht, eine Entwicklung, die eigentlich nur zu totalitären Systemen passt. Wenn Demokratien das einsetzen, drohen sie, zu solchen zu werden. Das gilt auch, wenn die Daten, mit denen die Systeme gefüttert werden, in Deutschland derzeit auf sowieso bestehende polizeiliche Datenbestände begrenzt werden. Denn wer seine Bürger*innen derart umfassend in den Blick nehmen kann, der wird diese Macht absehbar auch zunehmend nutzen.

Die Software droht uns dem anzunähern, was gerade in den USA geschieht: der KI-gestützten Menschenjagd, wie sie die US-Einwanderungsbehörde ICE praktiziert. Die deutschen Politiker*innen zeigen sich datenschutzinteressiert, während sie das Datenschutz-Armageddon einleiten.

Die Tools von Palantir führen Daten zusammen und analysieren sie. Dafür sind sie gemacht. So viele Daten wie möglich. Und es wären viele Daten vorhanden: Bewegungsprofile, die mittels Werbe-ID von fast allen Telefonbesitzer*innen gesammelt werden. Telekommunikationsdaten: Wer mit wem wann von wo aus wie lange telefoniert. Social-Media-Accounts. Daten, die die Polizei bei Beschlagnahmungen oder per Staatstrojaner aus Endgeräten ausgelesen hat. Wer wann mit wem welchen Flug gebucht hat. Wer was wo im Netz sucht oder bestellt. Aufnahmen aus Überwachungskameras und polizeilichen Observationen. Und, und, und.

Ein mächtiges und gefährliches Werkzeug

Die Big-Data-Analyse ist totalitär, weil sie alles mit allem verknüpfen will. Weil sie Menschen so durchsichtig machen soll wie möglich. Sie ist ein mächtiges und gefährliches Werkzeug.

Dabei landen nicht nur die Daten von potenziellen Straftäter*innen im System, sondern auch die von Opfern, Zeugen und Menschen, die sich zur falschen Zeit im falschen Areal aufgehalten haben.

Mir ist völlig unverständlich, wie man als Demokrat denken kann, das sei eine gute Idee. Auf der einen Seite werden Länder wie China als problematische Kontrollstaaten dargestellt. In der Realität rennen wir den technischen Mitteln hinterher, die so etwas ermöglichen. Social Scoring? Mit Big-Data-Software per Knopfdruck aufbaubar. Anpassungs- und Konformitätsdruck galore. Mit solchen Tools sieht es schnell ganz schlecht aus für alle, die in Opposition zu den Herrschenden stehen.

Eine Software entscheidet, wer in den Fokus der Sicherheitsbehörden gerät

Ein weiterer Knackpunkt an dieser Art Software, egal woher sie kommt, ist die automatisierte Auswertung der zusammengeführten Daten. Kein Mensch, der vielleicht auch mal Mitgefühl oder zumindest Augenmaß haben kann, markiert, wer in den Fokus der Sicherheitsbehörden gerät, sondern eine Software. Einen kleinen Blick in diese bedrohliche Zukunft der Deutungshoheit der Maschinen bietet gerade die Debatte um den Datenaustausch mit den USA. Die dortigen Behörden wollen Zugriff auf biometrische Daten aus der EU. Laut einem aktuellen Verhandlungsstand soll es auch möglich sein, Entscheidungen über Einreisende automatisiert abzuwickeln.

Und man bedenke: Daten, die vorliegen, werden auch missbraucht. Das ist mit heutigen Polizeidatenbanken auch schon so – siehe NSU 2.0 und Polizisten, die Frauen stalken. Wenn dann eine derart umfassende Datenanalyse zur Verfügung steht, können die Täter*innen bei Interesse das Leben einer Person bis in die intimsten Winkel ausleuchten.

In Deutschland droht eine Machtübernahme der AfD. Die Politiker*innen, die sich jetzt für Big-Data-Software aussprechen, die sind auch willens, den Rechtsradikalen dieses Tool in die Hände zu geben.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.



Source link

Weiterlesen

Datenschutz & Sicherheit

iOS 26.4 Beta 2: Apple testet RCS-Verschlüsselung mit Android


Nach ersten Versuchen zwischen iPhones mit einer Ende-zu-Ende-Verschlüsselung (E2EE) für den SMS-Nachfolger Rich Communication Services (RCS) unter iOS 26.4 Beta 1 beginnt Apple nun mit „richtigen“ Tests des Dienstes. Mit der in der Nacht zum Dienstag erschienenen zweiten Beta von iOS 26.4 für Entwickler soll man nun auch in Richtung Android sicher kommunizieren können. Das geht aus dem Beipackzettel für iOS 26.4 Beta 2 hervor. Allerdings gilt das, wie schon zuvor zwischen iPhones, nicht für alle Mobilfunkanbieter – bei manchen ist der Dienst schlicht nicht freigeschaltet.

Weiterlesen nach der Anzeige

Wie Apple mitteilt, geht es zunächst nur um „Tests zwischen Apple- und Android-Geräten“. Auf Android-Seite muss die jüngste Version von Google Messages vorhanden sein. Eine Freigabe von RCS-E2EE mit der Finalversion von iOS 26.4 ist derzeit nicht geplant. Die Funktion kommt erst mit einer „späteren Version“ von iOS 26, so der iPhone-Hersteller, ohne genaue Angaben zu machen. Die Implementierung ist nicht nur für iOS, sondern auch für iPadOS, macOS und watchOS geplant.

Apple nutzt den E2EE-Standard für RCS, den die GSM Association vorgeschlagen hat – offenbar im Rahmen von RCS Universal Profile 3.0, das noch weitere Verbesserungen verspricht, darunter E2EE-Gruppenchats, das nachträgliche Editieren von Botschaften, Tapbacks mit Emojis und mehr. Damit das alles funktioniert, müssen offenbar passende Carrier-Profile her, die die Mobilfunkanbieter ausliefern. Google hat E2EE via RCS zwischen Android-Geräten hingegen über eigene Server umgesetzt.

Die zweite Beta von iOS 26.2 für Entwickler liefert auch noch weitere Neuerungen. So gibt es grafische Änderungen beim Editieren des Homescreens (stärkerer Liquid-Glass-Effekt), eine veränderte Suche in der Games-App (Eingabeleiste oben), Layout-Anpassungen im App Store und bei Apple Music und sogenannte Highlighting-Effekts lassen sich im Bereich Barrierefreiheit nun deaktivieren.

Schließlich schaltet sich die Verteilung von Beta-Updates nun automatisch ab, wenn man vier Monate lang keine neue Vorabversion installiert hat. Weiterhin nicht in Europa erhältlich ist unterdessen die neue KI-Wiedergabeliste für Apple Music, sie steht bislang nur US-Nutzern zur Verfügung.

Weiterlesen nach der Anzeige


(bsc)



Source link

Weiterlesen

Beliebt