Connect with us

Künstliche Intelligenz

Passwörter raus aus der US-Cloud – aber wohin? | c’t uplink


Es ist ein Interessenkonflikt: Passwortmanager vereinfachen das Leben, weil man mit ihnen mehrere Konten mit jeweils eigenen und sicheren Passwörtern mehr oder weniger komfortabel verwalten kann. So kann man hunderte Passwörter einsetzen, ohne sich die alle merken zu müssen. Zugleich ist der Passwortmanager aber eine sehr attraktive Angriffsfläche – das gilt insbesondere für Online-Passwortmanager, die Passwörter über einen Server zwischen mehreren Endgeräten synchronisieren.

Weiterlesen nach der Anzeige


Logo mit dem Schriftzug "c't uplink – der Podcast aus Nerdistan"

Logo mit dem Schriftzug "c't uplink – der Podcast aus Nerdistan"

Den wöchentlichen c’t-Podcast c’t uplink gibt es …

Dieser Datenschatz erweckt auch das Interesse von Behörden. Populäre Passwortmanager – Bitwarden, LastPass, Dashlane – kommen aus den USA oder werden von dortigen Firmen entwickelt. US-Behörden könnten deshalb mit Verweis auf Cloud Act und Foreign Intelligence Surveillance Act (FISA) Zugriff auf die Daten verlangen. Eine aktuelle Untersuchung der ETH Zürich zeigte zudem, dass trotz Ende-zu-Ende-Verschlüsselung unter bestimmten Bedingungen Passwörter abgreifbar sein können – etwa wenn der Server manipuliert wird.

Manch einer wird sich daher fragen, ob man die eigenen Passwörter nicht vielleicht in souveränere Gefilde umzieht. Welche Alternativen es gibt und wie sinnvoll die sind, diskutieren die c’t-Redakteure Jan Schüßler und Niklas Dierking in der neuen Folge von c’t uplink mit Moderator Keywan Tonekaboni.

Jan Schüßler hat fünf Passwortmanager getestet, die entweder aus Europa stammen und/oder Open Source sind – sowohl cloud-basierte Dienste als auch lokale Lösungen wie KeepassXC/KeepassDX. Niklas Dierking hat Passbolt auf einem eigenen Server installiert und ordnet die Erfahrung im Vergleich zu VaultWarden ein.

Die drei c’t-Redakteure vergleichen Komfort, Kosten und Sicherheitskonzepte der verschiedenen Alternativen. Außerdem gibt das Team praktische Tipps für den Umstieg von einem Passwortmanager zum anderen, erklärt Synchronisierungswege über Syncthing oder Nextcloud und warnt vor typischen Stolperfallen bei der Migration.

Zu Gast im Studio: Niklas Dierking und Jan Schüßler
Host: Keywan Tonekaboni
Produktion: Tobias Reimer

Weiterlesen nach der Anzeige

► Unsere Artikel zu Custom-ROMs lesen Sie bei heise+ (€):

► Passwortmanager: Gute Gründe für europäische Clouds oder Self Hosting
► Fünf Open-Source-Passwortmanager im Vergleich
► Passbolt: Den europäischen Open-Source-Passwortmanager selbst hosten
► Anleitung: Von LastPass zum Passwortmanager KeePassXC wechseln
► Raspberry Pi als zentralen Backup-Server mit Syncthing einrichten: Teil 1 + Teil 2
► Anleitung: Raspberry Pi als Passwort-Server einrichten 

Im Newsletter c’t Open Source Spotlight ordnen Keywan und Niklas aktuelle Entwicklungen rund um freie Software ein und stellen innovative Open-Source-Anwendungen vor. Jetzt anmelden und an jedem zweiten Freitag eine neue Ausgabe erhalten.

c’t Open Source Spotlight abonnieren

Innovative Software, spannende Projekte: Erweitern Sie Ihre Möglichkeiten und werden Sie Teil der Open Source Community.

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.

c’t Magazin
c’t auf Mastodon
c’t auf Instagram
c’t auf Facebook
c’t auf Bluesky
c’t auf Threads
► c’t auf Papier: überall, wo es Zeitschriften gibt!


(ktn)





Source link

Künstliche Intelligenz

Sammelklage: Meta und Verbraucherzentralen prüfen Vergleich


Im Verfahren um eine Musterfeststellungsklage des Bundesverbands der Verbraucherzentralen gegen die Facebook-Muttergesellschaft Meta haben beide Seiten jetzt sechs Wochen Zeit zur Prüfung eines millionenschweren Vergleichs. Die Anwälte beider Parteien stimmten vor dem 11. Zivilsenat des Hanseatischen Oberlandesgericht in Hamburg einem entsprechenden Vorschlag des Vorsitzenden Richters zu.

Weiterlesen nach der Anzeige

Zuvor hatte er in Aussicht gestellt, das Verfahren auszusetzen, um im Rahmen eines Vorlagersuchens vom Europäischen Gerichtshof zunächst rechtliche Fragen klären zu lassen. Die Zuständigkeit der eigenen Kammer stellte der Vorsitzende Günter Wunsch – anders als beim Auftakt des Verfahrens im Oktober vergangenen Jahres – nicht mehr infrage. Auch Meta hatte die Zuständigkeit des Gerichts bestritten.

Hintergrund des Verfahrens ist eine Datenpanne bei Facebook, bei der zwischen Mai 2018 und September 2019 Daten von mehr als 530 Millionen Nutzern in die Hände von Kriminellen geraten waren. 2021 tauchten sie dann im Darknet auf. Der „Verbraucherzentrale Bundesverband“ (vzbv) wirft Meta in Irland unter anderem Verstöße gegen das Datenschutzrecht vor. Der Musterfeststellungsklage haben sich nach Angaben des Anwalts inzwischen 27.000 Menschen angeschlossen. Meta hatte zu Beginn des zweiten Verhandlungstages zunächst die Abweisung der Klage beantragt. Über einen Vergleichsvorschlag der Kammer können beiden Seiten nun in den kommenden sechs Wochen beraten.

Dass von Betroffenen grundsätzlich Schadenersatzansprüche geltend gemacht werden könnten, habe der Bundesgerichtshof (BGH) bereits festgestellt, sagte Wunsch. Auch sei eine Verjährung durch die Klage bereits unterbrochen worden. „Was sie angestrebt haben, ist Verjährung. Die findet garantiert nicht statt“, sagte er zum Meta-Anwalt. Die Verbraucherzentralen fordern für die Betroffenen Beträge zwischen 100 und 600 Euro – je nachdem, wie viele Daten von ihnen entwendet wurden. „Wir hätten ihnen vorgeschlagen: 200 Euro“, sagte der Vorsitzende Richter. Davon könnten alle „schön abends essen gehen, schöne Flasche Wein dazu“.

Ausgehend von 27.000 Betroffenen, die sich nach Angaben der Verbraucherzentralen inzwischen in das Klageregister eingetragen haben, wären das für Meta 5,4 Millionen Euro. Ein Vergleich wäre für Meta auch insofern von Vorteil, da Betroffene ansonsten die Möglichkeit hätten, Schadenersatzklagen vor Amtsgerichten zu erheben. Und es könne nicht im Interesse des Tech-Konzerns liegen, „mit Tausenden Prozessen überzogen zu werden“. Außerdem stünde die zu erwartenden Prozesskosten in keinem Verhältnis zum Schaden, sagte Wunsch. Und an den Meta-Anwalt gewandt sagte er: „Ihre Mandanten könnten ja auch mal an ihr Image denken.“

Weiterlesen nach der Anzeige


(nie)



Source link

Weiterlesen

Künstliche Intelligenz

Sora ist tot und Kamerahersteller sind sich einig – die Fotonews der KW 13/26


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Manchmal räumt die Tech-Branche schneller auf, als sie Chaos anrichten kann. OpenAI, das Unternehmen, das noch vor wenigen Monaten mit seinem KI-Videogenerator Sora die kreative Welt revolutionieren wollte, hat das Tool diese Woche kurzerhand eingestampft. Nicht leise, nicht schrittweise – sondern mit einem Social-Media-Post, der sich liest wie eine Abschiedsrede auf einer Betriebsfeier, bei der niemand wirklich traurig ist.

Weiterlesen nach der Anzeige


Das Titelbild der Ausgabe 01 2026 des Foto-Magazins c't Fotografie

Das Titelbild der Ausgabe 01 2026 des Foto-Magazins c't Fotografie

(Bild: 

heise

)

Die Geschichte von Sora ist so kurz wie lehrreich. Im September kam Sora 2 mit großem Tamtam auf den Markt, im März ist Schluss. Nicht nur die App verschwindet, wie das Wall Street Journal berichtet – das gesamte Projekt wird beerdigt. CEO Sam Altman höchstpersönlich teilte seinen Mitarbeitern mit, dass OpenAI keine Produkte mehr unterstützen wird, die auf generativen Videomodellen basieren. Sogar die Videofunktion in ChatGPT steht auf der Streichliste.

Der Grund? OpenAI bereitet offenbar einen Börsengang vor und will sich auf das konzentrieren, womit sich tatsächlich Geld verdienen lässt: Produktivitäts- und Unternehmensanwendungen. Fidji Simo, die für Anwendungen zuständige Chefin, hatte schon letzte Woche gewarnt, man müsse aufhören, sich von „Side Quests“ ablenken zu lassen. Sora war offenbar genau das – eine Nebenmission, die mehr Ressourcen verschlang, als der Markt an Nachfrage hergab.

Besonders pikant: Disney hatte im Zuge einer Vereinbarung zugesagt, eine Milliarde Dollar in OpenAI zu investieren, inklusive Lizenzierung beliebter Disney-Figuren für generative KI-Apps. Mit dem Ende von Sora ist auch dieser Deal vom Tisch. Disney gab sich diplomatisch: man „respektiere die Entscheidung“, aber eine Milliarde Dollar respektiert man eben auch. Wir berichteten über Soras kreatives Potenzial, nun darf man sich fragen: War der Künstler Boris Eldagsen mit seinem experimentellen Sora-Video am Ende einer der wenigen, die dem Tool tatsächlich etwas Sinnvolles abgewinnen konnten?

c’t Fotografie Zoom In abonnieren

Ihr Newsletter mit exklusiven Foto-Tipps, spannenden News, Profi-Einblicken und Inspirationen – jeden Samstag neu.

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.

Weiterlesen nach der Anzeige

Während OpenAI also seine KI-Video-Ambitionen beerdigt, haben die großen Kamerahersteller auf der CP+ eine bemerkenswert einheitliche Position bezogen. Canon, Nikon, Sony, Fujifilm, OM System, Panasonic und Sigma sind sich in einer Frage, in der man kaum Einigkeit erwartet hätte, einig: Generative KI hat in einer Kamera nichts verloren.

Das ist, man muss es so sagen, möglicherweise das erste Mal in der Geschichte der Fotobranche, dass alle sieben großen Marken exakt dieselbe Meinung vertreten. Sigma-CEO Kazuto Yamaki bringt es auf den Punkt: „Fotografie dreht sich nicht nur um das Ergebnis, sondern um die Freude am Prozess.“ Wenn es nur ums Bild ginge, könnten KI-generierte Bilder Fotos ersetzen – aber genau das sei eben nicht der Fall.

Nikon betont den menschlichen Faktor der Kreativität und verweist auf die Risiken, die generative KI für das Konzept der Originalität birgt. Canon warnt vor Fälschungen und fordert bessere Authentizitätsnachweise. Fujifilm will klar unterscheiden können, ob ein Bild generiert oder fotografiert wurde. OM System sieht KI als Hilfsmittel – etwa bei Rauschreduzierung oder Bildkomposition –, aber nicht als Bilderzeuger. Panasonic betont, dass gerade bei Videoproduktionen das Motiv real sein müsse.

Wohlgemerkt: Niemand lehnt KI grundsätzlich ab. Autofokus-Erkennung, Motivverfolgung, Rauschreduzierung – all diese Prozesse profitieren von maschinellem Lernen, und die Hersteller nutzen es ausgiebig. Die rote Linie verläuft dort, wo aus Nichts etwas erzeugt wird, wo also nicht mehr fotografiert, sondern fabriziert wird. Dass ausgerechnet die Smartphone-Hersteller ihre Produktvorstellungen zunehmend um genau diese Fähigkeit herum inszenieren, quittieren die Kamera-Chefs mit einvernehmlichem Kopfschütteln.

Dass die Ablehnung generativer KI keineswegs Technikfeindlichkeit bedeutet, zeigt Canon in einem separaten Gespräch auf der CP+. Go Tokura, Executive Vice President und Chef der Imaging Group, sieht in Deep Learning und KI sogar den Motor für die nächsten großen Durchbrüche in der Kameratechnik.

Die Rede ist von KI-gestütztem Weißabgleich, der Motiverkennung nutzt, von KI-basierter Rauschreduzierung in der Software und von digitalen Objektivkorrekturen, die zusammen mit optischen Maßnahmen die Bildqualität verbessern. Besonders spannend: Canon sieht Potenzial, durch KI-basierte Bildverarbeitung die ewige Spannung zwischen hoher Auflösung und hoher Geschwindigkeit aufzulösen. Die EOS R1 bietet bereits ein KI-Upscaling im Body, und Canon deutet auch an, dass künftige Produkte beides vereinen könnten – viele Megapixel und hohe Serienbildraten.

„Software kann bis zu einem gewissen Grad helfen“, sagt Tokura. „Durch Deep-Learning-Technologie können wir diesen Bereich verbessern.“ Das klingt weniger nach Revolution als nach konsequenter Evolution – aber genau das ist es, was Fotografen von ihren Werkzeugen erwarten: besser werden, ohne die Grundidee zu verraten.

Weniger diplomatisch, dafür umso provokanter geht es in einem Essay auf Fstoppers zu. Der finnische Fotograf und Autor Alvin Greis stellt dort die Frage, ob Fotografie überhaupt noch als Beruf behandelt werden muss – und seine Antwort ist, vorsichtig formuliert, nicht das, was Berufsfotografen gerne hören.

Seine These: Professionelle Fotografie existierte historisch vor allem als eine Form der Risikokontrolle. Teure Ausrüstung, begrenztes Wissen, keine sofortige Rückmeldung – all das machte einen Profi nötig, nicht weil die Aufgaben so komplex waren, sondern weil es keinen anderen Weg zu einem brauchbaren Ergebnis gab. Die Eintrittsbarriere war höher als die tatsächliche Anforderung. Professionelle Fotografie, so Greis, habe „weit mehr Raum eingenommen, als die Aufgaben tatsächlich erforderten“.

Der Vergleich mit dem Schreibmaschinenberuf ist dabei ebenso treffend wie schmerzhaft: Tippen war einmal ein Beruf – nicht, weil Schreiben Spezialisten erforderte, sondern weil Fehler teuer und schwer rückgängig zu machen waren. Sobald Tastatur, Undo-Funktion und Textverarbeitung das Risiko eliminierten, verschwand der Beruf. Greis sieht die Fotografie auf einem ähnlichen Weg.

Natürlich hat die These ihre Grenzen, und die Kommentarspalte auf Fstoppers zeigt das deutlich. Hochzeitsfotografen weisen darauf hin, dass es bei einer Trauung keine zweite Chance gibt. Porträtfotografen betonen, dass Vertrauen und Menschenkenntnis keine App ersetzen kann. Ein pensionierter Porträtist aus Toronto berichtet, dass er mit Anfragen überhäuft wird, weil die Ergebnisse neuer Fotografen und KI schlicht „überverarbeitet“ seien.

Greis räumt ein, dass professionelle Fotografie dort weiter existiert, wo sie tatsächlich nötig ist – bei Hochzeiten, bei komplexen Produktionen, überall dort, wo Wiederholbarkeit und Zuverlässigkeit gefragt sind. Aber er besteht darauf: Das ist ein schmaler Bereich, nicht die breite Masse fotografischer Aufgaben.

Man muss dem Essay nicht unbedingt zustimmen, um ihn als Denkanstoß wertvoll zu finden. Denn die Frage, was einen Fotografen zum Profi macht, wenn die technischen Barrieren fallen, ist berechtigt – auch wenn die Antwort komplizierter ist, als es ein ökonomisches Modell nahelegt. Wer am Wochenende Lust auf eine kontroverse Lektüre hat: Der vollständige Essay auf Fstoppers lohnt sich, schon allein wegen der Kommentare.

OpenAI lernt, dass nicht jede KI ein Produkt braucht, die Kamerahersteller lernen, dass Einigkeit möglich ist, und die Fotobranche lernt – mal wieder –, dass die spannendsten Fragen nicht die nach der nächsten Kamera sind, sondern die nach dem Sinn des Ganzen. Also: Gehen Sie raus und fotografieren Sie. Mit einer echten Kamera. Die Pixel sind echt, die Emotionen auch – und das ist mehr, als jede KI von sich behaupten kann.

Lesen Sie auch


(tho)



Source link

Weiterlesen

Künstliche Intelligenz

KI-Update Deep-Dive: Wenn der KI-Vorwurf das Studium beendet


Weiterlesen nach der Anzeige

Künstliche Intelligenz ist aus dem Bildungsalltag nicht mehr wegzudenken. Eine aktuelle britische Studie zeigt: Studierende nutzen KI-Tools, um sich Konzepte erklären zu lassen, Material zusammenzufassen oder Ideen zu strukturieren. Doch während die Technologie längst Einzug in Hörsäle und Klassenzimmer gehalten hat, fehlen klare rechtliche Rahmenbedingungen. Die Folge: Ein regelrechter Flickenteppich an Regelungen – mit möglicherweise sogar gravierenden Konsequenzen für Betroffene.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO

„Wir haben unseren berühmten Föderalismus und damit einen Flickenteppich“, erklärt Sibylle Schwarz, Gründungspartnerin der Kanzlei elseschwarz in Wiesbaden und auf Beamten- und Bildungsrecht spezialisiert. „Das Bundesland entscheidet, wie das Schulgesetz beziehungsweise das Hochschulgesetz aussieht.“ Während manche Hochschulen KI in Prüfungen pauschal verbieten, schweigen sich andere komplett aus. Selbst innerhalb einer Universität können die Regeln variieren: „Es kann sogar einem Studierenden passieren, dass er gar nicht die Uni wechseln muss, sondern einfach nur seine Vorlesung. […] Der eine Prof verbietet es komplett, ein anderer erlaubt es vielleicht.“

Ende Februar fällte das Verwaltungsgericht in Kassel ein Urteil – das erste dieser Art in Deutschland. Ein Informatikstudent hatte seine Bachelorarbeit eingereicht, doch die Universität Kassel stufte die Arbeit als nicht bestanden ein. Begründung: Der Verdacht auf KI-Nutzung. Zudem wurde eine Wiederholungsprüfung ausgeschlossen. „Der Informatikstudent hat keinen Hochschulabschluss und den kann er auch nicht mehr erreichen“, sagt Schwarz.

Das Verwaltungsgericht bestätigte in seinem Urteil die Auffassung der Universität, dass KI als „fremde Hilfe“ zu werten sei. „Täuschung ist anzunehmen, wenn der Prüfling keine eigenständige Leistung abgegeben hat, sich also fremder Hilfe, der Hilfe eines Dritten oder unzulässiger Hilfsmittel bedient hat“, zitiert Schwarz die gängige Definition. KI werde dabei wie ein „Dritter“ behandelt – ähnlich wie ein Tischnachbar, von dem abgeschrieben wird. Das Verwaltungsgericht hat das Rechtsmittel der Berufung zugelassen.

Doch wie wird ein KI-Einsatz überhaupt nachgewiesen? Die Hochschulen setzen auf KI-Erkennungssoftware, die bekanntermaßen unzuverlässig ist. „Wenn man den KI-Output nimmt und ein bisschen menschlich ändert, dann springt der KI-Detektor nicht mehr an“, erklärt Schwarz. Daher dienen die Ergebnisse solcher Tools oft auch nur als erster Anhaltspunkt. Im nächsten Schritt prüfen Lehrende die Arbeiten manuell – etwa auf ungewöhnliche Formulierungen oder fachfremde Begriffe.

Weiterlesen nach der Anzeige

Die Beweisführung folgt dabei dem Prinzip des „ersten Anscheins“: „Wenn zwei Klassenarbeiten identisch sind, dann guckt man mal, wo haben die beiden Prüflinge denn gesessen, saßen die nebeneinander?“ Doch dieser Ansatz stößt bei KI an Grenzen. Im Fall des Kasseler Studenten ist noch nicht bekannt, wie die Universität den KI-Einsatz konkret nachwies. „Da werden wir die schriftliche Urteilsbegründung abwarten müssen“, sagt Schwarz.

Für Studierende ist die Situation prekär: „Wir haben jetzt März 2026 und wir haben ungefähr sechs Entscheidungen zur Schule als auch Hochschule. In allen hat der Prüfling verloren.“ Die Konsequenzen sind drastisch: Ohne Abschluss drohen schlechtere Jobchancen und existenzielle Nachteile. „Da kratzen wir ziemlich an dem Grundrecht auf freie Berufswahl“, warnt Schwarz.

Aktuell fehlt es an klaren Vorgaben. „Es müsste ausdrücklich formuliert werden, welche KI, welches Tool, vielleicht welchen Nutzungszweck wir eben nicht als Täuschung verstanden wissen wollen“, fordert Schwarz. Statt konkrete einzelne Tools wie ChatGPT zu benennen, plädiert sie für eine Regelung nach Nutzungszwecken: „Recherche, Rechtschreibkorrektur, Übersetzung, Ideenfindung, Lernunterstützung.“ So ließe sich etwa die Nutzung von KI für Übersetzungen oder Rechtschreibprüfungen explizit erlauben – während das Generieren kompletter Texte verboten bliebe.

Ein weiteres Problem sieht die Rechtsexpertin in der Ungleichbehandlung zwischen Lehrenden und Lernenden. „Wenn die Lehrkräfte […] KI-Tools nutzen, dann applaudieren alle. Wenn jetzt aber eine Schülerin oder ein Schüler […] ein solches Sprachmodell zu Hause nutzt, dann ist es Täuschung“, kritisiert Schwarz. Hier fehle ein ganzheitliches Konzept, wie KI sinnvoll in den Bildungsprozess integriert werden kann.

Letztlich liegt die Verantwortung bei der Politik. „Wenn etwas wesentlich für die Verwirklichung der Grundrechte ist, dann muss das das Parlament durch ein Gesetz klären“, betont Schwarz. Doch der Föderalismus erschwert einheitliche Lösungen: „16 Bundesländer, die Schulgesetze machen, 16 Bundesländer, die Hochschulgesetze machen.“ Bis dahin bleibt Studierenden nur, sich möglichst genau zu informieren – und im Zweifel lieber einmal zu viel nachzufragen.

Bis klare Regeln geschaffen sind, bleibt Studierenden nur eines: Transparenz. Wer KI nutzt, sollte dies offen kommunizieren – und sich im Idealfall die Erlaubnis der betreuenden Lehrkraft einholen. Denn eines zeigt der Fall aus Kassel deutlich: Ohne klare Regeln riskieren Studierende nicht nur schlechte Noten, sondern ihren gesamten Bildungsweg.


(igr)



Source link

Weiterlesen

Beliebt