Künstliche Intelligenz
VR-Brillen der 90er und 2000er: Ohne sie gäbe es heute keine Meta Quest
Nach den großen Konsolen- und Spielwarenherstellern Nintendo, Atari, Sega und Hasbro wagten sich in den Jahren nach dem ersten VR-Hype Anfang der 1990er mehrere Unternehmen an ein riskantes Unterfangen: Sie wollten Virtual Reality von den Arcade-Hallen in die Wohnzimmer bringen – erschwinglich, tragbar und für den Massenmarkt konzipiert. Doch fast alle dieser frühen VR-Headsets scheiterten an der Technik, am Preis oder an der fehlenden Nachfrage. Die Geschichte dieser Geräte ist allerdings nicht nur eine Geschichte des Scheiterns, sondern zugleich eine Chronik notwendiger Irrwege, die den späteren Erfolg moderner VR-Systeme vorbereiteten. Wir blicken zurück auf die VR-Ära vor Oculus Rift, Valve Index und HTC Vive.
Weiterlesen nach der Anzeige
VictorMaxx StuntMaster: Der erste Versuch
Den Anfang machte die Firma VictorMaxx mit der „StuntMaster“ schon 1993. Das Headset gilt als das erste kommerzielle VR-Gerät für den Heimgebrauch. Für rund 219 US-Dollar konnte es an gängige Konsolen wie das Super Nintendo oder Segas Mega Drive angeschlossen werden. Technisch war die StuntMaster jedoch kaum mehr als ein Gimmick: Eine einzelne, niedrig aufgelöste LCD-Anzeige (etwa 160 × 120 Pixel) erzeugte ein flaches Bild ohne echten 3D-Effekt. Dazu registrierte ein umständlich an der Seite angebrachter Stab Kopfbewegungen, übersetzte diese aber lediglich in Links- und Rechtsbefehle, als wäre der Kopf ein Joystick.

So wurde die „Stuntmaster“ von VictorMaxx 1993 beworben.
(Bild: Retro Scan of the Week)
Stereoskopie, Positionsverfolgung oder echte Immersion bot das System nicht. Die Bildqualität war schwach, das Sichtfeld eng, der Ton blechern und das Tragen der Brille unangenehm. Viele Nutzer klagten über Unwohlsein und Kopfschmerzen. Spezielle Software gab es praktisch nicht, und die Integration in bestehende Spiele war nur oberflächlich. Nach kurzer Zeit verschwand die „StuntMaster“ vom Markt, doch sie markierte einen frühen Meilenstein: Erstmals war VR-Hardware für Konsolenbesitzer verfügbar, auch wenn sie kaum hielt, was sie versprach.
CyberMaxx: Techniksprung ohne Markt
VictorMaxx ließ sich jedoch nicht beirren und legte 1994 mit der „CyberMaxx“ nach, einer deutlich weiterentwickelten VR-Brille mit zwei LC-Displays und stereoskopischem 3D-Bild. Die Auflösung lag bei 505 × 230 Pixel pro Auge, was für die damalige Zeit beachtlich war. Headtracking war zwar vorhanden, allerdings funktionierte es vor allem zur Steuerung von Kamera oder Mauszeigern. Der Preis: stolze 699 US-Dollar.
Trotz verbesserter Technik blieb der Erfolg aus. Nur wenige Spiele unterstützten das Headset nativ, und auch als universelle Anzeigeeinheit war es zu teuer. 1995 erschien mit der „CyberMaxx 2.0“ eine überarbeitete Version mit erweiterten Anschlussmöglichkeiten. Doch auch CyberMaxx war kein Erfolg vergönnt, und VictorMaxx verschwand kurz darauf vom Markt.
Weiterlesen nach der Anzeige
iGlasses von Virtual i-O: Ambition trifft Realität
Im Mai 1995 erschien die VR-Brille, die den eigentlich viel passenderen Namen für die knapp 30 Jahre später erscheinende Apple Vision Pro belegte: Die „iGlasses“ des Start-ups Virtual i-O waren eines der technisch ausgereiftesten VR-Headsets dieser Ära. Für 499 US-Dollar bot das Gerät zwei LCDs mit VGA-Auflösung in stereoskopischer Darstellung (je 640 × 480 Pixel). Zwei Varianten standen zur Auswahl: eine für Composite-Videoquellen wie Spielekonsolen, VHS- oder später DVD-Player, und eine PC-Version mit integriertem Headtracking. Die Bildqualität war dank der hohen Auflösung deutlich besser als bei älteren Geräten. Auch der Tragekomfort war höher und die Brille leichter.
heise online XR-Briefing abonnieren
Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
Die Video-Version diente vor allem als persönliche „Großbildleinwand“, wie sie heute Display-Brillen von Viture oder Xreal anbietet. In der PC-Ausführung lieferten die „iGlasses“ hingegen mehr „VR-Feeling“ durch Kopfsteuerung der Kamera. Trotz guter Kritiken blieb der kommerzielle Erfolg aus. Der Umsatz lag 1995 bei rund fünf Millionen Dollar und damit weit unter dem erhofften Potenzial. Zwar verdoppelte sich der Absatz 1996, doch das Produkt blieb ein Nischenphänomen. Kurioserweise entfiel rund ein Viertel der Verkäufe auf Zahnarztpraxen, die das Gerät zur Ablenkung von Patienten nutzten. Die Konsumenten hingegen zögerten vor allem wegen des Preises und der geringen Softwarebasis. 1997 folgte die Insolvenz.
Forte VFX1: Der „High-End-PC-Helm“
Ebenfalls 1995 erschien mit dem VFX1 Headgear von Forte Technologies ein VR-Helm für ambitionierte PC-Nutzer. Für rund 695 US-Dollar bot das System zwei 0,7-Zoll-Displays mit 263 × 230 Pixeln, Stereo-Audio, Mikrofon und Headtracking in drei Achsen (Drehung, Neigung, Kippen). Ein spezieller Controller namens „CyberPuck“ ergänzte das System.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.
Linus Tries VR From 1994
Der Helm gilt trotz seines Gewichts von rund einem Kilogramm als überraschend bequem, erforderte allerdings den Einbau einer proprietären ISA-Steckkarte sowie umfangreiche Konfiguration. Offiziell sollen zwar über 100 Spiele die VR-Brille direkt unterstützt haben – darunter „Descent“ und „Quake“. Allerdings gab es nur eine Handvoll Spiele, die wirklich stereoskopisches 3D lieferten. Viele Nutzer experimentierten mit dem „VR-Mausmodus“ unter Windows, doch die große Softwarebasis fehlte und somit ein überzeugender Grund, den PC aufwendig umzurüsten. 1997 übernahm Interactive Imaging Systems (IIS) die Technik von Forte und entwickelte sie weiter.
VFX3D: Später Versuch mit modernisierter Technik
Um 2000 versuchte ILS mit dem VFX3D, die Technologie des VFX1 zu modernisieren, und erhöhte die Auflösung auf 380 × 337 Pixel pro Auge und die Bildrate auf 75 Hz. Erstmals war auch eine gewisse Vor- und Rückwärtsbewegung im Raum möglich, wenn auch noch ohne echtes Positionstracking. Allerdings blieb die Softwarebasis ähnlich begrenzt wie beim Vorgänger. ILS zielte primär auf professionelle Anwender, denn der VR-Konsumentenmarkt war zu diesem Zeitpunkt praktisch tot. Auch wenn die VFX3D kein Erfolg war, blieb der Hersteller als einer der wenigen weiter in der Branche aktiv. Aus IIS wurde später der Smartbrillen-Hersteller Vuzix, der auch heute noch spezialisierte Geräte für die Industrie anbietet.
Takara Dynovisor & Philips Scuba: Atari-Erbe ohne Tracking
Eine Besonderheit sind die Headsets „Dynovisor“ von Takara und „Scuba Visor“ von Philips, die zwischen 1996 und 1998 erschienen. Beide basierten auf einem VR-Headsetprototyp, den Virtuality ursprünglich für die Atari Jaguar-Konsole entwickelt hatte. Deren Technologie wurde von Philips und Takara übernommen und leicht angepasst.
Beide Geräte nutzten Sonys TFT-LCDs mit etwa 263 × 230 Pixeln pro Auge, boten aber ein sehr geringes Sichtfeld von ungefähr 50 Grad. Headtracking fehlte vollständig. Dennoch erzeugten sie in Filmen oder Spielen ein für damalige Verhältnisse eindrucksvolles, riesiges Bild. Der Preis lag bei etwa 300 US-Dollar und Philips verkaufte angeblich rund 55.000 Exemplare. Damit können die „Scuba Visors“ zwar als Achtungserfolg gewertet werden, sie waren aber weit entfernt von einem Massenmarktprodukt. Ein Grund für das Scheitern dürften die immer wieder aufkommenden Beschwerden über Augenbelastung und fehlende Inhalte gewesen sein.
Z800 und Trimersion: Der letzte Atemzug vor Oculus
In den 2000er-Jahren erschienen noch zwei weitere VR-Brillen, bevor Palmer Luckey mit seinem Start-up „Oculus“ den Grundstein für den heutigen VR-Markt legte. 2005 brachte eMagin den „Z800 3DVisor“ auf den Markt, ein Headset mit OLED-Displays, 800 × 600 Pixeln, 3-DoF-Tracking und USB-Anschluss. Der „Z800 3DVisor“ diente allerdings mehr als persönlicher Bildschirm und verzichtete auf komplette Bewegungserfassung. Der Preis von 899 US-Dollar zum Launch war zu hoch für die nach wie vor kleine Zielgruppe.
2006 folgte das Trimersion-Headset, ein kabelloses System für Ego-Shooter mit Kopftracking und einer Lightgun als Controller. Die Idee: Spieler sollten mit dem Kopf zielen und mit einem Stick an der Plastikpistole laufen. In der Praxis erwies sich das Konzept als unpraktisch, und viele Tester berichteten von Nackenverspannungen und Orientierungsproblemen. Auch hier blieb der Erfolg aus und die Firma verschwand kurz darauf vom Markt.
Scheitern mit Lerneffekt
Die VR-Brillen der 90er und frühen 2000er waren technisch und konzeptionell unterschiedlich, aber sie scheiterten fast alle aus denselben Gründen: zu geringe Auflösung, zu hoher Preis, fehlende Inhalte und mangelnder Komfort. Viele Nutzer reagierten mit Ablehnung, und der Begriff „Virtual Reality“ war innerhalb der Tech-Branche jahrelang negativ konnotiert. Und doch hinterließen diese Geräte Spuren: Sie zeigten, was nötig ist, damit Virtual Reality funktioniert, und was nicht.
2012 griff der VR-Neustart durch ein Kickstarter-Projekt der Oculus-Gründer genau diese Lehren auf: höhere Auflösung, breites Sichtfeld, präzises Tracking, vertretbarer Preis und eine wachsende Softwarebasis. Die gescheiterten Systeme von damals waren also keine Sackgasse, sondern notwendige Schritte auf dem Weg zur heutigen VR.
(joe)
Künstliche Intelligenz
Speicherdauer von Bonitätsdaten – Bundesgerichtshof hebt Urteil gegen Schufa auf
Wie lange darf die Schufa wissen, dass jemand früher Rechnungen nicht fristgerecht bezahlt hat? Damit muss sich erneut das Oberlandesgericht Köln (OLG) befassen, nachdem der Bundesgerichtshof ein früheres Urteil des OLG aufgehoben hat. Entgegen der Auffassung des OLG kommt es nämlich auf die Quelle dieser Information an, sowie gegebenenfalls auf „besondere Umstände“. Das Erkenntnis des BGH ist ein Etappensieg für den Bonitätsdienst Schufa.
Weiterlesen nach der Anzeige
Kläger ist eine Person, die in den Jahren 2019, 2020 und 2021 jeweils eine zu Recht bestehende Schuld nicht fristgerecht bezahlt hat: zwei Vollstreckungsbescheide und eine mehrfach gemahnte Rechnung. Die Gläubiger meldeten das der Schufa. Der Schuldner beglich die Rechnungen schließlich mit bis zu 21 Monaten Verspätung. Dennoch speicherte die Schufa die gemeldeten Daten weiter; anfragenden Unternehmen teilte sie mit, dass sie die Gefahr eines Zahlungsausfalls als „sehr kritisch“ einstufe.
So irrte das OLG
Die betroffene Person wollte das nicht hinnehmen. Auf eine erfolglose Abmahnung folgte eine Klage auf Schadenersatz. Diese scheiterte zwar beim Landgericht Bonn (Az. 20 O 10/24), doch in der Berufung sprach das OLG Köln 500 Euro Schadenersatz zu (Az. 15 U 249/24).
Es verwies auf eine Vorlageentscheidung des EuGH im Fall C26/22: Werden Daten aus den Insolvenzbekanntmachungen gelöscht, müssen auch Auskunfteien ihre Kopien solcher Daten löschen. Andernfalls laufe die Löschregelung ins Leere.
In diesem Fall geht es zwar nicht um Insolvenzbekanntmachungen, sondern um einfache Schulden. Doch die Systematik sei die gleiche. Weil das öffentliche Schuldnerverzeichnis solche Einträge nach Bezahlung löschen würde, müsse auch die Schufa Angaben zu schlechter Zahlungsmoral nach Bezahlung sofort löschen. Da sie das nicht getan hat, sei sie schadenersatzpflichtig.
BGH: Auf die Quelle kommt es an
Weiterlesen nach der Anzeige
Dagegen erhob die Schufa Revision an den BGH. Wie schon beim OLG brachte sie vor, dass sie die konkreten Daten aus keinem öffentlichen Verzeichnis, sondern direkt von den Gläubigern erhalten habe. Diese Unterscheidung überzeugt den BGH-Senat I. „Die Erwägung (des EUGH), dass die für die ursprüngliche Datenspeicherung geltende Löschungsfrist nicht durch eine längere Speicherung an anderer Stelle konterkariert werden soll, greift daher im Streitfall nicht”, fasst die Pressemitteilung des Gerichtshofes zusammen. Er hebt das OLG-Urteil auf und schickt den Fall dorthin zurück.
Es hängt also von der Datenquelle ab. Informationen aus öffentlichen Verzeichnissen müssen Wirtschaftsauskunfteien löschen, sobald die Daten aus den Verzeichnissen gelöscht sind. Bleibt die Frage, wie lange die Schufa Daten speichern darf, die sie aus anderen Quellen erhält. Das beantwortet der BGH nicht konkret, er gibt dem OLG aber einen Wink mit dem Zaunpfahl.
Dem BGH-Senat erscheint es „möglich, bestimmte Speicherungsfristen als Ergebnis einer typisierten Abwägung festzulegen, soweit dabei die Besonderheiten des Einzelfalls hinreichend berücksichtigt werden.” Und dazu, so die BGH-Richter, habe der Hessische Beauftragte für Datenschutz und Informationsfreiheit neue Verhaltensregeln für die deutschen Wirtschaftsauskunfteien herausgegeben, die seit Jahresanfang gelten. Deren Bestimmungen lobt der BGH-Senat als „grundsätzlich angemessenen Interessenausgleich”.
Demnach dürfen personenbezogene Daten zu ausgeglichenen Forderungen drei Jahre gespeichert werden. Weil es ja vorkommen kann, dass auch gute Schuldner einmal eine Rechnung übersehen, gibt es eine Einzelfallregelung: Handelt es sich nur um eine einzelne unbezahlte Forderung, und wird ihre Bezahlung binnen 100 Tagen gemeldet, halbiert sich die Speicherfrist auf 18 Monate, sofern sonst keine Informationen aus dem Schuldnerverzeichnis oder aus Insolvenzbekanntmachungen vorliegen.
So einfach ist das nicht
Ganz reicht aber auch diese Regelung dem BGH nicht: Betroffenen muss zusätzlich möglich sein, „besondere Umstände” vorzubringen. Geht daraus ein „wesentlich überdurchschnittliches” Löschinteresse hervor, könne dies „ausnahmsweise” bewirken, dass „eine noch kürzere Speicherungsdauer” angemessen ist. War die Speicherung zumindest für einen Teil des Zeitraums rechtswidrig, kann das Anspruch auf Schadenersatz auslösen (BGH I ZR 97/25, der Volltext liegt noch nicht vor).
Das OLG Köln muss sich nun damit befassen, ob und gegebenenfalls wann der Kläger „besondere Umstände” vorgebracht hat, die eine ausnahmsweise kürzere Speicherdauer bedingen. Andernfalls wird die Schufa wohl keinen Schadenersatz leisten müssen.
Das freut die Firma naturgemäß. Die Entscheidung habe jedoch Bedeutung über den Einzelfall hinaus, zumal der BGH die Verhaltensregeln bestätigt habe. Außerdem helfe die Datenspeicherung anderen Verbrauchern, betont dioe Schufa: „Stünden diese Daten zum Prüfen der Bonität nicht zur Verfügung, würde das für die Verbraucherinnen und Verbraucher zu weniger Krediten und höheren Zinsen bei deren Aufnahme führen.“
(ds)
Künstliche Intelligenz
Gegen die Cookie-Banner-Flut: Erster „Einwilligungsagent“ geht an den Start
Surfen im Web gleicht für viele Nutzer einem Hindernislauf durch ein Dickicht aus Pop-ups und Klick-Labyrinthen. Wer seine Privatsphäre schützen will, muss sich oft mühsam durch kryptische Menüs für Cookies arbeiten. Wer nur schnell an Inhalten kommen will, klickt oft entnervt auf „Alle akzeptieren“ bei den Browser-Dateien. Diesem Zustand der „Einwilligungsmüdigkeit“ will die Berliner Legal-Tech-Firma Law & Innovation Technology nun ein Ende setzen. Vor wenigen Tagen hat das Unternehmen den „Consenter“ veröffentlicht: ein Werkzeug, das die Bundesdatenschutzbehörde als ersten Dienst zur Verwaltung von Cookie-Einwilligungen im Einklang mit den gesetzlichen Vorgaben offiziell anerkannt hat.
Weiterlesen nach der Anzeige
Der Startschuss erfolgte zunächst diskret: Die Projektverantwortlichen haben das Browser-Plugin im Rahmen eines sogenannten Silent Release verfügbar gemacht. Aktuell ist der Einwilligungsagent über einen speziellen, nicht öffentlich gelisteten Link im Chrome Store für Googles Browser zu finden. Doch dabei soll es nicht bleiben.
Während Versionen für Safari und Firefox bereits in der Pipeline sind, bereiten die Entwickler die große Bühne vor: Zur offiziellen Veröffentlichungsfeier am 26. Januar in Berlin soll der Dienst öffentlich gelistet und in den darauffolgenden Monaten sukzessive ausgebaut werden.
Consenter versteht sich als „Trust-Plattform“ mit dem Ziel, die digitale Selbstbestimmung aus der Theorie in die Praxis zu führen. Maximilian von Grafenstein, Professor für dieses Thema an der Universität der Künste Berlin (UdK) und Initiator des Projekts, sieht darin eine Brücke zwischen Endnutzern und Webseitenbetreibern.
Der Agent soll es ermöglichen, informierte Entscheidungen über die Datennutzung zentral zu verwalten, ohne dass bei jedem Seitenaufruf ein neues Banner den Lesefluss stört. Einmal in der Browser-Erweiterung festgelegt, werden die Präferenzen automatisch an die besuchten Webseiten übermittelt. Daraufhin verschwinden die lästigen Banner im Idealfall.
Eigener Consent-Banner nötig
Der Weg zur behördlichen Anerkennung war von regulatorischen Hürden geprägt. Von Grafenstein sagte heise medien, dass der Agent aktuell mit einem eigens entwickelten Cookie-Banner zusammenarbeiten müsse. Grund dafür sei eine Diskrepanz in der Rechtsauffassung: Während das höherrangige Recht im Paragraph 26 des Telekommunikation-Digitale-Dienste-Datenschutz-Gesetzes (TDDDG) vorschreibe, dass Webseiten solche Signale berücksichtigen müssten, habe das damalige Ministerium für Verkehr und Digitales in seiner Ausführungsverordnung die Freiwilligkeit betont.
Weiterlesen nach der Anzeige
Da klassische Consent Management Platforms (CMPs) die Signale kaum freiwillig implementieren, sah sich das Team gezwungen, eine eigene Lösung für die Betreiberseite zu bauen. Der Erfolg des Systems hängt daher massiv davon ab, dass nicht nur Nutzer die Browser-Extension installieren, sondern auch Webseitenbetreiber das entsprechende Banner implementieren.
Dabei bringt der Consenter Betreibern Vorteile. Statt rechtlicher Grauzonen und Nutzerfrust soll ein transparentes Datenschutzniveau als Wettbewerbsvorteil dienen. Das System basiert auf einem interdisziplinären Forschungsprozess, an dem Institutionen wie das Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG) sowie das Einstein Center Digital Future (ECDF) der UdK beteiligt waren.
Der Dienst, den das Bundesforschungsministerium gefördert hat, bietet eine automatisierte Risikobewertung für Drittanbieter-Technologien. Diese fungiert als eine Art unabhängige Datenschutzfolgenabschätzung, die es Betreibern erlaubt, ihr Schutzniveau glaubhaft zu kommunizieren. Das soll das Vertrauen der Besucher stärken.
Mit begleitender empirischer Forschung will das Consenter-Team zudem den Beweis erbringen, dass echte Transparenz tatsächlich die Einwilligungsraten erhöhen kann. Für die Zukunft haben die Entwickler auch ehrgeizige Pläne: Consenter soll etwa in die digitale EU-Brieftasche (EUDI-Wallet) integriert werden. Gemeinsam mit einem europäischen Netzwerk aus Forschung und Regulierung wollen sie die digitale Souveränität stärken und Compliance von einer lästigen Pflicht in einen strategischen Marktvorteil verwandeln.
(wpl)
Künstliche Intelligenz
Urkundenbetrug per E-Mail: Warum das Foto einer Fälschung keine Fälschung ist
In einer Zeit, in der das papierlose Büro und die digitale Kommunikation mit Behörden zum Standard werden sollen, wirkt das klassische Urkundenrecht oft wie ein Relikt aus der Ära der Wachssiegel. Doch die Frage, was im digitalen Raum als Beweis gilt und was sanktioniert wird, ist hochaktuell. Das Bayerische Oberste Landesgericht (BayObLG) musste sich kürzlich mit einem Fall befassen, der die Grenzen zwischen einer strafbaren Fälschung und einer rechtlich irrelevanten Spielerei mit Bilddateien neu vermisst. Die jetzt vorliegende Entscheidung vom 14. November sorgt für Klarheit in einem Bereich, der durch die zunehmende Akzeptanz von E-Mails als offiziellem Kommunikationsmittel massiv an Bedeutung gewinnt (Az.: 206 StRR 368/25).
Weiterlesen nach der Anzeige
Der Ausgangspunkt des Verfahrens liest sich wie eine alltägliche Computer-Bastelei mit fatalen Folgen. Eine Frau hatte ein echtes Schreiben einer Anwaltskanzlei an ihrem Rechner modifiziert, den Text bearbeitet und das Ergebnis ausgedruckt. Dieses manipulierte Dokument fotografierte sie ab und versandte die Bilddatei schließlich via WhatsApp und E-Mail an einen Dritten.
Formale Mängel und die Grenzen der Urkunde
Das Dokument wies dabei eine entscheidende Lücke auf, denn es fehlte jegliche Unterschrift oder eine berufsübliche Grußformel. Lediglich der Briefkopf und der veränderte Textkörper waren zu sehen. Während die Vorinstanzen darin noch eine klassische Urkundenfälschung sahen, sprachen die Richter am BayObLG die Angeklagte frei.
Die Begründung führt tief in die Dogmatik des deutschen Strafrechts. Eine Urkunde im klassischen Sinne erfordert eine verkörperte Gedankenerklärung, die einen Aussteller erkennen lässt und geeignet ist, im Rechtsverkehr einen Beweis zu erbringen. Bei einem anwaltlichen Schreiben gehört die Unterschrift zwingend zum Standardrepertoire der Authentizität.
Fehlen diese Merkmale, handelt es sich aus rechtlicher Sicht lediglich um einen unverbindlichen Entwurf ohne Beweischarakter. Das Gericht stellte klar, dass eine Fotokopie oder ein Scan, der nach außen hin erkennbar als bloße Reproduktion auftritt, keine Urkunde im Sinne des Gesetzes ist.
Digitale Daten und der Schutz des Rechtsverkehrs
Weiterlesen nach der Anzeige
Selbst wenn durch Computerbearbeitung der Anschein eines echten Dokuments erweckt wird, müssen die typischen Merkmale des Originals vorhanden sein, um eine ernsthafte Verwechslungsgefahr zu begründen. Ebenso wenig sah das BayObLG den Tatbestand der Fälschung beweiserheblicher Daten gemäß Paragraf 269 Strafgesetzbuch (StGB) erfüllt.
Diese Klausel wurde einst geschaffen, um Manipulationen an nicht physisch verkörperten Datenbeständen wie elektronischen Registern zu ahnden. Die Münchner Richter unterstrichen aber, dass eine Bilddatei, die erkennbar nur das Foto eines Schriftstücks darstellt, lediglich als sekundärer Beleg fungiert. Sie behaupte nicht, selbst die originale Erklärung zu sein, sondern verweis nur auf eine – hier manipulierte – Papierquelle. Damit fehle ihr die Qualität eines originären Erklärungsträgers, die für eine Verurteilung nach dem „Digital-Paragrafen“ zwingend erforderlich wäre.
Diese juristische Differenzierung hat laut dem IT-Rechtler Jens Ferner enorme praktische Auswirkungen, da sie ein Signal gegen eine pauschale Kriminalisierung digitaler Kopien setze. Nutzer bewegten sich im straffreien Raum, solange Anhänge eindeutig als Reproduktionen erkennbar blieben und nicht den Anschein eines „digitalen Originals“ erweckten. Leichtsinn sei aber nicht angebracht. Wer gefälschte Scans einreiche, um sich Vorteile zu erschleichen, könne weiterhin wegen Betrugs belangt werden. Voraussetzung: Ein Vermögensschaden ist nachweisbar. Im vorliegenden Fall war das wegen fehlenden Vorsatzes und Schadens nicht gegeben.
(wpl)
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Künstliche Intelligenzvor 2 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Künstliche Intelligenzvor 2 MonatenNeue PC-Spiele im November 2025: „Anno 117: Pax Romana“
-
Entwicklung & Codevor 1 MonatKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 2 MonatenDonnerstag: Deutsches Flugtaxi-Start-up am Ende, KI-Rechenzentren mit ARM-Chips
-
UX/UI & Webdesignvor 2 MonatenArndt Benedikt rebranded GreatVita › PAGE online
