Künstliche Intelligenz
Asus baut Noctuas und Phanteks‘ High-End-Lüfter nach
Asus stellt zum ersten Mal seit Jahren wieder einen Lüfter ohne bunte LEDs vor. Der Hersteller bewirbt den Proart PF120 explizit für „minimalistische“ Desktop-PCs ohne ARGB. Es ist Asus‘ erster Lüfter, dessen Rotor aus Flüssigkristallpolymer (Liquid Crystal Polymer, LCP) besteht.
Weiterlesen nach der Anzeige
Dieser Kunststoff ist besonders steif. Weil er sich fast nicht verzieht, ermöglicht er besonders geringe Spalten zwischen den Lüfterblättern und dem Rahmen. Asus spricht von 0,5 mm. Das maximiert den Luftstrom und den statischen Druck.
Noctua war der erste Hersteller mit LCP und dieser Bauweise. Der Proart PF120 ähnelt Noctuas NF-A12x25 stark. Asus geht allerdings einen anderen Weg als der Konkurrent: Der Lüfter ist auf einen hohen Durchsatz mit bis zu 3000 Umdrehungen pro Minute (U/min) ausgelegt. Noctua legt den NF-A12x25 und dessen Nachfolger NF-A12x25 G2 (ab 34,90 €) dagegen auf einen leisen Betrieb aus. Sie laufen mit maximal 1800 U/min.

Asus Proart PF120
Asus
)
Untypische Dicke
Der Proart PF120 ist mit 28 statt 25 mm etwas dicker als die meisten Lüfter. Damit ordnet er sich zwischen den Noctua-Modellen und dme ebenfalls ähnlichen Phanteks‘ T30-120 ein. Letzterer verwendet ebenfalls LCP mit geringem Spalt, ist aber 30 mm dick. Der T30-120 dürfte der namenlose Konkurrent sein, mit dem sich Asus in seiner Mitteilung vergleicht. Laut eigenen Angaben soll der Proart PF120 leiser sein.
| LCP-Lüfter im Vergleich | |||
| Lüftermodell | Asus Proart PF120 | Phanteks T30 | Noctua A12x25 G2 |
| Dicke | 28 mm | 30 mm | 25 mm |
| max. Drehzahl [U/min] | 3000 | 3000 | 1800 |
| max. Luftfluss [CFM] | 104,8 | 100,9 | 63,2 |
| max. statischer Druck [mmH2O] | 7,3 | 7,37 | 3,14 |
| max. Lautstärke [dB(A)] | 39 | 39,7 | 22,5 |
| Preis | unbekannt | 30 € | 35 € |
Asus und Phanteks haben eine Gemeinsamkeit: Daisy-Chain-Anschlüsse an den Lüfterrahmen, mit denen sich mehrere Exemplare untereinander verbinden lassen. Die 4-Pin-Stecker übertragen sowohl Strom als auch PWM-Lüftersignale, ohne alle einzeln mit einem Mainboard oder einer Lüftersteuerung verbinden zu müssen. Bei Asus sind die Verbindungen noch kürzer als bei Phanteks.
Weiterlesen nach der Anzeige
Der Proart PF120 erscheint in Schwarz und Weiß. In Deutschland sind die beiden Varianten noch nicht verfügbar; einen Preis nennt Asus bisher nicht. Mindestens 30 Euro erscheinen in Anbetracht der Konkurrenz realistisch.
(mma)
Künstliche Intelligenz
Urkundenbetrug per E-Mail: Warum das Foto einer Fälschung keine Fälschung ist
In einer Zeit, in der das papierlose Büro und die digitale Kommunikation mit Behörden zum Standard werden sollen, wirkt das klassische Urkundenrecht oft wie ein Relikt aus der Ära der Wachssiegel. Doch die Frage, was im digitalen Raum als Beweis gilt und was sanktioniert wird, ist hochaktuell. Das Bayerische Oberste Landesgericht (BayObLG) musste sich kürzlich mit einem Fall befassen, der die Grenzen zwischen einer strafbaren Fälschung und einer rechtlich irrelevanten Spielerei mit Bilddateien neu vermisst. Die jetzt vorliegende Entscheidung vom 14. November sorgt für Klarheit in einem Bereich, der durch die zunehmende Akzeptanz von E-Mails als offiziellem Kommunikationsmittel massiv an Bedeutung gewinnt (Az.: 206 StRR 368/25).
Weiterlesen nach der Anzeige
Der Ausgangspunkt des Verfahrens liest sich wie eine alltägliche Computer-Bastelei mit fatalen Folgen. Eine Frau hatte ein echtes Schreiben einer Anwaltskanzlei an ihrem Rechner modifiziert, den Text bearbeitet und das Ergebnis ausgedruckt. Dieses manipulierte Dokument fotografierte sie ab und versandte die Bilddatei schließlich via WhatsApp und E-Mail an einen Dritten.
Formale Mängel und die Grenzen der Urkunde
Das Dokument wies dabei eine entscheidende Lücke auf, denn es fehlte jegliche Unterschrift oder eine berufsübliche Grußformel. Lediglich der Briefkopf und der veränderte Textkörper waren zu sehen. Während die Vorinstanzen darin noch eine klassische Urkundenfälschung sahen, sprachen die Richter am BayObLG die Angeklagte frei.
Die Begründung führt tief in die Dogmatik des deutschen Strafrechts. Eine Urkunde im klassischen Sinne erfordert eine verkörperte Gedankenerklärung, die einen Aussteller erkennen lässt und geeignet ist, im Rechtsverkehr einen Beweis zu erbringen. Bei einem anwaltlichen Schreiben gehört die Unterschrift zwingend zum Standardrepertoire der Authentizität.
Fehlen diese Merkmale, handelt es sich aus rechtlicher Sicht lediglich um einen unverbindlichen Entwurf ohne Beweischarakter. Das Gericht stellte klar, dass eine Fotokopie oder ein Scan, der nach außen hin erkennbar als bloße Reproduktion auftritt, keine Urkunde im Sinne des Gesetzes ist.
Digitale Daten und der Schutz des Rechtsverkehrs
Weiterlesen nach der Anzeige
Selbst wenn durch Computerbearbeitung der Anschein eines echten Dokuments erweckt wird, müssen die typischen Merkmale des Originals vorhanden sein, um eine ernsthafte Verwechslungsgefahr zu begründen. Ebenso wenig sah das BayObLG den Tatbestand der Fälschung beweiserheblicher Daten gemäß Paragraf 269 Strafgesetzbuch (StGB) erfüllt.
Diese Klausel wurde einst geschaffen, um Manipulationen an nicht physisch verkörperten Datenbeständen wie elektronischen Registern zu ahnden. Die Münchner Richter unterstrichen aber, dass eine Bilddatei, die erkennbar nur das Foto eines Schriftstücks darstellt, lediglich als sekundärer Beleg fungiert. Sie behaupte nicht, selbst die originale Erklärung zu sein, sondern verweis nur auf eine – hier manipulierte – Papierquelle. Damit fehle ihr die Qualität eines originären Erklärungsträgers, die für eine Verurteilung nach dem „Digital-Paragrafen“ zwingend erforderlich wäre.
Diese juristische Differenzierung hat laut dem IT-Rechtler Jens Ferner enorme praktische Auswirkungen, da sie ein Signal gegen eine pauschale Kriminalisierung digitaler Kopien setze. Nutzer bewegten sich im straffreien Raum, solange Anhänge eindeutig als Reproduktionen erkennbar blieben und nicht den Anschein eines „digitalen Originals“ erweckten. Leichtsinn sei aber nicht angebracht. Wer gefälschte Scans einreiche, um sich Vorteile zu erschleichen, könne weiterhin wegen Betrugs belangt werden. Voraussetzung: Ein Vermögensschaden ist nachweisbar. Im vorliegenden Fall war das wegen fehlenden Vorsatzes und Schadens nicht gegeben.
(wpl)
Künstliche Intelligenz
Meta-Scraping-Urteil: OLG München stärkt Nutzerrechte bei „Kontrollverlust“
Der automatisierte Abgriff öffentlich zugänglicher Informationen (Scraping) beschäftigt die Justiz seit Jahren. Das Oberlandesgericht (OLG) München hat mit einem jetzt veröffentlichten Endurteil von Ende September (Az. 36 U 1368/24 e) ein deutliches Signal an Betreiber sozialer Netzwerke gesendet. Im Kern geht es um den Schutz von Daten, die zwar theoretisch einsehbar sind, aber durch mangelhafte Voreinstellungen zum Ziel massenhafter Sammelei werden. Das OLG sprach einem Betroffenen nicht nur Schadensersatz zu, sondern korrigierte auch eine wesentliche verfahrensrechtliche Hürde zugunsten der Nutzer.
Weiterlesen nach der Anzeige
Der Fall führt zurück ins Jahr 2019. Damals wurde bekannt, dass über eine Kontakt-Import-Funktion bei Facebook weltweit rund 533 Millionen Datensätze abgegriffen und später im Darknet veröffentlicht worden waren.
Auch der Kläger war betroffen: Seine Telefonnummer, die er eigentlich nicht öffentlich teilen wollte, wurde mit seinem Profil verknüpft. Grund: Die standardmäßige Suchbarkeitsoption war auf „alle“ voreingestellt. Dritte konnten so über automatisierte Anfragen Listen von Telefonnummern abgleichen und die zugehörigen Profile identifizieren.
Das Landgericht München hatte die Klage ursprünglich abgewiesen. Das höher gestellte OLG sieht die Verantwortlichkeit aber klar beim Plattformbetreiber. Facebook habe gegen den Grundsatz der Datenminimierung und die Pflicht zu datenschutzfreundlichen Voreinstellungen verstoßen. Dass die Nutzer theoretisch die Möglichkeit hätten, ihre Privatsphäre-Einstellungen manuell anzupassen, entlasse den „Herrn der Technik“ nicht aus der Verantwortung.
Eine Standardeinstellung, die eine weltweite Suchbarkeit der Telefonnummer ermögliche, sei für den eigentlichen Vertragszweck – die Vernetzung von Menschen – schlicht nicht erforderlich. Das Gericht monierte zudem das Fehlen technischer Hürden wie Captchas oder effektiver IP-Überprüfungen, die den massenhaften Abgriff hätten erschweren können.
Greifen der DSGVO: „Sekundäre Darlegungslast“
Besondere juristische Relevanz entfaltet das Urteil bei der Frage, wann ein Vorfall zeitlich einzuordnen ist. Da die Datenschutz-Grundverordnung (DSGVO) erst seit Mai 2018 gilt, argumentieren Konzerne häufig, die kritischen Datenabflüsse hätten bereits vor diesem Stichtag begonnen und fielen so in eine rechtliche Grauzone.
Dieser Taktik schiebt das OLG einen Riegel vor: Facebook treffe eine sogenannte sekundäre Darlegungslast, entschied es. Da nur der Betreiber Einblick in die internen technischen Abläufe und Logfiles habe, müsse er detailliert nachweisen, wann genau das Scraping stattfand. Gelingt dieser Nachweis nicht, wird zugunsten des Nutzers die Anwendbarkeit der strengen DSGVO-Regeln unterstellt.
Weiterlesen nach der Anzeige
Bei der Bemessung des Schadens folgte das OLG der aktuellen Linie des Europäischen Gerichtshofs und im Kern auch der des Bundesgerichtshofs. Demnach begründet bereits der bloße Kontrollverlust über personenbezogene Daten einen immateriellen Schaden. Dass die Informationen im Darknet auftauchten, manifestiere diesen Verlust dauerhaft. Dem Kläger sprach die Berufungsinstanz dafür 200 Euro zu. Diese an sich überschaubare Summe kann angesichts der Millionen Betroffenen für Meta bei einer Klagewelle schnell bedrohliche Ausmaße annehmen.
Das Urteil unterstreicht dem IT-Rechtler Jens Ferner zufolge einen sich in der Rechtsprechung vollziehenden Paradigmenwechsel: Plattformen hafteten nicht nur für aktive Fehler, sondern auch für strukturelle Designschwächen ihrer Systeme. Der Beschluss mache deutlich, dass die DSGVO kein zahnloser Tiger sei, sondern ein wirksames Instrument des individuellen Rechtsschutzes. Für Firmen bedeute dies, dass datenschutzfreundliche Voreinstellungen („Privacy by Default“) keine bloße Empfehlung seien, sondern eine rechtliche Notwendigkeit.
(wpl)
Künstliche Intelligenz
VR-Brillen der 90er und 2000er: Ohne sie gäbe es heute keine Meta Quest
Nach den großen Konsolen- und Spielwarenherstellern Nintendo, Atari, Sega und Hasbro wagten sich in den Jahren nach dem ersten VR-Hype Anfang der 1990er mehrere Unternehmen an ein riskantes Unterfangen: Sie wollten Virtual Reality von den Arcade-Hallen in die Wohnzimmer bringen – erschwinglich, tragbar und für den Massenmarkt konzipiert. Doch fast alle dieser frühen VR-Headsets scheiterten an der Technik, am Preis oder an der fehlenden Nachfrage. Die Geschichte dieser Geräte ist allerdings nicht nur eine Geschichte des Scheiterns, sondern zugleich eine Chronik notwendiger Irrwege, die den späteren Erfolg moderner VR-Systeme vorbereiteten. Wir blicken zurück auf die VR-Ära vor Oculus Rift, Valve Index und HTC Vive.
Weiterlesen nach der Anzeige
VictorMaxx StuntMaster: Der erste Versuch
Den Anfang machte die Firma VictorMaxx mit der „StuntMaster“ schon 1993. Das Headset gilt als das erste kommerzielle VR-Gerät für den Heimgebrauch. Für rund 219 US-Dollar konnte es an gängige Konsolen wie das Super Nintendo oder Segas Mega Drive angeschlossen werden. Technisch war die StuntMaster jedoch kaum mehr als ein Gimmick: Eine einzelne, niedrig aufgelöste LCD-Anzeige (etwa 160 × 120 Pixel) erzeugte ein flaches Bild ohne echten 3D-Effekt. Dazu registrierte ein umständlich an der Seite angebrachter Stab Kopfbewegungen, übersetzte diese aber lediglich in Links- und Rechtsbefehle, als wäre der Kopf ein Joystick.

So wurde die „Stuntmaster“ von VictorMaxx 1993 beworben.
(Bild: Retro Scan of the Week)
Stereoskopie, Positionsverfolgung oder echte Immersion bot das System nicht. Die Bildqualität war schwach, das Sichtfeld eng, der Ton blechern und das Tragen der Brille unangenehm. Viele Nutzer klagten über Unwohlsein und Kopfschmerzen. Spezielle Software gab es praktisch nicht, und die Integration in bestehende Spiele war nur oberflächlich. Nach kurzer Zeit verschwand die „StuntMaster“ vom Markt, doch sie markierte einen frühen Meilenstein: Erstmals war VR-Hardware für Konsolenbesitzer verfügbar, auch wenn sie kaum hielt, was sie versprach.
CyberMaxx: Techniksprung ohne Markt
VictorMaxx ließ sich jedoch nicht beirren und legte 1994 mit der „CyberMaxx“ nach, einer deutlich weiterentwickelten VR-Brille mit zwei LC-Displays und stereoskopischem 3D-Bild. Die Auflösung lag bei 505 × 230 Pixel pro Auge, was für die damalige Zeit beachtlich war. Headtracking war zwar vorhanden, allerdings funktionierte es vor allem zur Steuerung von Kamera oder Mauszeigern. Der Preis: stolze 699 US-Dollar.
Trotz verbesserter Technik blieb der Erfolg aus. Nur wenige Spiele unterstützten das Headset nativ, und auch als universelle Anzeigeeinheit war es zu teuer. 1995 erschien mit der „CyberMaxx 2.0“ eine überarbeitete Version mit erweiterten Anschlussmöglichkeiten. Doch auch CyberMaxx war kein Erfolg vergönnt, und VictorMaxx verschwand kurz darauf vom Markt.
Weiterlesen nach der Anzeige
iGlasses von Virtual i-O: Ambition trifft Realität
Im Mai 1995 erschien die VR-Brille, die den eigentlich viel passenderen Namen für die knapp 30 Jahre später erscheinende Apple Vision Pro belegte: Die „iGlasses“ des Start-ups Virtual i-O waren eines der technisch ausgereiftesten VR-Headsets dieser Ära. Für 499 US-Dollar bot das Gerät zwei LCDs mit VGA-Auflösung in stereoskopischer Darstellung (je 640 × 480 Pixel). Zwei Varianten standen zur Auswahl: eine für Composite-Videoquellen wie Spielekonsolen, VHS- oder später DVD-Player, und eine PC-Version mit integriertem Headtracking. Die Bildqualität war dank der hohen Auflösung deutlich besser als bei älteren Geräten. Auch der Tragekomfort war höher und die Brille leichter.
heise online XR-Briefing abonnieren
Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
Die Video-Version diente vor allem als persönliche „Großbildleinwand“, wie sie heute Display-Brillen von Viture oder Xreal anbietet. In der PC-Ausführung lieferten die „iGlasses“ hingegen mehr „VR-Feeling“ durch Kopfsteuerung der Kamera. Trotz guter Kritiken blieb der kommerzielle Erfolg aus. Der Umsatz lag 1995 bei rund fünf Millionen Dollar und damit weit unter dem erhofften Potenzial. Zwar verdoppelte sich der Absatz 1996, doch das Produkt blieb ein Nischenphänomen. Kurioserweise entfiel rund ein Viertel der Verkäufe auf Zahnarztpraxen, die das Gerät zur Ablenkung von Patienten nutzten. Die Konsumenten hingegen zögerten vor allem wegen des Preises und der geringen Softwarebasis. 1997 folgte die Insolvenz.
Forte VFX1: Der „High-End-PC-Helm“
Ebenfalls 1995 erschien mit dem VFX1 Headgear von Forte Technologies ein VR-Helm für ambitionierte PC-Nutzer. Für rund 695 US-Dollar bot das System zwei 0,7-Zoll-Displays mit 263 × 230 Pixeln, Stereo-Audio, Mikrofon und Headtracking in drei Achsen (Drehung, Neigung, Kippen). Ein spezieller Controller namens „CyberPuck“ ergänzte das System.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.
Linus Tries VR From 1994
Der Helm gilt trotz seines Gewichts von rund einem Kilogramm als überraschend bequem, erforderte allerdings den Einbau einer proprietären ISA-Steckkarte sowie umfangreiche Konfiguration. Offiziell sollen zwar über 100 Spiele die VR-Brille direkt unterstützt haben – darunter „Descent“ und „Quake“. Allerdings gab es nur eine Handvoll Spiele, die wirklich stereoskopisches 3D lieferten. Viele Nutzer experimentierten mit dem „VR-Mausmodus“ unter Windows, doch die große Softwarebasis fehlte und somit ein überzeugender Grund, den PC aufwendig umzurüsten. 1997 übernahm Interactive Imaging Systems (IIS) die Technik von Forte und entwickelte sie weiter.
VFX3D: Später Versuch mit modernisierter Technik
Um 2000 versuchte ILS mit dem VFX3D, die Technologie des VFX1 zu modernisieren, und erhöhte die Auflösung auf 380 × 337 Pixel pro Auge und die Bildrate auf 75 Hz. Erstmals war auch eine gewisse Vor- und Rückwärtsbewegung im Raum möglich, wenn auch noch ohne echtes Positionstracking. Allerdings blieb die Softwarebasis ähnlich begrenzt wie beim Vorgänger. ILS zielte primär auf professionelle Anwender, denn der VR-Konsumentenmarkt war zu diesem Zeitpunkt praktisch tot. Auch wenn die VFX3D kein Erfolg war, blieb der Hersteller als einer der wenigen weiter in der Branche aktiv. Aus IIS wurde später der Smartbrillen-Hersteller Vuzix, der auch heute noch spezialisierte Geräte für die Industrie anbietet.
Takara Dynovisor & Philips Scuba: Atari-Erbe ohne Tracking
Eine Besonderheit sind die Headsets „Dynovisor“ von Takara und „Scuba Visor“ von Philips, die zwischen 1996 und 1998 erschienen. Beide basierten auf einem VR-Headsetprototyp, den Virtuality ursprünglich für die Atari Jaguar-Konsole entwickelt hatte. Deren Technologie wurde von Philips und Takara übernommen und leicht angepasst.
Beide Geräte nutzten Sonys TFT-LCDs mit etwa 263 × 230 Pixeln pro Auge, boten aber ein sehr geringes Sichtfeld von ungefähr 50 Grad. Headtracking fehlte vollständig. Dennoch erzeugten sie in Filmen oder Spielen ein für damalige Verhältnisse eindrucksvolles, riesiges Bild. Der Preis lag bei etwa 300 US-Dollar und Philips verkaufte angeblich rund 55.000 Exemplare. Damit können die „Scuba Visors“ zwar als Achtungserfolg gewertet werden, sie waren aber weit entfernt von einem Massenmarktprodukt. Ein Grund für das Scheitern dürften die immer wieder aufkommenden Beschwerden über Augenbelastung und fehlende Inhalte gewesen sein.
Z800 und Trimersion: Der letzte Atemzug vor Oculus
In den 2000er-Jahren erschienen noch zwei weitere VR-Brillen, bevor Palmer Luckey mit seinem Start-up „Oculus“ den Grundstein für den heutigen VR-Markt legte. 2005 brachte eMagin den „Z800 3DVisor“ auf den Markt, ein Headset mit OLED-Displays, 800 × 600 Pixeln, 3-DoF-Tracking und USB-Anschluss. Der „Z800 3DVisor“ diente allerdings mehr als persönlicher Bildschirm und verzichtete auf komplette Bewegungserfassung. Der Preis von 899 US-Dollar zum Launch war zu hoch für die nach wie vor kleine Zielgruppe.
2006 folgte das Trimersion-Headset, ein kabelloses System für Ego-Shooter mit Kopftracking und einer Lightgun als Controller. Die Idee: Spieler sollten mit dem Kopf zielen und mit einem Stick an der Plastikpistole laufen. In der Praxis erwies sich das Konzept als unpraktisch, und viele Tester berichteten von Nackenverspannungen und Orientierungsproblemen. Auch hier blieb der Erfolg aus und die Firma verschwand kurz darauf vom Markt.
Scheitern mit Lerneffekt
Die VR-Brillen der 90er und frühen 2000er waren technisch und konzeptionell unterschiedlich, aber sie scheiterten fast alle aus denselben Gründen: zu geringe Auflösung, zu hoher Preis, fehlende Inhalte und mangelnder Komfort. Viele Nutzer reagierten mit Ablehnung, und der Begriff „Virtual Reality“ war innerhalb der Tech-Branche jahrelang negativ konnotiert. Und doch hinterließen diese Geräte Spuren: Sie zeigten, was nötig ist, damit Virtual Reality funktioniert, und was nicht.
2012 griff der VR-Neustart durch ein Kickstarter-Projekt der Oculus-Gründer genau diese Lehren auf: höhere Auflösung, breites Sichtfeld, präzises Tracking, vertretbarer Preis und eine wachsende Softwarebasis. Die gescheiterten Systeme von damals waren also keine Sackgasse, sondern notwendige Schritte auf dem Weg zur heutigen VR.
(joe)
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Künstliche Intelligenzvor 2 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Künstliche Intelligenzvor 2 MonatenNeue PC-Spiele im November 2025: „Anno 117: Pax Romana“
-
Entwicklung & Codevor 1 MonatKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 2 MonatenDonnerstag: Deutsches Flugtaxi-Start-up am Ende, KI-Rechenzentren mit ARM-Chips
-
UX/UI & Webdesignvor 2 MonatenArndt Benedikt rebranded GreatVita › PAGE online
