Connect with us

Apps & Mobile Entwicklung

Vivo X300 Ultra mit 400-mm-Teleobjektiv im Test


Vivo rundet die X300-Serie nach oben hin mit dem X300 Ultra für 1.999 Euro ab. Das High-End-Smartphone zeichnet sich durch ein leistungsfähiges Kamerasystem aus, das in Kooperation mit Zeiss entwickelt wurde – optional sogar mit 400-mm-Teleobjektiv. Das sorgte im Test für noch nie dagewesene Möglichkeiten beim Fotografieren.

Vivo X300 Ultra startet heute für 1.999 Euro

Die X300-Serie markierte im Herbst letzten Jahres die Rückkehr von Vivo auf den deutschen Markt. Jetzt legt das Unternehmen mit dem absoluten Flaggschiff X300 Ultra nach, das – je nach Zubehör – mehr Kamera als Smartphone ist. Dass es sich um das neue Topmodell handelt, zeigt der Preis: 1.999 Euro ruft Vivo auf – aber gleich mit 16 GB RAM und 1 TB Speicher. Zahlreiches Zubehör für Vorbesteller soll Preisschock lindern.

Zubehör, Garantien und Rabatte für Vorbesteller

Das X300 Ultra lässt ab heute ab 21 Uhr direkt beim Hersteller vorbestellen. Im Rahmen einer bis zum 23. April laufenden Aktion wirbt Vivo mit einem Preisvorteil von 1.309 Euro für Vorbesteller. Dieser ergibt sich aus einer Zusammenstellung von kostenlosem Zubehör, Garantien und Rabatten – ob benötigt oder nicht.

  • Kostenloses Pro Video Rig Kit (UVP: 499 Euro)
  • Kostenlos 1 Jahr Displayschutz (UVP: 169 Euro)
  • Kostenlos 3 Jahre Garantie (UVP: 129 Euro)
  • Kostenlos 5 Jahre Batteriegarantie (UVP: 129 Euro)
  • 50 Prozent Rabatt auf Fotografie-Set (UVP: 599 Euro)
  • 50 Prozent Rabatt auf Tragetasche (UVP: 99 Euro)
  • 50 Prozent Rabatt auf 100-W-Schnellladegerät (UVP: 69 Euro)

Technische Daten des Vivo X300 Ultra

Triple-Kamera aus Zeiss-Kooperation

Das X300 Ultra zeichnet vor allem das in Kooperation mit Zeiss entwickelte Kamerasystem aus, das mit drei Kameras native Brennweiten von 14 mm, 35 mm und 85 mm Kleinbildäquivalent abdeckt. Über den optional erhältlichen „Telephoto Extender Gen 2“ oder „Telephoto Extender Gen 2 Ultra“ kommen die Brennweiten 200 mm und 400 mm hinzu. Letztere Ausführung ist für den europäischen Markt vorgesehen. Die zusätzlichen Objektive lassen sich über einen Adapter auf die 85-mm-Linse schrauben. Der Redaktion lag für den Test das 400-mm-Objektiv vor.

Erweiterbarer Kamerakäfig für den Videodreh

Als Zubehör speziell für semiprofessionelle Videoaufnahmen bietet das Unternehmen das „Pro Video Rig Kit“ an, einen erweiterbaren Kamerakäfig mit Blitzschuhhalterungen und Schnellwechselanschlüssen für Zubehör. Zwei Handgriffe dienen der Stabilität während des Drehs. Für eine präzisere Kontrolle bietet der Käfig physische Auslöser- und Zoomregler sowie einen mehrstufigen Lüfter für Aufnahmen mit hoher Intensität. Dieses Zubehör konnte sich ComputerBase nicht näher anschauen.

Vivo X300 Ultra im Pro Video Rig Kit
Vivo X300 Ultra im Pro Video Rig Kit (Bild: Vivo)

Fotografie-Set kommt mit Kameragriff

Das Fotografie-Set besteht neben dem Telephoto Extender unter anderem aus einer angepassten Schutzhülle, an der sich ein ringförmiger Adapter befestigen lässt, an dem wiederum der Telephoto Extender befestigt wird – beides rastet per Bajonettverschluss ein. An der Unterseite respektive am USB-C-Anschluss lässt sich zudem ein Kameragriff mit eigenem Akku (2.300 mAh, 8,4 Wh), Zusatztasten und Stativgewinde befestigen. Auch am Telephoto Extender lässt sich ein Ring befestigen, der Stativgewinde in Ein-Viertel-Zoll und Drei-Achtel-Zoll bietet.

Der Kameragriff wird über Schienen per USB-C angeschlossen
Der Kameragriff wird über Schienen per USB-C angeschlossen
Regler und Zusatztasten am Kameragriff
Regler und Zusatztasten am Kameragriff

So baut man das X300 Ultra zusammen

Während des Zusammenbaus aller Komponenten fühlt man sich ein wenig so, als würde man ein Scharfschützengewehr mit Zielfernrohr und Dreibein ausrüsten. An allen Ecken und Enden des Smartphones wird etwas angesteckt, eingerastet, gedreht und geschraubt, bis das Vivo X300 Ultra schließlich irgendwann „fertig“ ist. Mit etwas Übung lässt sich das in unter 10 Sekunden erledigen. Um im Alltag nur noch den Telephoto Extender anbringen zu müssen, lässt man das Smartphone am besten gleich in der Schutzhülle und den Objektiv-Adapter montiert. Der Kameragriff ist eher optional, die konfigurierbaren Zusatztasten für unter anderem Zoom, Blende und Auslöser sind alle auch in Software in der Kamera-App verfügbar. Für einen besseren Halt sorgt der Griff aber in jedem Fall. Er macht das Smartphone aber auch noch größer und kaum mehr in der Hosentasche zu verstauen.

GIF Zusammenbau des Vivo X300 Ultra

Das Zubehör von Vivo hinterließ im Test einen weitgehend positiven Eindruck, was vor allem der Materialwahl Aluminium für Adapter und Telephoto Extender zu verdanken ist. Schutzhülle und Kameragriff fertigt Vivo hingegen aus günstigerem Kunststoff. Die Passgenauigkeit könnte aber etwas besser ausfallen, Adapter und Telephoto Extender weisen jeweils etwas Spielraum auf, wenn man daran nach dem Einrasten dreht. Für den aufgerufenen Preis hätte Vivo hier etwas mehr Präzision abliefern müssen.

Die drei Kameras im Überblick

Bei der primären Kamera des X300 Ultra hat sich Vivo für eine interessante Brennweite von 35 mm entschieden, da diese dem Seheindruck des menschlichen Auges nahekomme. Zum Vergleich: Häufig setzen Smartphones für die Hauptkamera auf 23 mm. An diesen Unterschied muss man sich beim Fotografieren kurz gewöhnen, denn die omnipräsenten 23 mm waren beim Tester derart „eingebrannt“, dass der Abstand beim Fotografieren quasi neu gelernt werden musste. Hinter dem 35-mm-Objektiv sitzt als Sensor der Sony LYTIA 901, der eine Größe von 1/1,12 Zoll aufweist und eine native Bildausgabe ohne Pixel-Binning in bis zu 200 MP unterstützt. Optional werden mit reduzierter Pixel-Zusammenfassung auch 50 MP und 25 MP angeboten, die Standard-Bildausgabe erfolgt aber in 12,5 MP (16:1 Binning).

Großer Sensor auch für die Ultraweitwinkelkamera

Für Ultraweitwinkelfotos ist eine Kombination aus Objektiv mit 14 mm und Sony-LYTIA-818-Sensor mit 50 MP auf 1/1,28 Zoll zuständig. Vivo erklärt, dass dem Unternehmen mit dem Ultraweitwinkelobjektiv ein „technologischer Durchbruch“ gelungen sei, da es in puncto Bildqualität mit der Hauptkamera mithalten könne und aufgrund der hohen Lichtempfindlichkeit und großen Blende (f/2.0) keine Kompromisse mehr erfordere.

Zeiss-Teleobjektiv mit 85 mm

Besonders hervor hob der Hersteller zur Ankündigung das Teleobjektiv mit 85 mm. Hier kommt mit dem HP0 ein 200-MP-Bildsensor von Samsung zum Einsatz, der eine Größe von 1/1,4 Zoll aufweist. Das Teleobjektiv wird mit Erfüllung des Zeiss-APO-Standards beworben, was bedeutet, dass es chromatische Aberration besonders gut korrigieren soll. Statt nur zwei (wie bei „achromatischen“ Linsen) werden drei Wellenlängen des Lichts (typisch Rot, Grün, Blau) exakt auf denselben Fokuspunkt gebracht. Das soll zu schärferen Bildern, weniger Farbsäumen vor allem an Kontrastkanten und einer besseren Farbtreue führen. Geworben wird auch mit der „Zeiss-T*-Vergütung“, also einer hochwertigen Anti-Reflex-Beschichtung für weniger Reflexionen, höhere Lichtdurchlässigkeit, verbesserten Kontrast und Farbwiedergabe sowie verringerte Lens Flares und Geisterbilder.

Das hohe Gewicht neigt das Smartphone zur Seite
Das hohe Gewicht neigt das Smartphone zur Seite
Ist das noch Smartphone oder schon Kamera?
Ist das noch Smartphone oder schon Kamera?

Die dritte Kamera verfügt über einen 3-Grad-Gimbal-OIS, der Erschütterungen ausgleichen und für scharfe Bilder bei Aufnahmen sorgen soll. Im Schnappschussmodus unterstützt das Objektiv eine AF-Verfolgung mit 60 FPS, was bei der Aufnahme schnell bewegter Motive in der Sport- und Tierfotografie oder bei Konzerten von Vorteil sei.

Multispektralsensor scannt das Umgebungslicht

Auf der Rückseite des X300 Ultra befindet sich genau genommen eine vierte Kamera. Vivo schreibt sich ein „Farbsystem auf Profi-Niveau“ auf die Brust und will damit eine exakte Farbdarstellung sowie harmonische Tonwerte garantieren. Im Zentrum steht dabei ein 5-MP-Multispektralsensor, der laut Vivo über 12 Farbkanäle und eine verbesserte Flicker-Erkennung verfügt. Durch die Kombination mit Vivos selbst entwickelter Multispektral-Farbalgorithmus-Engine könne das System das Umgebungslicht auf Pixelebene scannen und unterschiedliche Lichtquellen präzise trennen und eine authentische Farbwiedergabe garantieren.

Videoaufnahmen in 4K 10 Bit Log und Dolby Vision

Das Thema Video sei an dieser Stelle zwar erwähnt, im Test wurde sich aber auf die Fotografie fokussiert. Unterstützt werden 4K-10-Bit-Log- und Dolby-Vision-Videos mit bis zu 120 FPS. Im Pro-Videomodus orientiere sich die Benutzeroberfläche an den Optionen professioneller Kinokameras, um anspruchsvolle Produktionen auch auf dem Smartphone zu erreichen. Eine verbesserte Monitoring-Funktion erlaubt benutzer­definierte 3D-LUTs für eine Echtzeit-Vorschau während der Log-Aufnahme. Durch die Kompatibilität von Vivo Log zum ACES-Workflow (Academy Color Encoding System) lasse sich das aufgenommene Material in standardisierte Farbräume integrieren.



Source link

Apps & Mobile Entwicklung

Sabre v2 Pro Ultralight Wireless im Test


Mit der Sabre v2 Pro Ultralight Wireless kombiniert Corsair kabellose 8.000-Hz-Sensorik mit herausragend leichten 36 Gramm – einer in dieser Leistungsklasse beinahe beisspiellos niedrigen Masse. Im Test erweist sich die Maus als gelungen; perfekt ist die Sabre aber nicht. Im Vergleich mit der Konkurrenz gilt es, abzuwägen.

Corsairs Sabre RGB (Test) war im Jahr 2021 eine der ersten Mäuse, die eine native USB-Abfragerate von 8.000 Hz boten. Der Hersteller war also beim Wettbewerb um die bestmögliche und direkteste Sensorik für kompetitive Shooter und RTS-Spieler ganz vorn mit dabei – allerdings eben mit Kabel. Die erste kabellose Umsetzung von nativen 8.000 Hz dauerte noch bis Ende 2023 und kam von Razer. Corsair wiederum experimentierte 2022 bei der Sabre Wireless (Test) vorerst mit kabellosen 2.000 Hz, die aber nicht nativ anlagen und für Probleme sorgten; die Sensorik gab kein gutes Bild ab.

Seit Herbst 2025 hat Corsair derweil die Sabre v2 Pro Ultralight Wireless im Angebot, die native 8.000 Hz verspricht und in der Kombination mit einer besonders leichten Bauweise eine erstklassige Wahl für Pro-Gamer darstellt, so der Hersteller. ComputerBase hat sich die Maus angesehen und prüft im Test, inwiefern die Sabre den eigenen Versprechen gerecht werden kann und wie das Modell im Vergleich zu etablierten High-End-Mäusen abschneidet.

Kompaktes Fingertip-Grip-Gehäuse wiegt nur 36 Gramm

Bei der Formgebung setzt Corsair auf in diesem Segment etablierte Tugenden: Ein symmetrisches Chassis liegt den allermeisten Rechtshändern mindestens gut in der Hand, sofern jene nicht allzu groß ausfällt. Denn ein Stück kleiner als Logitechs G Pro X Superlight 2 (Test), die an dieser Stelle als Genre-Referenz dient, ist die kabellose Sabre. Wenn die Maus gemäß ihrer Konzeption im Fingertip-Grip gehalten wird, also ohnehin nur die Fingerspitzen Kontakt zum Gehäuse herstellen, ist das kein Problem – zumindest bei der Länge. Aber die Sabre v2 Pro Ultralight Wireless ist auch einige Millimeter schmaler, was bei großen Männerhänden nachteilig sein kann.

Ein Claw-Grip, bei dem neben den Fingerspitzen zumindest der Handballen noch Kontakt zum hintersten Teil des Maus-Chassis herstellt, ist angesichts der kleinen Abmessungen kaum bequem möglich und führt schnell zu verkrampften Händen. In dieser Situation ist die Sabre auch ein wenig hecklastig. Und an einen Palm-Grip, bei dem die gesamte Hand auf der Maus abgelegt wird, ist hier gar nicht erst zu denken, sofern die eigenen Hände nicht eher klein ausfallen.

Die geringe Größe der Maus ist insofern als Kehrseite der Medaille zu betrachten, denn auf der anderen Seite ist die Sabre wirklich außerordentlich leicht geworden: Gerade einmal 36 Gramm wiegt das Modell. Im Vergleich zur Superlight 2 sind das ganze 24 Gramm weniger und auch die 48 Gramm der Mouse-A von Sony (Test) werden mühelos unterboten. Damit legt Corsair beim Rennen um die leichteste vollwertige Gaming-Maus mit geschlossenem Chassis einen Sprung hin, der zuletzt gar nicht mehr gewohnt war, wo es von Jahr zu Jahr häufig nur um wenige Gramm nach unten ging. Bemerkenswert!

Mit bloß 36 Gramm ist die Sabre v2 Pro Ultralight Wireless tatsächlich so leicht, dass ihr Gewicht bei der Bedienung nicht einmal mehr gesondert wahrgenommen wird – die Hand wiegt in dieser Konstellation schwerer – wortwörtlich. Erinnerungen an die kabelgebundene Zaunkoenig M2K (Test) mit noch leichteren 24 Gramm werden wach, obschon die Corsair-Maus bei dem in dieser Gegenüberstellung größeren Gehäuse sogar zwei Daumentasten bietet und selbstredend einen Akku und Funktechnik mit an Bord hat. Auch kommen keine Kohlenstofffasern zum Einsatz, sondern gewöhnlicher Kunststoff. Der fällt erwartungsgemäß sehr dünn aus, um die niedrige Masse zu ermöglichen. Mit genügend Druck lässt sich die Oberseite der Maus eindellen, bleibt anschließend aber nicht verformt, sondern „ploppt“ wieder in die Ursprungsform zurück.

Zur Oberflächen­beschaffenheit lässt sich sagen, dass der Kunststoff zwar glatt ist, sich die Sabre aber dennoch recht rau anfühlt: Corsair hat das Material nur soweit angeraut, dass gegenüber einer wahrlich glatten Oberfläche, wie sie etwa die Superlight 2 bietet, Nachteile bei der Haftung entstehen. Die geringe Masse hilft an dieser Stelle, dass die Maus während der Bedienung nicht regelmäßig verrutscht, aber eine höhere Griffigkeit wäre mitunter wünschenswert gewesen. Einzig, wer zu schwitzigen Händen neigt, könnte mit der Oberfläche glücklich werden.

Corsair Sabre v2 Pro Ultralight Wireless

Passenderweise legt Corsair der Sabre aber Grip-Tapes bei. Es handelt sich letztlich um geriffelt gummierte Aufkleber, die auf den beiden Maustasten und den Flanken passgenau platziert werden können. Insbesondere an den Seiten sind die Tapes willkommen, machen sie die Maus doch als Bonus auch ein ganz klein wenig breiter. Die Grip-Tapes lassen sich rückstandslos entfernen und wiederverwenden, irgendwann geht die Klebkraft aber natürlich verloren.

Leichtgewicht mit steifem Kabel

Bei einer derart leichten Bauweise steht nahezu perfekten Gleiteigenschaften nichts mehr im Weg, oder? In der Tat liegt die Maus beim Umherschieben sehr balanciert in der Hand, aber Corsair hat ein Laster, das der Hersteller augenscheinlich auch Jahre später nicht losgeworden ist: Das Mauskabel ist viel zu steif. Zugegeben, es ist nicht mehr so schlimm wie zu Beginn des Jahrzehnts, aber die Stoffumwicklung ist nach wie vor zu rigide und verpasst dem Kabel die elastische Anmutung und Leichtigkeit eines Stahldrahts. Im Fall der funkenden Sabre v2 Pro Ultralight Wireless ist das USB-C-Kabel selbstredend abnehmbar; dieser Kritikpunkt trifft die Maus also nur mit halber Härte. Wird aber gerade geladen, ist das Gleitverhalten deutlich negativ beeinträchtigt.

Corsair Sabre v2 Pro Ultralight Wireless
Corsair Sabre v2 Pro Ultralight Wireless

Ohne Kabel wiederum gleitet die Sabre sehr gut. Die drei schwarz lackierten PTFE-Gleitfüße könnten noch besser sein, sowohl beim Material selbst als auch der Abrundung an den Kanten, aber das ist Meckern auf hohem Niveau. Die Gleitelemente einer Superlight 2 oder auch etwa der Mouse-A leisten beim Umherschieben nichtsdestoweniger noch weniger Widerstand, sind also überlegen. Die niedrige Masse mache hier einiges Wett, sodass Corsair beim Gesamtpaket trotzdem locker mithalten kann – es ist aber schade, dass die kabellose Sabre ihren Vorsprung aufgrund vermeidbarer Versäumnisse bei Kabel und Füßen nicht ausbauen kann.

Mechanische Primär- und Sekundärtasten

Corsair verbaut in der Sabre v2 Pro Ultralight Wireless ausschließlich klassisch mechanische Schalter, auch für die beiden Primärtasten. Früher oder später wird es hier also – gewissermaßen mit Garantie – zu Problemen kommen, weil die Entprellzeit nach Jahren des Verschleißes nicht mehr ausreichen wird, um ungewollte Doppelklicks konsequent unterbinden zu können. Andere Hersteller, etwa Logitech, Razer oder jetzt eben auch Sony, setzen aus diesem Grund zumindest für die linke und rechte Maustaste und im gehobenen Preissegment auf optomechanische Taster, die mit einer Lichtschranke arbeiten und vor dieser Art Defekt gefeit sind. Wieso Corsair einen anderen Weg geht, ist unklar.

Abseits dieser allgemeinen Kritik kann zusätzlich festgehalten werden, dass die Primärtasten der kabellosen Sabre nur mäßig angenehm klicken. Es gibt vergleichsweise viel Pre-Travel. Das bedeutet, dass die Abdeckungen der Schalter nicht direkt auf eben jenen aufliegen, sondern die Finger erst einige Millimeter nach unten drücken müssen, bevor der eigentliche Mikrotaster erreicht wird und ein Klick zustande kommen kann. Anschließend weist die Maus Post-Travel auf, die Abdeckung kann also noch weiter heruntergedrückt werden.

Corsair Sabre v2 Pro Ultralight Wireless

Es entsteht ein Spielraum von einigen Millimetern, den die Finger auf- und ab wandern können, ohne dass eine neue Betätigung zustande kommt. Im Ergebnis fühlen sich die Primärtaster etwas matschig an. Das überrascht dahingehend, dass vor einigen Jahren noch ausgerechnet optomechanische Taster in dieser Disziplin das nachsehen hatten; mechanische Taster waren schlicht und ergreifend haptisch taktiler und fühlten sich besser an. Dass Corsair in der Sabre die bei der Haltbarkeit unterlegene, mechanische Schaltertechnik verbaut, aber beim Klickgefühl dennoch hinter optomechanischen Mäusen zurückbleibt, ist bemerkenswert – im negativen.

Zu den Seitentasten wiederum findet sich Lob. Pre-Travel gibt es zwar auch hier, aber deutlich schwächer ausgeprägt. Beide Tasten stehen deutlich aus dem Gehäuse hervor, lassen sich also mit dem Daumen gut finden und auseinanderhalten. Das Mausrad ist mittelmäßig taktil gerastert – es könnte ein wenig mehr Widerstand bieten, geht aber grundsätzlich in Ordnung. Positiv anzumerken ist eine vergleichsweise niedrige Lautstärke beim schnellen Drehen.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Atari VCS vs. Mattel Intellivision: Die Geschichte hinter dem ersten „Kampf der Konsolen“


Mattels Spielkonsole Intellivision gibt es jetzt auch als Retro-Konsole Intellivision Sprint (Test) – von Atari, dem einstiegen Gegner im ersten „Kampf der Konsolen“. Wie es dazu kam und warum Atari als Sieger vom Platz ging, obwohl Intellivision mehr zu bieten hatte? Eine Zeitreise in die 70er/80er Jahre liefert die Antwort.

Zeitreise in die 70er/80er

Die Intellivision galt in ihrer Zeit als die größte Bedrohung für Ataris Vorherrschaft, die das Unternehmen mit seinem 2600er-System (in den USA hieß dieses schlicht „Atari VCS“) seinerzeit innehatte, und löste mit ihrer Veröffentlichung zugleich den ersten „Konsolenkrieg“ aus. Bereits der Name, ein „Kofferwort“ aus „Intelligent“ und „Television“, sollte die Konsole als zukünftiges und zentrales Heimcomputersystem positionieren, das sich mit einer stetig wachsenden Anzahl an Peripherie erweitern ließe.

Die Entwicklung der Mattel Intellivision

Die Entwicklung begann bei Mattel im Jahr 1978, ehe die Intellivision bereits 1979 auf der CES in den USA erstmals einem breiteren Publikum vorgestellt wurde. Der erste Verkauf an Endkunden erfolgte pünktlich zum Weihnachtsgeschäft am 3. Dezember 1979 zunächst als Test in Form eines Sets mit vier Spielkassetten zu einem Preis von 275 US-Dollar zuzüglich Mehrwertsteuer in den Gottschalk-Kaufhäusern in Fresno, Kalifornien. Die landesweite Markteinführung zog sich anschließend schrittweise über das Jahr 1980 hinweg und erfolgte zu einem etwas höheren Preis von 299 US-Dollar. Ab diesem Zeitpunkt stand die Konsole in direkter Konkurrenz zum Atari 2600, das mit 199,99 US-Dollar deutlich günstiger angeboten wurde.

Der erste „Konsolenkrieg“: Atari VCS vs. Intellivision
Der erste „Konsolenkrieg“: Atari VCS vs. Intellivision (Bild: Atari)

Stärkere Hardware zum höheren Preis

Der höhere Preis der Intellivision hatte jedoch seine Gründe, denn im Gegensatz zur Atari-Konsole handelte es sich bei der Intellivision um eine echte 16-Bit-Konsole, deren Herzstück der CP1610 von General Instruments bildete, der über einen 16-Bit-Datenbus sowie eine ebenfalls 16 Bit umfassende RAM-Adressierung verfügte. Eine Besonderheit stellte dabei das Decle-Befehlsformat der CPU dar: Anstatt mit Opcodes in 8 oder 16 Bit zu arbeiten, speicherte diese ihre Befehle in 10 Bit, den sogenannten „Decles“, was wiederum 10 Bit breite ROM-Chips erforderte. Atari setzte demgegenüber mit dem MOS 6507 sogar auf eine noch weiter abgespeckte Variante des MOS 6502 und damit auf eine reine 8-Bit-CPU.

Auch beim RAM hatte die Intellivision die Nase deutlich vorne und konnte auf insgesamt 1.456 Bytes zurückgreifen, die sich auf das System, die Grafikeinheit und einen Bereich primär für das Betriebssystem aufteilte. Atari verbaute gerade einmal 128 Bytes an internen Speicher.

Der erste „Konsolenkrieg“: Atari VCS vs. Intellivision
Der erste „Konsolenkrieg“: Atari VCS vs. Intellivision (Bild: Atari)

Für die Grafikausgabe zeichnete ein Standard Television Interface Chip (STIC) vom Typ AY-3-8900-1 von Generel Instruments verantwortlich, der eine Auflösung von 159 × 196 Pixeln bot, wobei spätere Revisionen diese auf 160 × 196 Pixel korrigierten. Der Bildschirm war dabei in 20 × 12 Kacheln unterteilt. Die Farbpalette umfasste 16 Farben, bestehend aus 8 Primär- und 8 Pastellfarben, die gleichzeitig dargestellt werden konnten. Darüber hinaus verfügte das System über 8 Hardware-Sprites, die bei der Intellivision als „Movable Objects“ bezeichnet wurden. Diese konnten jeweils eine Auflösung von 8 × 8 oder 8 × 16 Pixeln besitzen, waren individuell skalier- und spiegelbar und verfügten zudem über eine Hardware-Kollisionserkennung.

Das Atari VCS bot zwar eine nahezu identische Auflösung, konnte jedoch lediglich bis zu 8 Farben gleichzeitig darstellen und damit nur die Hälfte dessen, was die Intellivision leistete. Auch bei der Anzahl der Sprites zeigte sich eine Einschränkung, da hier lediglich 5 zur Verfügung standen, die zudem ausschließlich in einer Größe von 8 × 8 Pixeln dargestellt werden konnten.

Beim Sound kam in der Intellivision ein AY-3-8914 zum Einsatz, der im Vergleich zum Atari 2600 mit seinen zwei TIA-Kanälen über drei Tonkanäle sowie einen zusätzlichen Rauschkanal verfügte.

Insgesamt verfügte die Intellivision damit über eine deutlich fortschrittlichere und leistungsfähigere Hardware als die Atari-Konsole, was sich auch in der Umsetzung der Spiele bemerkbar machte.

Beim Controller lag Atari weit vorne

Hinzu kam, dass der Joystick von Atari bereits kurz nach seiner Einführung als ikonisch wahrgenommen wurde, wogegen der Controller der Intellivision trotz seines größeren Funktionsumfangs als umständlich und unhandlich galt, was sich ebenfalls nachteilig auf die Wahrnehmung der Konsole auswirkte.

ColecoVision mit mehr Leistung war günstiger

Zu Mattels Leidwesen trat im August 1982 zudem mit Coleco ein weiterer Konkurrent in den Markt ein, der mit der ColecoVision eine technisch leistungsfähige Konsole präsentierte. Diese basierte auf einer Z80-Architektur und konnte sowohl mit einer für die damalige Zeit soliden Rechenleistung als auch mit einer nochmals verbesserten Grafikleistung überzeugen. Trotz dieser technischen Vorteile wurde die Konsole mit einem Einführungspreis von 175 US-Dollar deutlich günstiger angeboten als die Intellivision. Dennoch gelang es auch diesem neuen Wettbewerber nicht, Atari von seiner führenden Position zu verdrängen, insbesondere da Atari im selben Jahr zusätzlich das Atari 5200 veröffentlichte, wenngleich dieses nicht mit seinem Vorgänger kompatibel war. Ungeachtet dessen konnte die Intellivision in ihrer Hochphase einen Marktanteil von rund 20 Prozent erreichen.

Am Ende setzte sich Atari durch

Dennoch stellte der höhere Preis, den Mattel für die Intellivision aufrief, für viele Käufer einen entscheidenden Faktor dar, sich stattdessen für die günstigere Atari-Konsole zu entscheiden. Hinsichtlich der insgesamt verkauften Einheiten existieren unterschiedliche Angaben, im Allgemeinen lässt sich jedoch festhalten, dass zwischen drei und fünf Millionen Konsolen abgesetzt wurden. Die Atari-Konsole hingegen wurde über einen Zeitraum von 15 Jahren hinweg gefertigt und erreichte Verkaufszahlen von über 30 Millionen Exemplaren, womit sie trotz der schwächeren Hardware letztlich als eindeutiger Sieger hervorgeht.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Claude Mythos und Opus 4.7: Was leisten Anthropics neue Spitzenmodelle?


Claude Mythos ist Anthropics Spitzenmodell, das aber nicht für ausgewählte Organisationen bereitgestellt wird, weil es zu stark im Entdecken und Ausnutzen von Sicherheitslücken sein soll. Für die Allgemeinheit gibt es nun aber Claude Opus 4.7.

Bei diesem Modell sollen die Cyber-Sicherheitsfähigkeiten nicht so ausgeprägt sein wie bei Mythos. Anthropic erklärt, man habe während des Trainingsprozesses mehrere Ansätze getestet, um das Modell zu beschränken. Ebenso wurden Sicherheitsmechanismen implementiert, die etwa automatisch Anfragen blockieren sollen, die auf hohe IT-Sicherheitsrisiken hinweisen.

  • Autonom Exploits entwickeln: Anthropics neues Modell ist so stark, dass es nicht veröffentlicht wird
  • Autonom Sicherheitslücken ausnutzen: BSI warnt vor Konsequenzen von Modellen wie Claude Mythos

Für professionelle IT-Sicherheitsexperten bietet Anthropic ein neues Cyber Verification Program. Man wählt also einen ähnlichen Ansatz wie OpenAI, Nutzer mit legitimen Interessen sollen sich zunächst autorisieren, wenn sie die leistungsstärksten Modelle nutzen wollen.

Mit Opus 4.7 will Anthropic ermitteln, wie sich die Sicherheitsmechanismen bewähren. Von diesen Erfahrungen sollen dann später Modelle profitieren, die sich in einer ähnlichen Leistungsklasse wie Claude Mythos bewegen.

Wie schlägt sich Opus 4.7 gegenüber den Vorgängern?

Von der regulären Leistungsfähigkeit her erscheint Opus 4.7 hingegen wie ein typisches Modell-Update. Es setzt sich bei den internen Benchmarks an die Spitze und bietet zudem Fortschritte in Bereichen wie Reasoning und ist laut Anthropic in der Lage, komplexe und mehrstufige Aufgaben besser zu bewältigen.

Außerdem kann das Modell Bilder in höherer Auflösung verarbeiten. Damit macht es Fortschritte bei Aufgaben, die auf visuellen Eingaben basieren – also etwa Screenshots, Diagramme und ähnliches.

Relevant sind all diese Bereiche auch für Agenten. Wenn diese einen Computer steuern, erstellen diese Screenshots und nutzen die Inhalte dann als Grundlage für weitere Befehle. Je besser sich also die Screenshots auswerten lassen, desto leistungsfähiger ist Agent beim Steuern eines Computers.

Beim Sicherheitsprofil ist Opus 4.7 laut Anthropic vergleichbar mit dem Vorgänger. Beim Umgang mit Prompt-Injections – also manipulierten Eingaben von Angreifern – ist das Modell im Vergleich zu Opus 4.6 etwas widerstandsfähiger. Etwas schwächer ist es hingegen bei Antworten, die sensible Bereiche wie Drogen betreffen.

Ist Mythos tatsächlich der große Sprung?

Was sind aber die Fortschritte, die Claude Mythos liefert? Eine unabhängige Analyse liefert mittlerweile das AI Security Institute. Generell lautet das Fazit: Das Modell schneidet besser ab, wenn es darum geht, Sicherheitslücken zu erfassen und mehrstufige Verfahren zu bewältigen.

Erkennen lässt sich das etwa in dem Testverfahren „The Last Ones“ (TLO), das eine Attacke auf ein Unternehmensnetzwerk simuliert. Die erfolgt in 32 Schritten. Menschen benötigen schätzungsweise rund 20 Stunden für die Aufgabe.

Claude Mythos ist laut dem AI Security Institute das erste Modell, dem es gelingt, sämtliche Schritte der Attacke in einem Durchlauf zu bewältigen. Das gelingt in drei von zehn Fällen, im Schnitt kommt es 22 Schritte weit. Claude 4.6 war das nächstbeste Modell, es konnte im Durchschnitt 16 Schritte erfolgreich absolvieren.

Laborerfolge sind nicht unbedingt mit realen Aufgaben vergleichbar

Das AI Security Institute beschreibt die Fähigkeiten als bemerkenswert. Allerdings merkt man an, dass sich erfolgreiche Simulationen nicht direkt mit realen Attacken vergleichen lassen. So fehlen etwa Sicherheitsfunktionen, die in der Praxis aktiv sind. Ebenso gibt es keine Bestrafung für fehlgeschlagene Attacken. Eine Simulation lässt sich beliebig oft wiederholen, bei echten Netzwerken würden Angriffe des Modells etwa Sicherheitsalarme auslösen.

Red Hat hat sich ebenfalls die zu den Konsequenzen von Modellen Claude Mythos geäußert. Eine der Kernaussagen in dem Blog-Beitrag ist: IT-Anbieter müssen sich darauf einstellen, dass KI-Systeme nun in der Lage sind, deutlich mehr Sicherheitslücken zu entdecken. Das senkt die Hürde für das Bereitstellen von Exploits. Man warnt aber vor Panik. Die von Anthropic im Linux-Kernel entdeckten Bugs bewertet man etwa mit Einstufungen von niedrig bis moderat.

Priorisierung angesichts der Menge an Bugs entscheidend

Für Anbieter sei es laut Red Hat nun entscheidend, die Prozesse anzupassen. „Es mögen zwar Tausende von Bugs entdeckt werden, wenn aber nur eine Handvoll davon ausnutzbare Sicherheitslücken sind, sind Priorisierung und Triage entscheidend“, heißt es in der Mitteilung. Die Grundlagen von Open Source sieht man davon aber nicht in Gefahr, es würden sich aber die Standards für diejenigen erhöhen, die die jeweiligen Tools betreiben.



Source link

Weiterlesen

Beliebt