Connect with us

Apps & Mobile Entwicklung

Multimedia-Betrachter: XnView MP 1.10.3 verbessert Umgang mit EXIF-Daten


Multimedia-Betrachter: XnView MP 1.10.3 verbessert Umgang mit EXIF-Daten

Bild: XnSoft

Die Macher von XnView MP haben eine neue Version ihres Multimedia-Betrachters veröffentlicht. Version 1.10.3 verbessert den Umgang mit EXIF-Metadaten und führt zudem weitere Neuerungen ein. Gleichzeitig wurden mehr als 25 Fehler behoben.

Bei XnView MP handelt es sich um einen funktionsreichen Multimediabetrachter, Browser und Konvertierer für Windows, macOS und Linux, der mit über 500 Bildformaten kompatibel ist und bis zu 70 Formate exportieren kann. Im Vergleich zum Original XnView Classic wartet XnView MP mit einer moderneren Oberfläche sowie einigen zusätzlichen Funktionen auf.

Verbesserter Umgang mit EXIF-Metadaten

In der neuen Version wurde das ExifTool auf Version 13.51 aktualisiert, das zudem eine eigene Spalte in der Oberfläche erhält. Gleichzeitig erhält der Betrachter die Möglichkeit, entsprechende Daten innerhalb der Anwendung besser bearbeiten zu können.

Aktualisiert wurde außerdem die auf die Darstellung von RAW-Dateien spezialisierte freie Open-Source-Softwarebibliothek LibRaw, die nun in Version 0.22.0 integriert wurde. Ebenfalls verbessert wurden die Kategoriefilter, die nun eine Rechtsausrichtung für Zählungen erhalten haben. Zudem lassen sich Sitzungen nun speichern und wieder laden, außerdem können Voreinstellungen für die Detailspalten gesichert werden.

Zahlreiche Fehler korrigiert

Neben den erwähnten Neuerungen haben sich die Entwickler auch der Behebung von 27 Fehlern angenommen. So konnte die Anwendung in der Vergangenheit aufgrund eines Fehlers in der Detailansicht abstürzen, was nun nicht mehr vorkommen sollte. Ebenso konnte es passieren, dass bei der Erstellung eines Smart-Albums doppelte Bedingungen angelegt wurden. Beim verlustfreien Zuschneiden von Bildern im Format JPEG XL (JXL) mit XYB konnten zudem unter bestimmten Umständen Farben gelöscht werden, was ebenfalls behoben wurde.

Auch an der Benutzeroberfläche wurde gearbeitet: Das Layout sollte nun wieder wie gewohnt wiederhergestellt werden, zudem sollte die horizontale Bildlaufleiste der Ordnerstruktur nicht mehr verschwinden. Eine größere Anzahl von Fehlern wurde außerdem in den Katalog- und Kategoriefiltern behoben.

Einen kompletten Überblick über alle Neuerungen und Änderungen bieten die Release Notes.

Ab sofort verfügbar

XnView MP 1.10.3 steht ab sofort auf der Website des Herstellers zum Download bereit. Alternativ kann der Multimedia-Betrachter wie gewohnt auch bequem über den Link am Endes dieses Artikels aus dem Download-Bereich von ComputerBase bezogen werden.

Downloads

  • XnView MP

    4,9 Sterne

    XnView MP ist ein Bildbetrachter und die erweiterte Version von XnView für Windows, Linux und macOS.

    • Version 1.10.3 Deutsch
    • Version 1.5.5 Deutsch



Source link

Apps & Mobile Entwicklung

DLSS 4.5 vs. FSR AI vs. XeSS 2 im Qualitäts-Test


DLSS 4.5 vs. FSR AI vs. XeSS 2 im Test: Die Bildqualität im direkten Side-by-Side-Video-Vergleich

Wie schlägt sich Intels XeSS 2 gegen die Platzhirsche Nvidia DLSS 4.5 und AMD FSR Upscaling AI (FSR 4) in WQHD? ComputerBase analysiert die Bildqualität der drei Upsampling-Technologien in sechs verschiedenen Spielen in WQHD-Auflösung und findet heraus, welche Vor- und Nachteile die Techniken bringen.

Intel XeSS 2 vs. DLSS 4.5 und FSR Upscaling AI in WQHD

ComputerBase hat sich seit Anfang des Jahres die besten Upsampling-Technologien (AMDs FSR Upscaling AI („FSR 4“), Nvidia DLSS 4 und allen voran DLSS 4.5) angesehen und die Bildqualität in Ultra HD verglichen – inklusive eines separaten Tests mit nativer Auflösung und Community-Blindtest:

In der vergangenen Woche hielten dann auch die schlechteren Varianten Einzug in den Vergleich: In WQHD mussten sowohl FSR 3.1 als auch Intels XeSS 2 zeigen, wie gut sie funktionieren – das war für alle ohne GeForce RTX, mit Intel Arc und einer Radeon RX älter als 9000 interessant, denn offiziell laufen diese Technologien dort nicht.

  • FSR 3.1 vs. XeSS (XMX & DP4a) im Test: Die Bildqualität im direkten Side-by-Side-Video-Vergleich

Was noch fehlte, war ein direkter Vergleich von XeSS 2 mit DLSS 4.5 sowie FSR Upscaling AI in WQHD, der Wunsch danach war in der Community groß.

Das wird in diesem Artikel nun nachgeholt: DLSS 4.5, FSR Upscaling AI und XeSS 2 stellen sich der WQHD-Auflösung in sechs verschiedenen Spielen.

So haben wir getestet

Spiele und Einstellungen

DLSS 4.5 und FSR 4 laufen dabei im Balanced-Modus, XeSS dagegen im Quality-Modus. Klingt seltsam, bedeutet letztlich aber dieselbe Renderauflösung bei allen drei Kandidaten. Denn Intel nutzt ab XeSS 1.3 aus unerklärlichen Gründen schlicht ein anderes Namensschema.

Alle Videos wurden in WQHD mit 60 FPS aufgenommen. Es kam eine externe Capture-Karte zum Einsatz, als Videocodec wurde NVENC AV1 mit einer Bitrate von 60 Mbps ausgewählt. Als Player setzt die Redaktion wie gewohnt auf Nvidias ICAT-Player. Dieser macht nichts anderes, als die Videos abzuspielen – die Videos wurden weder vorab von der Redaktion noch vom ICAT-Player in irgendeiner Form bearbeitet.

Die Spiele im Vergleich

Wieder mit ICAT statt YouTube

Warum kein YouTube? Das hat verschiedene Gründe. Einer davon ist, dass der ICAT-Player vom Benutzer konfiguriert werden kann. Die Abspielgeschwindigkeit kann geändert werden, die Perspektive ebenso und es kann in das Video hinein- oder hinausgezoomt werden. Dafür einfach die linke Maustaste drücken und den Ausschnitt verschieben oder am Mausrad drehen.

Der Hauptgrund ist aber ein anderer: YouTube komprimiert sämtliche Videos sehr stark, was die Bildqualität auch im besten Fall negativ beeinflusst. So ist es nur schwer bis gar nicht möglich, die Bildqualität bestmöglich zu beurteilen. Das bedeutet auch, dass das Video doppelt komprimiert wird. Zunächst bei der Videoerstellung, was sich aber kontrollieren lässt und von YouTube selbst, worauf man aber keinerlei Einfluss hat.

Bei ICAT findet dagegen nur eine Komprimierung bei der Videoerstellung statt, der Player selbst spielt die Videos dann 1:1 ab – völlig unbearbeitet. Das hat aber auch einen Nachteil: Anstatt eines 2,5K60-Streams müssen bei ICAT drei 2,5K60-Streams gleichzeitig abgespielt werden, was auch die Videoeinheiten der modernsten Grafikkarten ans Limit bringt. Ältere Grafikkarten werden die Videos eventuell nicht flüssig wiedergeben können. Und mehr als eine ICAT-Datei zur selben Zeit lassen sich vermutlich nicht öffnen. Hier hilft es nur, ein ICAT-Video über den Schalter „Videovergleich öffnen“ zu öffnen, das Video zu analysieren und die Browserseite mit dem geöffneten Video zu aktualisieren. Das mag umständlich erscheinen, doch anders sind die Einflüsse auf die Bildqualität zu groß.

Der 6. Teil einer Serie

Der Artikel ist der sechste Teil einer Serie, die sich dem Thema Upsampling widmet. ComputerBase hat sich zuvor bereits die Bildqualität der aktuell drei besten Upsampling-Technologien, DLSS 4.5, DLSS 4 sowie FSR Upscaling AI angesehen und auch „Nativ“ in den Vergleich mit aufgenommen. Mittlerweile hat auch ein direkter Vergleich zwischen FSR 3.1 und XeSS 2 stattgefunden. Zusätzlich gibt es einen weiteren Test, der sich um die Geschwindigkeit der drei Upsampler, zusätzlich DLSS 3, FSR 3.1 sowie Nativ, auf einer aktuellen und einer älteren AMD- sowie Nvidia-Grafikkarte kümmert.

  1. DLSS 4.5 vs DLSS 4 vs. FSR AI im Test: Die Bildqualität im direkten Side-by-Side-Video-Vergleich
  2. DLSS 4.5 & FSR AI vs. Nativ im Test: Die Bildqualität im direkten Side-by-Side-Video-Vergleich
  3. DLSS 4.5 vs DLSS 4 vs. FSR AI im Test: Die Performance auf RTX 5070 Ti, RTX 3090 Ti, RX 9070 XT und RX 6950 XT
  4. Nvidia DLSS 4.5 (SR) im Test: Analysen & Benchmarks auf RTX 5000, 4000, 3000 & 2000
  5. FSR 3.1 vs. XeSS (XMX & DP4a) im Test: Die Bildqualität im direkten Side-by-Side-Video-Vergleich



Source link

Weiterlesen

Apps & Mobile Entwicklung

Neues ChatGPT-Modell: GPT-5.3 soll flüssigere Gespräche und weni­ger Halluzinationen bieten


Neues ChatGPT-Modell: GPT-5.3 soll flüssigere Gespräche und weni­ger Halluzinationen bieten

OpenAI führt mit GPT-5.3 Instant ein neues Modell für ChatGPT ein, durch das alltägliche Gespräche flüssiger laufen und deutlich hilfreicher sein sollen. Profitieren sollen darüber hinaus auch die Antworten, die auf Informationen aus der Web-Suche basieren.

Bei dem Update geht es also weniger um eine Leistungssteigerung in spezifischen Benchmarks. Verbessert werden soll hingegen das alltägliche Gefühl im Umgang mit dem KI-Assistenten. „Weniger cringe, mehr Genauigkeit“ ist einer der Slogans, mit denen OpenAI das neue Modell bewirbt.

Flüssigere Gespräche, weniger Belehrungen

Laut OpenAI kam es mit GPT-5.2 Instant immer wieder zu Fällen, in denen ChatGPT zunächst defensiv antwortete, die Nutzer belehrte oder erklärte, welche Antworten das Modell nicht geben kann. Im Blog-Beitrag wird dafür eine Frage nach der Flugbahnberechnung beim Bogenschießen als Beispiel genannt. Bei dieser erklärte ChatGPT mit GPT-5.2 Instant zunächst, es könne keine Anleitung generieren, wie ein Nutzer ein echtes Ziel treffen könne.

Antworten sollen auch prägnanter sein, indem sie wiederholende Formulierungen, übermäßige Einschränkungen und „gedankliche Sackgassen“ vermeiden. Das soll zu einem konstanteren Gesprächsfluss führen.

Verbessert sein soll auch die Qualität der Antworten, wenn das Modell die Web-Suche verwendet. Indem es die Web-Inhalte enger mit den Reasoning-Fähigkeiten verknüpft, kann GPT-5.3 Instant besser die relevanten Punkte herausarbeiten, anstatt lediglich Link-Listen oder nur lose zusammenhängende Quellen zu präsentieren.

Weniger Halluzinationen

Laut OpenAIs internen Messungen halluziniert GPT-5.3 Instant auch weniger als die Vorgänger, die Antworten sind faktentreuer. Ein interner Test untersucht risikoreichere Bereiche wie Medizin, Recht und Finanzen; bei diesen Themen sinkt die Halluzinationsrate um 26,8 Prozent, wenn die Web-Suche aktiviert ist. Wird ausschließlich das interne Wissen des Modells genutzt, sinkt die Halluzinationsrate um 19,7 Prozent.

Im zweiten Test misst OpenAI die Halluzinationsrate in anonymisierten Gesprächen, in denen Nutzer sachliche Fehler gemeldet haben. Mit Web-Nutzung verringert sich die Fehlerrate um 22,5 Prozent und mit reinem Modell-Wissen um 9,6 Prozent.

Verfügbarkeit: Schrittweiser Start für alle ChatGPT-Nutzer

OpenAI führt GPT-5.3 Instant derzeit schrittweise in ChatGPT ein. Dort ersetzt es GPT-5.2 Instant, das aber für drei Monate noch als Legacy-Modell abrufbar ist. Zusätzlich wird GPT-5.3 Instant über die API ausgerollt.

Die Pro- und Thinking-Varianten sollen ebenfalls bald auf 5.3 aufsteigen. Schon im Februar aktualisiert wurde das Agenten-Modell Codex.

Für die Zukunft wird zudem eine weitere schnelle Entwicklung versprochen. Auf X stellt OpenAI bereits GPT-5.4 in Aussicht.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Riesige CPU-Nachfrage: AMD-CEO Lisa Su: Jeder will Venice!


Riesige CPU-Nachfrage: AMD-CEO Lisa Su: Jeder will Venice!

AMDs Chefin freut sich bereits jetzt über die riesige und aktuell kaum zu stillende Nachfrage nach den kommenden Server-Prozessoren: Jeder will Venice, erklärte sie im Rahmen einer Konferenz. Die neue Generation an Epyc-Prozessoren wird im zweiten Halbjahr 2026 Fahrt aufnehmen.

Auch AMD hat die Nachfrage unterschätzt

Intel hatte es im Quartalsbericht erklärt, nun legt auch AMD nach: Plötzlich werden nicht nur GPUs gekauft, sondern auch viel mehr CPUs. Die Nachfrage nach Xeons und Epyc ist sehr groß, Intel konnte sie nicht befriedigen und auch AMD hat Herausforderungen, da die Nachfrage auch bei ihnen die schon optimistischen Erwartungen deutlich übersteigt. Und das wird eine Aufgabe für das ganze Jahr sein, bis ins Jahr 2027.

Yes, there is supply tightness, but that’s really because the market sizing is bigger than what we had forecasted 3 or 6 months ago. And so it always takes time for the supply chain to catch up with what the market wants. I can say that we are very, very well positioned from a supply standpoint to meet a large percentage of that demand. We are still working very closely with our supply chain partners to expand that capability as we go through ’26 and ’27.

AMD-CEO Lisa Su

Jeder will Venice!

Mit Venice soll das Ganze dann wohl sprichwörtlich abheben. AMDs CEO Lisa Su erklärte im Rahmen der Morgan Stanley Technology, Media & Telecom Conference 2026, dass es ganz normal sei, dass es gerade im Datacenter-Geschäft dauert, bis Firmen sich an neue Spieler im Markt gewöhnt haben und sie akzeptieren. Dabei spielen auch die typischen Aufrüst-Zyklen eine Rolle, denn Server werden nicht alle zwei Jahre gewechselt, sondern eher in drei, vier, fünf oder gar noch mehr. Und nun kommt Venice. Dank der Vorarbeit der vorangegangenen Epyc-Generationen ist die Nachfrage danach extrem groß, AMD könnte hier nun wirklich das Zepter von Intel übernehmen.

I would say what we’re seeing about Venice, which tells you a little bit about the competitive position is each generation, what we’re trying to do is align customer ramps with our ramp, right? We want customers to have the best technology that they can. And frankly, that doesn’t always happen because customers have their own cycles that they’re going through. With Venice, like every one of our large customers want Venice the moment it comes out. And that kind of gives you a sense of how good it is because if you have power to spend, you want to spend your power on the best technology out there. And that’s what Venice will be when it comes out.

AMD-CEO Lisa Su

Genug Kapazitäten für Instinct, HBM4 und CoWoS eingeplant

Im Gesprächsverlauf kam aber nicht nur AMD Epyc zur Sprache, sondern sowohl Instinct MI450 – welches Lisa Su als das richtige Produkt zur richtigen Zeit nannte – für den Start in diesem Jahr als auch HBM4 und die Frage, ob denn genug Kapazität für alles zur Verfügung steht. AMD versuchte erneut gleich mehrfach zu beruhigen. Nicht nur habe man gute Verträge bezüglich Speicher und Fertigungskapazitäten geschlossen, auch CoWoS-Kapazitäten fürs Packaging stehen zur Verfügung.

We definitely have enough CoWoS capacity. I know that there’s lots of people trying to check various things. The best thing I can tell you is we have the capacity. We have the technology. We have the deep customer relationships. We have the data center providers have allocated space for it. So we have to execute that ramp.

AMD-CEO Lisa Su

All das wird aber eine Geschichte des zweiten Halbjahres 2026 sein. Das sei so geplant, ab dem dritten Quartal geht es langsam los, ab dem vierten Quartal folgt dann deutlich mehr.



Source link

Weiterlesen

Beliebt