Connect with us

Künstliche Intelligenz

„Lohn der Angst“ und „Sorcerer“ auf UHD im Test


Weiterlesen nach der Anzeige

Bevor das Franchise-Kino die Leinwand dominierte und dem Publikum eine Heldengeschichte nach der anderen auftischte, blickten Henri-Georges Clouzot in „Lohn der Angst“ (Le Salaire de la peur) von 1953 und William Friedkin in „Atemlos vor Angst“ (englisch „Sorcerer“) 1977 in den Abgrund des Existenzialismus. Die Regisseure schickten jeweils vier gestrandete Außenseiter auf eine Höllenfahrt mit nitroglycerinbeladenen Trucks durch den südamerikanischen Dschungel.

Die Wucht der Bilder wirkt heute umso stärker, weil damals alles real und nichts mit Computereffekten gedreht wurde. Während die Männer ihre tödliche Fracht Zentimeter um Zentimeter über reißende Flüsse und steile Berghänge bewegen, kaut der Zuschauer an seinen Nägeln. Wir schauen für diesen Test auf die 4K-Restaurationen, die als Importscheiben bei Criterion als Ultra HD Blu-ray (UHD) erschienen sind. Eine deutsche Veröffentlichung der UHD-Restauration von „Lohn der Angst“ ist für Ende November geplant. „Sorcerer“ wurde just erst von Criterion veröffentlicht und für den hiesigen Markt bislang nicht offiziell angekündigt.



Die berüchtigte Brückenszene aus Sorcerer gehört zu den schwierigsten Drehs der Filmgeschichte. Immer wieder rutschte der Laster von der Hängebrücke in den Fluss.

(Bild: Criterion, abfotografiert)

Bevor sich Timo um die Technik kümmert, beleuchtet Hartmut auf den folgenden Seiten die Hintergründe dieser spektakulären Produktionen, die heutzutage in dieser Form nicht mehr möglich wären. „Sorcerer“ war seinerzeit Opfer des Star-Wars-Rummels und bekam erst über die Jahre die ihm gebührende Anerkennung. Quentin Tarantino nennt ihn heute einen der besten Filme aller Zeiten. Warum das so ist, erklärt ein Blick in die Zeit, das politische Umfeld und die damaligen Produktionsbedingungen.



Source link

Künstliche Intelligenz

Digitale Souveränität: Nein! – Doch! – Oh!


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Im Berliner und Brüsseler Politikbetrieb herrscht regelmäßig Heißluftalarm: Schlagworte surren dann durch die Luft, angeblich wichtige Themen werden hyperventiliert. Unabhängigkeit, Autarkie, Souveränität – all das sind Worte, die nach Stärke klingen sollen. Und doch Schwäche meinen. Mit jedem politischen Personalwechsel wird festgestellt: Wir sind gar nicht unabhängig von anderen.

Weiterlesen nach der Anzeige




Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Nicht bei Halbleitern, nicht bei Netzwerkausrüstern, nicht bei der Energie, nicht bei KI, nicht bei Alltagssoftware. Immer, wenn dann etwas schiefgeht, öffnet sich eine Schublade für Verantwortungsträger, in der ein Sprechzettel liegt: „Es wird eine wesentliche Aufgabe der nächsten Jahre sein, unsere Souveränität durch Innovation zu sichern – auch und gerade unsere digitale Souveränität.“ Das sagte Friedrich Merz bei der Akademie der Technikwissenschaften im Oktober.

Vielleicht keine schlechte Idee, sie hatte nur schon mal jemand. „Wir müssen unsere eigene digitale Souveränität stärken, aber ohne globale Wertschöpfungsketten zu kappen und selbst in Protektionismus zu verfallen.“ Das sagte sein Amtsvorgänger Olaf Scholz 2022 auf der Republica. 2021 wollte Ursula von der Leyen Europa „fit für das digitale Zeitalter“ machen – und dabei, natürlich, die digitale Souveränität stärken. Und Emmanuel Macron stellte 2020 fest: „Die Handlungsfreiheit Europas erfordert wirtschaftliche und digitale Souveränität.“

Noch etwas früher fragte jemand anderes: „Wie können wir sozusagen unsere digitale Souveränität erhalten?“ Es war Angela Merkel. „Wir haben eine staatliche Souveränität; und man hätte auch in bestimmten Bereichen ganz gerne eine digitale Souveränität. Dabei ist es so, dass wir neidlos anerkennen müssen, dass uns in bestimmten Bereichen die Weltentwicklung ein Stück davonläuft.“ Was sie als Herausforderung begriff – die zu bewältigen die Aufgabe gewesen wäre.

In solchen Momenten deutlicher Spontanerkenntnis temporär Verantwortlicher – Merkel 2014 in Folge der NSA-Affäre, Macron bei seiner EU-Militärstrategierede 2020, Scholz in Folge von Coronakrisen-Lieferkettenkrise und Huawei-Diskussion, Merz aufgrund der Probleme mit der Trump-Administration und China – werden Louis-de-Funes-Memes unter Mitarbeitern von Abgeordneten und Ministerien versandt: Nein! – Doch!- Oh! Die französische Originalsequenz („Non! – Si! – Oh!“) hat, das sei angemerkt, nicht annähernd die gleiche Bekanntheit erlangt wie die deutsche Synchronisation.

Weiterlesen nach der Anzeige

Es wäre falsch, der Politik dabei die alleinige Verantwortung für die Situation zuzuschieben. Denn: den Löwenanteil an zu großen Abhängigkeiten verantworten andere, insbesondere die Wirtschaft. Immerhin ist es ihr Geschäftsrisiko, wenn Prozesse nicht mehr funktionieren.

Und doch gibt die Politik jene Regeln vor, die einzuhalten sind. Mit der an diesem Donnerstag endlich verabschiedeten NIS2-Umsetzung etwa. Mit der werden nun endlich weitreichende Regeln eingeführt, wie nicht vertrauenswürdige Hersteller aus nicht vertrauenswürdigen Herkunftsländern mit ihren nicht vertrauenswürdigen Produkten an neuralgischen Stellen nicht mehr verbaut werden dürfen. Das scheint eine dem Grunde nach hervorragende Idee. Noch besser wäre gewesen, damit nicht erst einmal eine kleine Ewigkeit zu warten.

Und natürlich ist sie unvollständig. Denn hier wird wieder nur ein Teilsegment adressiert. Nirgendwo zeigt sich das systematische Problem so deutlich wie in dem Teil des Energiesektors, der einzeln betrachtet klein ist: Elektroauto, Heimspeicher, Wechselrichter, sie alle können – und sollen oft auch – vernetzt sein. Und jeder einzelne Privathaushalt mit seinem Auto, seiner Solaranlage, seinem Batteriespeicher ist rechtlich unkritisch. Hier gibt es keine kritischen Komponenten, selbst wenn alle am identischen Updateserver hängen.

Ähnliches gilt bei der Software: Natürlich ist die Souveränität Deutschlands nicht durch die Abhängigkeit einer einzelnen Stelle von Microsoft-Software, einem bestimmten Cloudanbieter oder einer Firewall-Lösung gefährdet. Erst die Summe an Einzelbetroffenheiten macht die großflächige, wahre Betroffenheit in der Souveränitätsfrage aus. Und viele Unternehmen haben noch nicht einmal eine Idee, von was sie abhängig sind.

Aus Sicht politisch Zuständiger etwa würden Chipfabriken helfen, digital unabhängiger zu werden. Fachleute weisen auf nötige Vorprodukte, Spezialchemie, Wafer, Lithografiemaschinen hin. Und auf Leiterplatten, bei denen der Weltmarkt ebenfalls geografisch stark fokussiert ist. Ohne die geht kein Chip in irgendein Produkt.

Schon vor vier Jahren veröffentlichte das Wirtschaftsministerium eine Schwerpunktstudie, um kritische Abhängigkeiten besser zu erkennen. Was seitdem tatsächlich passiert ist?

Tatsächlich geben sich etwa US-Konzerne große Mühe, dem Problem irgendwie zu entkommen, dass sie in Deutschland und Europa gute Geschäfte machen wollen, aber gleichzeitig immer US-Recht unterliegen. Chinesische Anbieter beteuern, dass sie doch nur Geld verdienen wollten, und es doch vollkommen unlogisch wäre, ein gutes Geschäft durch staatliche Interessen zu gefährden. Und deutsche und europäische Unternehmen verschweigen gern, dass auch sie einem gewissen Erpressungspotenzial unterliegen: Das China- oder USA-Geschäft ist, je nach Branche und Unternehmen, von ausgeprägter Bilanzrelevanz.

In dieser Gemengelage richtet die Bundesregierung am Dienstag einen recht speziellen Gipfel aus: den Europäischen Gipfel zur digitalen Souveränität 2025. Als deutsch-französische Inititative gestartet, soll er eine Einladung auch an andere EU-Mitgliedstaaten sein. Für den Bundeskanzler Friedrich Merz geht es dabei vor allem um wirtschaftliche Chancen. Für Emmanuel Macron geht es um ein französisch-deutsches Aufbruchsignal. Und deutsche Unterstützung für knallharte, französische Interessen.

Denn wenn alle EU-Staats- und Regierungschefs zusammensitzen, zuletzt Ende Oktober kommen dabei Sätze heraus wie dieser: „Angesichts des geopolitischen Wandels, des raschen technologischen Wandels und des zunehmenden globalen Wettbewerbs um Innovation, Talente und Investitionen ist es von entscheidender Bedeutung, den digitalen Wandel in Europa voranzubringen, seine Souveränität zu stärken und sein eigenes offenes digitales Ökosystem auszubauen.“

Das klingt gar nicht so schlecht, könnte man denken. Bloß: Bislang hat es gerade einmal dazu gereicht, ein paar Vorzeigeprojekte zu starten. Eine quelloffene Kollaborationslösung für den Arbeitsplatz der Verwaltung ist fein, beeindruckt aber längst nicht alle auf diesem Planeten. Das ortsgetreue Ersetzen von On-Premise-Rechenzentren durch geolokalisierte, mit US-Betriebsmitteln ausgestattete KI-Clouds wird Deutschland und Europa ebenfalls höchstens punktuell voranbringen.

Was fehlt, ist die zündende Idee, wie es wirklich zu Skaleneffekten kommen kann: Wo kann Europa sich so viel besser und unverzichtbar machen, dass andere sich hier eine Abhängigkeit wünschen müssen? Das kleine, vorab gegebene Versprechen, dass der Staat als Ankerkunde künftig europäische Unternehmen stützen wollen würde, ist kein ausreichender Plan. Und rechtlich auch noch lange nicht in trockenen Tüchern. Aber niemand würde von Friedrich Merz wirklich mehr zum Thema erwarten.

Wenn am Dienstag dann Frankreichs Staatspräsident Emmanuel Macron und der Bundeskanzler ihre Sprechzettel zücken und die Lage der digitalen Souveränität bemängeln, aber Besserung versprechen, dann wird es maßgeblich darauf ankommen, was ab Mittwoch wirklich passiert. Wenn denn überhaupt etwas passiert. Während die Welt immer vernetzter und digitaler wird, wird Europa immer abhängiger. Nein! – Doch! – Oh!


(nen)



Source link

Weiterlesen

Künstliche Intelligenz

Battle of the NASen: Zwei Raspi-NAS im Vergleich


Netzwerkspeicher alias Network Attached Storage (NAS) bekommt man ab etwa 160 Euro in allerhand Bauformen. Synology, QNAP, Asustor, Ugreen und viele weitere Hersteller kombinieren kompakte Hardware mit einfach zu bedienender, aber proprietärer Software. Wer hingegen Wert auf quelloffenen Code legt, wird in den Sortimenten selten fündig. Besonders im unteren Preissegment sieht man meist ARM-CPUs ohne öffentliche Dokumentation, bei denen der Tausch des Betriebssystems schwer bis unmöglich ist. Doch der Raspberry Pi kann auch für ein NAS als rettende Alternative herhalten, nötig sind nur passende PCIe-Adapter beziehungsweise Basisplatinen für das Raspberry Pi Compute Module – also das Aufsteckplatinchen.

Zwei dieser Optionen fanden wir besonders interessant und haben sie unter die Lupe genommen: Das CM4-NAS-Double-Deck von Waveshare und die NVMe Base Duo von Pimoroni. Ersteres nimmt ein Compute Module 4 (CM4) sowie zwei 2,5-Zoll-SATA-SSDs auf, der andere ist ein Unterflur-Adapter für den Raspberry Pi 5 B, der per Flachbandkabel an dessen PCIe-Anschluss gesteckt und mit zwei NVMe-SSDs bestückt wird. Beide sind also reine Flash-NAS, die für Magnetfestplatten ungeeignet sind.

  • Aus der vierten Raspberry-Generation taugt nur das Compute Module für den NAS-Betrieb.
  • Durch SSDs liegt die Leistungsaufnahme bei wenigen Watt.
  • Die Software OpenMediaVault macht den Raspi mit wenigen Klicks zum Netzwerkspeicher.

Während der Pimoroni-Adapter den Raspberry-Pi-Fußabdruck beibehält und lediglich das schlichte Gehäuse etwas dicker aufträgt, um Platz für den Adapter zu schaffen, hat Waveshare ein eigenes Gehäuseformat samt Platine entwickelt und ein 2-Zoll-Farbdisplay als Statusanzeige ergänzt.


Das war die Leseprobe unseres heise-Plus-Artikels „Battle of the NASen: Zwei Raspi-NAS im Vergleich“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

Montag: Musk-Klage gegen Apple & OpenAI, Raumgleiter-Test ohne Zukunftsaussicht


Ein US-Gericht hat die Kartellklage von Elon Musks Unternehmen xAI gegen Apple und OpenAI als zulässig erachtet. Der iPhone-Konzern und das KI-Startup hätten sich illegal verschworen, um den Wettbewerb bei KI zu behindern. Durch die gerichtliche Zulassung dieser Verschwörungstheorie müssen sich die Beteiligten jetzt schriftlich äußern. Derweil hat Dream Chaser weitere Tests abgeschlossen, obwohl der Raumgleiter in diesem Jahr bereits Transportmissionen zur ISS hätte fliegen sollen. Daraus wird nichts. Aber nachdem Dream Chaser jetzt weitere Meilensteine erreicht hat, soll die erste Mission Ende 2026 stattfinden. Investitionen ohne bislang nennenswerten Ertrag hat auch Meta zu verzeichnen. Virtual und Augmented Reality hat sich der Facebook-Konzern bislang über 100 Milliarden Dollar kosten lassen. Doch was hat Meta erreicht, und was bleibt Vision? Dazu haben wir eine Bestandsaufnahme – die wichtigsten Meldungen im kurzen Überblick.

Weiterlesen nach der Anzeige

Im August hatte Elon Musk Apple und OpenAI verklagt, weil sie angeblich gemeinsame Sache machen, um seinen Chatbot Grok zu behindern. Apple mache es unmöglich, dass andere als ChatGPT die Nummer 1 in den App-Store-Charts werden können. Das sei ein eindeutiger Verstoß gegen das Kartellrecht. Ähnliches gelte auch für den Client zu seiner Plattform X, der weniger erfolgreich sei als früher Twitter. Experten halten diesen Vorwurf zwar für ziemlich absurd, und sowohl Apple wie OpenAI bestreiten ihn. Trotzdem hat der Bundesrichter in Texas jetzt entschieden, dass die Klage zulässig sei. xAI fordert nicht nur bessere Platzierungen über den App-Store-Algorithmus, sondern auch Zugang von Grok zu Siri, Apples Sprachassistentin: Apple und OpenAI müssen sich der Klage Elon Musks stellen.

Der als inoffizieller Nachfolger des Space Shuttle bezeichnete Dream Chaser hat in den letzten Tagen eine Reihe kritischer Tests als Vorbereitung auf die erste Mission dieses Raumgleiters absolviert. Nach dem Anfang dieses Jahres bestandenen Test für eine Frachtmission sollte Dream Chaser Mitte 2025 zur Internationalen Raumstation ISS fliegen, doch dazu ist es nicht gekommen. Jetzt peilt Sierra Space das vierte Quartal 2026 für die erste Mission dieses Raumfahrzeugs an. Dabei ist der Verwendungszweck des Dream Chaser weiterhin offen. Denn der NASA-Auftrag für ISS-Missionen ist hinfällig und die ISS wird den Betrieb in wenigen Jahren ohnehin einstellen: Entwicklung des Raumgleiters Dream Chaser geht trotz ungewisser Zukunft weiter.

Der Zukunft gewiss war sich Mark Zuckerberg vor einigen Jahren. „Unsere Vision ist, dass VR und AR in zehn Jahren die nächste große Computerplattform nach dem Smartphone sein werden“, schreibt er in einem internen Memo, in dem er seine Strategie für den Weg dorthin darlegt und erläutert, warum dieser Wandel wichtig für das Unternehmen ist. In der nächsten Computer-Ära wolle das Unternehmen daher eine stärkere strategische Position einnehmen. „Das können wir nur erreichen, indem wir eine bedeutende Plattform und zentrale Apps entwickeln.“ Doch das Memo von 2015 beschreibt den heutigen Status quo. Seitdem hat Meta Milliarden für Virtual und Augmented Reality ausgegeben, ohne bislang nennenswerten Ertrag: Meta investierte 100 Milliarden Dollar ins Metaverse – Wo bleibt es?

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier eine externe Umfrage (Opinary GmbH) geladen.

Nicht erst seit der Pandemie sind Webinare und Online-Kurse ein elementarer Teil der beruflichen Weiterbildung. Rechtlich fallen derartige Angebote unter das Fernunterrichtsgesetz (FernUSG). Nachdem dessen Regelungen über Jahre kaum praktische Relevanz hatten, führen nun mehrere Entscheidungen des Bundesgerichtshofs (BGH) zu einem regelrechten Flächenbrand für die deutsche Digital- und Weiterbildungslandschaft. Denn durch die FernUSG-Einstufung nahezu aller derartigen Angebote sind entsprechende Verträge nichtig, wenn die Anbieter keine staatliche Zulassung besitzen. Teilnehmer können damit selbst nach Abschluss der Kurse alle Gebühren zurückfordern. Zudem ist der Zulassungsprozess zu lang für moderne Technik: Wie der BGH mit einem 70er-Jahre-Gesetz die digitale Weiterbildung lahmlegt.

Überall da, wo es möglich ist, nur noch Bauteile aus eigener Produktion – das ist der Plan der Bundesregierung für die deutschen Telekommunikationsnetze, den Kanzler Friedrich Merz kürzlich überraschend ankündigte. „Und wir werden keine Komponenten aus China im 6G-Netz zulassen“, fügte Merz hinzu. Eine genauere Einordnung, etwa, was nach diesem Maßstab als „selbst produziert“ gilt, lieferte Merz nicht. Zudem habe Merz gesagt, er wolle das Thema kommende Woche beim europäischen Gipfel für Digitale Souveränität einbringen. Dort soll mit der Industrie darüber gesprochen werden, was getan werden kann, um nicht nur von China unabhängiger zu werden, sondern auch von den USA und den großen Technologieunternehmen, so Bundeskanzler Merz: „Werden keine Komponenten aus China im 6G-Netz zulassen“.

Weiterlesen nach der Anzeige

Auch noch wichtig:


(fds)



Source link

Weiterlesen

Beliebt