Connect with us

Künstliche Intelligenz

Support-Aus für Windows-10- und 11-Versionen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Dass das Ende von Windows 10 naht, sollte inzwischen bekannt sein. Dennoch erinnert Microsoft daran, dass es in 60 Tagen so weit ist. Aber auch Windows-11-Versionen ziehen die Redmonder den Stecker.

Darauf weist Microsoft nun im Message Center der Windows Release Health Notizen hin. Der erste Hinweis gilt natürlich Windows 10 22H2. Die Ausgaben Home, Pro, Enterprise, Edu und IoT Enterprise erreichen am 14. Oktober 2025 ihr Lebensende. Ebenfalls betroffen sind Windows 10 2015 LTSB und Windows 10 IoT Enterprise LTSB 2015, ergänzt der Hersteller. Erstmalig können jedoch auch Privatanwender am Extended Security Updates (ESU) teilnehmen und so das Unvermeidliche um 12 Monate hinauszögern. Microsoft bevorzugt jedoch die empfohlene Lösung, dass Betroffene auf Windows 11 migrieren.

Aber auch da gibt es eigentlich nur eine Fassung, die als Migrationsziel dienen kann, da das Unternehmen älteren Builds den Support-Hahn abdreht. Microsoft weist nämlich darauf hin, dass auch für Windows 11 22H2 in 60 Tagen der Support endet. Die Versionen Enterprise, Edu, IoT Enterprise erreichen dann das Service-Ende – die Windows 11 22H2 Home- und Pro-Versionen waren bereits vor einem Jahr „fällig“.

Da die Home- und Pro-Versionen von Windows 11 lediglich 24 Monate Support erhalten – siehe dazu auch die FAQ zum Windows-Produkt-Lebenszyklus von Microsoft –, hat der Hersteller auch eine Erinnerung 90 Tage vor dem Aus von Windows 11 23H2 für Privatanwender herausgegeben. Dort wird das Sicherheitsupdate zum November-Patchday das letzte sein.

Nach Oktober respektive November erhalten die genannten Windows-Versionen keine Funktions- und Sicherheitsupdates mehr. Sie stehen dann schutzlos vor neuen Bedrohungen und Sicherheitslücken. Microsoft empfiehlt daher, auf Windows 11 24H2 zu aktualisieren – die derzeit jüngste Windows-11-Version. In den Vorschau-Kanälen ist derzeit Windows 11 25H2 im Test. Der Build rückt in den Insider-Kanälen immer näher Richtung „Release“, der in diesem Herbst zu erwarten ist. Einen genauen Zeitplan hat Microsoft dafür jedoch noch nicht genannt.


(dmk)



Source link

Künstliche Intelligenz

Genie 3, Superintelligenz und Weltmodell: Was hinter den KI-Buzzwords steckt


Deepminds Genie 3 ist ein neues KI-Modell, das interaktive 3D-Welten in Echtzeit generieren kann. Solche Weltmodelle sieht Deepmind als zentrale Bausteine bei der Entwicklung einer Superintelligenz. Aber was ist eigentlich ein „Weltmodell“ und was hat das mit fortgeschrittener Künstlicher Intelligenz zu tun?

Deepmind bezeichnet sein KI-Modell so, weil es nach den Anweisungen aus einem Prompt eine virtuelle Welt erzeugt – oder besser gesagt eine 3D-Szene, die einen Ausschnitt aus einer virtuellen Welt darstellt. Über Prompts kann ein User oder auch ein Software-Agent begrenzt mit dieser Welt interagieren. Sich also zum Beispiel darin bewegen oder einen Gegenstand greifen. Das Modell reagiert auf solche Prompts, indem es die damit modifizierte Welt darstellt.

Aber von KI-Forschenden und Robotikern wird der Begriff ganz anders verwendet.

Weil nicht mal der Begriff „Intelligenz“ wirklich sauber definiert ist, gibt es natürlich auch kein einheitliches Verständnis davon, was eine „Superintelligenz“ ist. Viele Arbeitsdefinitionen gehen jedoch davon aus, dass eine KI aufgrund ihrer Fähigkeiten beurteilt werden sollte. Sobald sie also in der Lage ist, ähnliche Dinge wie ein Mensch zu tun, kann sie als intelligent angesehen werden. Solch eine „Allgemeine Künstliche Intelligenz“ (gebräuchlich ist der englische Ausdruck Artificial General Intelligence, AGI) gilt als erster Schritt hin zur Superintelligenz.

Einig sind sich die meisten Experten auch darin, dass KI-Modelle sich nur dann intelligent verhalten können, wenn sie ein abstraktes Verständnis der Welt entwickeln – ein Weltmodell. Das Weltmodell enthält verallgemeinertes, abstrahiertes Wissen über Gegenstände und Subjekte in der Welt, aber vor allem auch über Zusammenhänge zwischen ihnen.

Die Antwort auf diese Frage ist umstritten. Es gibt interessante Indizien, die sowohl für als auch gegen das Vorhandensein von Weltmodellen in LLMs sprechen.

Auf den ersten Blick sind große Sprachmodelle nur statistische Maschinen, die das laut ihren Trainingsdaten wahrscheinlichste nächste Wort ausspucken – stochastische Papageien.

Auf der anderen Seite argumentieren Forschende, dass das Trainingsmaterial in der Regel bereits eine ganze Menge Weltwissen enthält, und das Modell dieses Weltwissen während des Trainings in komprimierter Form abspeichert. Und um das zu können, muss es abstrahieren.

Kenneth Li von Harvard University konnte 2023 zeigen, dass ein großes Sprachmodell nur durch Beispiele offenbar die Regeln des strategischen Brettspiels Othello lernen kann. Der Befund ist aber umstritten, weil die Messergebnisse nicht eindeutig sind.

Aktuell gibt es ein neues Othello-Paper – ein Test mit kleinen Sprachmodellen, die aufgrund ihrer Größe eigentlich das Spiel nicht abbilden können, aber trotzdem sinnvolle Züge finden. Die Forschenden werten das als Indiz dafür, dass die Modelle nur aus Beispielen die Regeln des Spiels gelernt haben. Sie hätten damit ein internes, kleines Weltmodell der Othello-Spielwelt erzeugt.

Forschende von Deepmind legten zudem ein ganz ähnliches Paper vor, in dem sie dem Modell Schach beibrachten – und zwar auf einem ziemlich hohen Niveau.

Anderseits testete die Komplexitätsforscherin Melanie Mitchell gemeinsam mit Kollegen bereits 2023 das Abstraktionsvermögen von GPT-4 anhand von grafischen – also nicht sprachlichen – Testaufgaben und stellte fest, dass die KI „kein Anzeichen von robustem Abstraktionsvermögen auf menschlichen Niveau“ zeigt. Ein Befund, der auch mit neueren Modellen und neuen Versionen des Tests noch gültig ist.

Deepmind arbeitet schon lange daran, KIs intelligenter zu machen, indem sie selbstständig lernen, Probleme zu lösen: Die Software probiert zunächst wahllose Aktionen aus, um ein Problem zu lösen. Eine Feedback-Schleife sorgt jedoch dafür, dass erfolgreiche Aktionen belohnt werden. Das System probiert diese Aktionen also öfter und wird mit der Zeit immer besser. Dieser Ansatz wird Verstärkungslernen (Reinforcement Learning) genannt.

Im Prinzip sei dieses Meta-Learning „ein wesentlicher Schlüssel zur künstlichen allgemeinen Intelligenz“, sagte der KI-Forscher Matthew Botvinick 2018 – damals bei DeepMind. „Denn unsere Welt besitzt eine spezifische Eigenart: Wir erleben niemals dieselbe Situation zweimal, aber wir erleben auch niemals eine komplett neue Situation. Jedes intelligente System muss also die Fähigkeit besitzen, die Erfahrungen der Vergangenheit zu nutzen, um sie auf elegante und schnelle Weise auf neue Aufgaben zu übertragen.“

Die große Herausforderung bestünde nun allerdings darin, Systeme zu bauen, die immer abstraktere Konzepte entdecken können. Ein Schlüssel dafür, glaubt Botvinick, sei die richtige Umgebung, in der die KI-Systeme trainieren, leben und lernen können. Sie zu finden, sei eines der großen Ziele in der KI-Forschung. Genie 3 ist offenbar der Versuch, solch eine komplexe Umgebung zu erschaffen, um autonome KI-Agenten zu trainieren.

Dieser Beitrag ist zuerst auf t3n.de erschienen.


(wst)



Source link

Weiterlesen

Künstliche Intelligenz

Playstation VR2 auf PC: Entwickler schalten PS5-exklusive Features frei


Das gestern veröffentlichte „Playstation VR2 Toolkit“ bringt PC-Unterstützung für Eye-Tracking, 10-Bit-Farbtiefe, adaptive Trigger und eine verbesserte Tracking-Vorhersage der PS VR2 Sense Controller. Letzteres bietet unter anderem in reaktionsschnellen VR-Spielen wie „Beat Saber“ einen Vorteil.

Das Toolkit wertet die Playstation VR2 deutlich auf: PC-Headsets mit Eye-Tracking kosten in der Regel weit über 1000 Euro, während die PlayStation VR2 inklusive PC-Adapter bereits für unter 500 Euro erhältlich ist.

Einen Haken hat die Sache jedoch: Damit SteamVR-Apps Eye-Tracking und adaptive Trigger unterstützen, müssen sie zunächst von den App-Entwicklern über proprietäre Schnittstellen implementiert werden. Zum aktuellen Zeitpunkt wird Eye-Tracking in der beliebten Metaverse-App VRChat unterstützt. Dafür müssen Nutzer neben der Treiber-Mod eine separat erhältliche Datei installieren.

Für die Zukunft plant das dreiköpfige Entwicklerteam weitere Tracking-Verbesserungen, hochwertigere haptische Effekte für die Sense-Controller sowie die Unterstützung von OpenXR-basiertem Eye-Tracking, verrät der leitende Entwickler „whatdahooper“ im Gespräch mit heise online. Letzteres könnte in Zukunft dynamisches Foveated Rendering in PC-VR-Spielen wie Microsoft Flight Simulator 2024 ermöglichen. Das Team arbeitet zudem daran, die Headset-Haptik freizuschalten, hat dafür aber noch keine Lösung gefunden.

Das Toolkit ist eine Modifikation von Sonys offiziellen SteamVR-Treibern. Bei der Installation wird eine DLL-Datei umbenannt und durch die DLL-Version des Toolkits ersetzt. Die Entwickler weisen darauf hin, dass die 10-Bit-Farbtiefe auf neueren AMD-GPUs nicht funktioniert. Ursache ist ein AMD-seitiges Problem, das außerhalb des Einflussbereichs der Toolkit-Entwickler liegt.

Das Playstation VR2 Toolkit ist auf Github erhältlich und Open-Source, mit Ausnahme der Eye-Tracking-Kalibrierung.

Seit Anfang August 2024 bietet die Playstation VR2 SteamVR-Kompatibilität. Für die PC-Anbindung wird ein separat erhältlicher offizieller PC-Adapter, die Playstation-VR2-App auf Steam, ein DisplayPort-1.4-Kabel sowie ein kompatibler Bluetooth-Adapter benötigt, falls der PC nicht bereits über integriertes Bluetooth verfügt.

Sony verzichtete bei der PC-Anbindung auf eine Reihe wichtiger PS5-Features, darunter Eye-Tracking, HDR, adaptive Trigger und Headset-Haptik. Mit dem „PS VR2 Toolkit“ sind nun einige dieser Funktionen für den PC verfügbar.

Das Toolkit bringt übrigens keine HDR-Unterstützung wie auf der PS5. Die dafür nötige zusätzliche Leuchtdichte fehlt bei der PC-Anbindung, da es dafür keine entsprechende Treiberunterstützung seitens SteamVR gibt.


(tobe)



Source link

Weiterlesen

Künstliche Intelligenz

Elternratgeber E-Lastenrad: Richtiges Modell wählen, Vorteile nutzen


Kids rein, Windeln rein, Einkäufe rein und vielleicht sogar noch den Hund rein: Mit dem E-Lastenrad transportiert man viel! Sie sind besonders bei Familien mit Kindern beliebt und im urbanen Raum mittlerweile fester Teil des Stadtbildes. Marktdaten zeigen, dass sich ihre Zahl zwischen 2020 und 2024 mehr als verdoppelt hat.

Gerade für kurze Distanzen sind sie eine umweltfreundliche und praktische Alternative zum Auto. Worauf Eltern bei der Anschaffung achten sollten, welche Vorteile E-Lastenräder für Familien mit Kindern haben und warum sogar das Mitfahren in E-Bikes gesünder macht, haben wir mit Experten gesprochen und ihre Tipps in diesem Ratgeber zusammengestellt.

  • E-Lastenräder sind beliebt: Nach Zahlen des Verbands der Zweiradindustrie (ZIV) wurden allein 2024 in Deutschland 220.500 Lastenräder verkauft, mehr als 80 Prozent davon mit Motor.
  • Kunden stehen vor der Auswahl verschiedener Bauweisen, etwa klassischen Transportboxen an der Front mit zwei oder drei Rädern, den neueren Longtails mit verlängertem Heck und sogar faltbaren Modellen.
  • Lastenräder sind für Eltern mit Kindern eine praktische Alternative zum Auto, für den sicheren Transport des Nachwuchses sind aber Dinge wie die richtige, gepolsterte Sitzgelegenheit zu beachten.

Dieser Artikel beantwortet Fragen, die Eltern vor der Anschaffung eines Lastenrads haben: Ab welchem Alter dürfen Kinder mit und wie sorgen Sie für eine sichere Fahrt? Wir geben Ratschläge für die Wahl des richtigen Modells, ob mit zwei oder drei Rädern. Unser Ratgeber nennt außerdem Beispiele für verschiedene Marken und Typen, damit Sie sich auf dem Markt orientieren können.


Das war die Leseprobe unseres heise-Plus-Artikels „Elternratgeber E-Lastenrad: Richtiges Modell wählen, Vorteile nutzen“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Beliebt