Connect with us

Apps & Mobile Entwicklung

Tesla: Full Self-Driving (Supervised) Probefahrt in Deutschland


Tesla bietet Interessenten seit Anfang Dezember Mitfahrten in Modellen mit Full Self-Driving (Supervised) an. Damit kann das Fahrzeug weitgehend autonom durch die Stadt sowie über Landstraßen und Autobahnen navigieren. Eine erste Probefahrt in Berlin zeigt, dass Tesla Vision nur mit Kameras für eine souveräne Fahrt sorgen kann.

Der Termin bei Tesla in Schönefeld stand unter schlechten Vorzeichen: Zunächst wurde der Redaktion die ursprünglich gebuchte Probefahrt vom 2. auf den 4. Dezember verschoben. Und zum Termin wollte man von der ausgemachten Mitfahrt um 9 Uhr morgens zunächst einmal nichts mehr wissen, da Mitfahrten generell erst ab 10 Uhr möglich seien. Nach Rücksprache mit den Kollegen und rund 20 Minuten Verspätung ließ sich das Dilemma jedoch lösen und es konnte auf autonome Probefahrt zum 7,3 km entfernten Supercharger in Waltersdorf (und im Anschluss wieder zurück) gehen.

FSD-Mitfahrten bis Ende März verlängert

Tesla bietet Termine für Probefahrten mit Full Self-Driving (FSD) unter Aufsicht (Supervised) seit Ende November an mehreren Standortden in Deutschland an. Noch am selben Tag der Bekanntgabe waren in Berlin Schönefeld und weiteren Städten sämtliche Slots ausgebucht. Das hat Tesla zwischenzeitlich dazu veranlasst, weitere Termine bis Ende März anzubieten.

In Berlin ohne Betreuung durch Pressesprecher

Die Termine richten sich an Interessenten aller Couleur, es handelt sich demnach nicht um ein Angebot ausschließlich für die Presse. Ganz im Gegenteil: Bei Tesla in Berlin Schönefeld war im Gegensatz zur Probefahrt von Heise (Paywall) kein Tesla-Pressesprecher zur Fahrt anwesend. Aus rechtlichen Gründen durfte der Mitarbeiter in den Videoaufnahmen weder zu sehen noch zu hören sein. Deshalb musste der Ton im Video bei Gesprächen wiederholt entfernt werden.

Die komplette FSD-Mitfahrt im Video

Das nachfolgende Video zeigt die gesamte FSD-Mitfahrt annähernd ungeschnitten. Gekürzt wurde lediglich eine mehrminütige, ereignislose Parkphase am Supercharger.

Noch kein Termin für Full Self-Driving in Deutschland

Die aktuell angebotenen Probefahrten sind als Hinweis darauf zu werten, dass Tesla das Fahren mit Full Self-Driving (Supervised) auch in Deutschland anbieten möchte. Nach wie vor gibt es jedoch noch keine Zulassung durch das Kraftfahrtbundesamt und somit auch noch keinen offiziellen Termin für die Markteinführung von FSD Supervised in Deutschland. Der Marktstart könnte mit Blick auf die aktuell angebotenen Mitfahrten mittel- bis langfristig bevorstehen, offiziell ist daran bislang aber noch nichts.

Volles Potenzial für autonomes Fahren

Bekannt ist aber schon heute, dass aktuelle Fahrzeuge mit der perspektivischen Verfügbarkeit von FSD Supervised lediglich ein Software-Update benötigen, um entsprechend auf der Straße agieren zu können. Die Fähigkeit selbst haben Besitzer entweder bereits mit der Sonderausstattung „Volles Potenzial für autonomes Fahren“ für 7.500 Euro erworben oder können dieses Upgrade alternativ im Nachgang über die App erwerben.

Full Self-Driving entspricht Level 2+

FSD Supervised entspricht dem Fahren nach „Level 2+“, wobei es sich dabei um eine inoffizielle Bezeichnung für Level 2 handelt, das keine Hände mehr am Lenkrad voraussetzt. Das dauerhaft freihändige Fahren verlangt dennoch die volle Aufmerksamkeit des Fahrers, der permanent das Fahrgeschehen überwachen und gegebenenfalls sofort eingreifen können muss. Anders als bei Level 3 (Test) gibt es keine Übernahmefrist und die Fahraufgabe wird nicht vollständig an das Auto übergeben. Auch Nebentätigkeiten wie das Lesen oder Filme bleiben untersagt. Dafür steht das „Supervised“, also das autonome Fahren unter Aufsicht des Fahrers. Eine Innenraumkamera am Rückspiegel sorgt für das Einhalten dieser Vorgabe.

Probefahrt mit Tesla Model 3 und FSD Supervised
Probefahrt mit Tesla Model 3 und FSD Supervised
Tesla Center Berlin Schönefeld
Tesla Center Berlin Schönefeld
Tesla Center Berlin Schönefeld
Tesla Center Berlin Schönefeld

Vision Only setzt ausschließlich auf Kameras

Tesla verfolgt bei FSD einen Vision-Only-Ansatz. Seit 2022 werden im Model 3 und Model Y nur noch Kameras verbaut, seit 2023 gilt dies auch für das Model S und X.

Vision Only bedeutet, dass die Fahrzeuge ihre gesamte Umgebung ausschließlich über Kameras wahrnehmen. Statt zusätzliche Sensoren wie Radar oder Lidar zu nutzen, setzt Tesla auf ein System, das die Welt ähnlich wie ein Mensch mit den Augen erfasst. Ein neuronales Netzwerk verarbeitet die Videodaten, rekonstruiert dreidimensionale Szenen, erkennt Objekte und schätzt Entfernungen sowie Bewegungen. Dieses System wird kontinuierlich mit riesigen Mengen realer Fahrdaten trainiert, um die Wahrnehmungs- und Entscheidungsfähigkeiten zu verbessern.

Strategisch verfolgt Tesla damit das Ziel, Kosten, Komplexität und Sensor-Fusion-Probleme zu reduzieren. Wenn alle Fahrzeuge nur Kameras verwenden, kann Tesla Software-Updates schneller entwickeln und weltweit ausrollen, weil die Hardware in den Fahrzeugen einheitlich ist. Zudem glaubt Tesla, dass ein System, das „wie ein Mensch sieht“, langfristig besser skalierbar und effizienter für vollautonomes Fahren ist. Die deutschen Autohersteller sehen das bekanntlich anders.

Full Self-Driving (Supervised) Software v14.1.7

Die Probefahrt in Berlin Schönefeld erfolgte in einem nagelneuen Model 3 mit der Full Self-Driving (Supervised) Software v14.1.7. Das ist der Stand vom 12. November, zwischenzeitlich sind die Versionen 14.2 und 14.2.1 von Tesla veröffentlicht worden.

Tesla Model 3 mit FSD Supervised Software v14.1.7
Tesla Model 3 mit FSD Supervised Software v14.1.7

Souveräne Probefahrt gleich vom Start weg

Nach dem initial eher negativen Eindruck bedingt durch den verschobenen und dann zunächst nicht im System gefundenen Termin, erfolgte der Start in die Probefahrt selbst dann allerdings auf Anhieb in gleich mehrfacher Hinsicht mit positiven Überraschungen.

Zunächst einmal startete die FSD-Fahrt direkt vom Parkplatz des Tesla-Centers aus und nicht erst auf öffentlichen Straßen – FSD lässt sich bei aktiver Routenführung über eine entsprechend beschriftete, blaue Schaltfläche auf dem Zentraldisplay starten. Außerdem begann sie mit der Fahrt durch eine enge Ausfahrt, die vorsichtig, aber mit Bravour gemeistert wurde, bevor gleich darauf ein U-Turn um einen Mittelstreifen notwendig war, für den das Model 3 aufgrund eines geparkten Anhängers sogar einmal kurz zurücksetzen musste. Dieser Vorgang lief derart geschmeidig und präzise ab, dass man meine könnte, im Hintergrund hätte ein menschlicher Fahrer das Wendemanöver ausgeführt. Tatsächlich musste der Tesla-Mitarbeiter aber während der gesamten Hin- oder Rückfahrt kein einziges Mal in das Fahrgeschehen eingreifen.

GIF FSD macht einen U-Turn

Tesla meistert Stadt, Landstraßen und Autobahn

Im Gegensatz zum Autobahnassistenten von BMW (Level 2+) oder Drive Pilot von Mercedes-Benz (Level 3) ist Teslas FSD nicht auf einen spezifischen Straßentyp limitiert. Das System lässt sich in der Stadt und mit fließendem Übergang auf Landstraßen und Autobahnen nutzen. BMW will ab der zweiten Jahreshälfte 2026 einen City-Assistenten anbieten, der die Geschwindigkeit vor Kurven, Kreisverkehren und Abbiegungen anpasst. Der City-Assistent hilft beim Bremsen an erkannten roten Ampeln und fährt automatisch bei Grün an oder erinnert den Fahrer daran wieder anzufahren.

Bei Tesla funktionierte all das im Rahmen der Testfahrt schon jetzt auf allen Straßentypen. Die Mitfahrt erfolgte vom Tesla-Center in Schönefeld durch die umliegende Stadt, über Bundesstraßen und Autobahnen, und wieder durch die Stadt – sowie umgekehrt zum Tesla-Center. Das Fahrzeug sortierte sich dabei eigenständig in Spuren ein, durchfuhr Kreisel, wartete an roten Ampeln und fuhr bei Grün wieder los, navigierte auf Autobahnauffahrten und sortierte sich rechtzeitig wieder auf Abfahrten ein, ließ Fußgänger über einen Zebrastreifen laufen und parkte eigenständig. Kein einziges Mal war ein manueller Eingriff notwendig.

GIF FSD fährt durch einen Kreisel

Vision Only funktioniert (bei gutem Wetter)

Die Probefahrt mit FSD Supervised lief erstaunlich souverän und verdeutlichte, dass Tesla mit dem Vision-Only-Ansatz – was das Endergebnis betrifft – durchaus einiges richtig macht. Zur Wahrheit gehört aber auch, dass im Südosten Berlins die Straßen gut ausgebaut sind, zum Testzeitpunkt wenig Verkehr und gutes, wenn auch kaltes Wetter herrschte, und die Probefahrt bei Tageslicht stattfand. In der Innenstadt Berlins, bei Dunkelheit, bei Regen oder Schnee könnte es schon wieder anders aussehen.

Erfolgreich durch die Baustelle

Eine (zugegebenermaßen übersichtliche) Baustelle meisterte das Fahrzeug hingegen einwandfrei, indem es sich an den gelben Fahrbahnmarkierungen orientierte. Auch an einen anschließenden Spurwechsel für das Rechtsfahrgebot wurde dabei gedacht.

GIF FSD in der Baustelle

An dem positiven Gesamteindruck der Probefahrt ändern diese theoretischen Wetterszenarien allerdings nichts. Die Fahrt verlief ohne manuelle Eingriffe und zu 99 Prozent fehlerfrei. Der letzte Prozentpunkt? Das nicht perfekt gerade Einparken am Supercharger und ein nach links gesetzter Blinker im Kreisverkehr – ein Überbleibsel eines kurz zuvor erfolgten Abbiegevorgangs. Der Blinker rechts aus dem Kreisel wurde aber korrekt gesetzt, das gilt auch für alle anderen Abbiegemanöver und Spurwechsel.

FSD weicht einem Koffer auf der Straße aus

Die Fahrt endete darüber hinaus mit zwei Höhepunkten. Zum einen wurde zum Abschluss der auf der Straße stehende Koffer einer an der Fußgängerampel wartenden Passantin geschickt umfahren, und zum anderen meisterte das Model 3 abschließend noch eine ziemlich enge Parklücke am Tesla-Center, die zwar breit genug für das Auto, aber kaum noch für die Mitfahrer war.

GIF FSD weicht einem Koffer aus

FSD Supervised überzeugt bei erster Probefahrt

Für Teslas Full Self-Driving (Supervised) lässt sich demnach ein positives und weitaus besseres Fazit ziehen, als es „Vison Only“ und die damit verbundenen Vorurteile zunächst vermuten ließ. Dass andere Autohersteller mit ihren multimodalen Sensoren falsch liegen oder Tesla nur mit Kameras komplett richtig liegt, ist damit allerdings nicht gesagt. Das Endergebnis ist das, was zählt. Zur Testfahrt überzeugte Teslas Lösung auf ganzer Linie.

ComputerBase hat den Termin zur Probefahrt wie jeder interessierte Privatnutzer über das öffentliche Portal gebucht. Ein Kontakt mit der Presseabteilung bestand weder im Vorfeld noch vor Ort.

Dieser Artikel war interessant, hilfreich oder beides? Die Redaktion freut sich über jede Unterstützung durch ComputerBase Pro und deaktivierte Werbeblocker. Mehr zum Thema Anzeigen auf ComputerBase.



Source link

Apps & Mobile Entwicklung

Windows Insider Preview: KI-Agenten erobern Windows 11


Windows Insider Preview: KI-Agenten erobern Windows 11

Bild: Microsoft

Mit den neuen Insider Preview Builds 26220.7344 für den Dev- und Beta-Kanal unterstützt Windows 11 den MCP-Standard, der regelt, wie KI-Modelle sich mit Programmen, Tools und Diensten verbinden können. Damit einhergehend erhält die Testversion von Windows 11 Connectoren für den Datei-Explorer und die Windows-Einstellungen.

Mit dem File Explorer Connector können Agenten – sofern die Nutzer zustimmen – auf lokale Dateien zugreifen. Diese lassen sich damit verwalten, organisieren und abrufen. Auf Copilot+ PCs ist es zusätzlich noch möglich, mittels natürlicher Sprache nach bestimmten Inhalten zu suchen. Erfasst werden dabei sowohl der Dateiname als auch der Inhalt und die Metadaten.

Copilot+ PCs erhalten zusätzlich noch einen Windows Settings Connector. Damit ist es möglich, die System­einstellungen mit natürlichen Spracheingaben zu ändern, zu prüfen oder direkt zu den jeweiligen Unterseiten zu springen.

Microsoft arbeitet am agentischen Betriebssystem

Was Microsoft in die Insider Preview integriert, ist ein weiterer Schritt zu einem agentischen Betriebssystem, das auf der Entwickler­konferenz Ignite im November angekündigt wurde. Windows 11 erhält damit Agenten, die in speziell abgesicherten Umgebungen – den sogenannten Agent Workspaces – eigenständig Aufgaben erfüllen können und dabei die Möglichkeit haben, auf bestimmte Dateien zuzugreifen. Die Agenten nutzen dafür ein eigenständiges Profil.

Die Agenten-Funktionen befinden sich noch im experimentellen Status. Damit diese laufen, muss man sie in den Windows-Einstellungen im Bereich KI-Komponenten explizit aktivieren.

Zusätzlich verspricht Microsoft hohe Sicherheits­standards. Nutzer sollen jederzeit nachvollziehen können, wie die Agenten bestimmte Aufgaben erledigen. Die jeweilige Vorgehensweise soll daher präzise protokolliert werden, zudem sollen die autonomen KI-Systeme nur in abgesicherten Umgebungen laufen. Potenzielle Sicherheitsrisiken werden dennoch bereits diskutiert.

MCP-Standard soll Zugriff absichern

Das Model Context Protocol (MCP) ist der Standard, der sicherstellen soll, dass die Agenten in einer sicheren Umgebung laufen. Microsoft integriert dafür ein On-Device-Registry-System (ODR) in Windows.

Den MCP-Standard hat Anthropic im November 2024 vorgestellt ist. Das Ziel ist, dass KI-Modelle sicher mit Daten und Anwendungen interagieren können. Große KI-Firmen wie OpenAI und Google haben MCP ebenfalls übernommen, das Protokoll ist nun eine Art Branchenstandard.



Source link

Weiterlesen

Apps & Mobile Entwicklung

MediaMarkt macht riesigen Samsung-OLED günstig


Darf’s ein neuer Fernseher sein? MediaMarkt haut jetzt einen Samsung-OLED mit satten 59 Prozent Rabatt raus und liefert das 65-Zoll-Modell sogar gratis. Was der 4K-TV genau kostet und was ihn auszeichnet, erfahrt Ihr hier.

OLED-Fernseher sind nicht ohne Grund äußerst beliebt. Sie liefern tiefes Schwarz, satte Kontraste und sind insbesondere für Filmfans und Gamer meist die beste Wahl. Zumindest, wenn man sich für ein hochwertiges Modell entscheidet. Genau so eins senkt MediaMarkt jetzt gehörig im Preis: Der Samsung-OLED GQ65S90F mit 65 Zoll wird dank 59 Prozent Rabatt für nur noch 1.289 Euro verkauft.

Riesiger OLED-TV mit ebenso riesigem Rabatt

Der Rabatt ist bereits auf den ersten Blick beachtlich: MediaMarkt streicht satte 59 Prozent vom UVP, wodurch Ihr statt über 3.000 jetzt nur noch 1.289 Euro für den Samsung-OLED zahlt. Die Lieferung ist zudem kostenfrei, was für einen Fernseher dieser Größe (65 Zoll) keine Selbstverständlichkeit ist. Das MediaMarkt-Angebot gilt dabei noch bis zum 8. Dezember (9 Uhr). Alternativ hat auch Amazon den Samsung-OLED zum gleichen Preis im Angebot – wie lang der Deal hier aber noch läuft, ist nicht bekannt.

Das zeichnet den Samsung 4K-Fernseher aus

Klar, über 1.000 Euro ist trotzdem noch ne Menge Geld, dafür wird Euch bei dem Samsung-OLED aber auch einiges geboten. Allen voran natürlich die enorme Bildschirmdiagonale von 65 Zoll bzw. 163 cm. Doch auch technisch hat der Fernseher einiges auf dem Kasten. Selbstverständlich gibt’s hier eine 4K-Auflösung samt HDR10+ und allen Bildoptimierungen, die man von einem modernen UHD-TV erwarten kann.

Gleichzeitig werden selbst schnelle Bewegungen dank der 100-Hz-Bildwiederholrate ziemlich flüssig dargestellt. Zusätzlich sollen dank des Motion Xcelerators sogar 144 Hz möglich sein – wodurch sich der 4K-Fernseher ebenso ideal für alle Gamer unter Euch eignen kann. Dolby Atmos ist in Sachen Sound ebenfalls vorhanden – wer satten Klang möchte, sollte aber – wie bei allen modernen TVs – noch auf eine Soundbar oder Ähnliches setzen.

In Sachen Anschlüsse hat Samsung ebenso an alles gedacht: Unter anderem viermal HDMI (VRR, ALLM, eARC (auf einem HDMI-Port)), zwei USB-Slots sowie ein digitaler Audioausgang sind vorhanden. Und natürlich könnt Ihr den Smart-TV ebenso via LAN und WLAN flott mit dem Internet verbinden und so auf Streaming-Apps zugreifen.





Mit diesem Symbol kennzeichnen wir Partner-Links. Wenn du so einen Link oder Button anklickst oder darüber einkaufst, erhalten wir eine kleine Vergütung vom jeweiligen Website-Betreiber. Auf den Preis eines Kaufs hat das keine Auswirkung. Du hilfst uns aber, nextpit weiterhin kostenlos anbieten zu können. Vielen Dank!



Source link

Weiterlesen

Apps & Mobile Entwicklung

Nach Code Red: OpenAI will in der nächsten Woche GPT-5.2 vorstellen


Nach Code Red: OpenAI will in der nächsten Woche GPT-5.2 vorstellen

Angesichts der Erfolge von Google will OpenAI schnell reagieren, ChatGPT soll zeitnah verbessert werden. Bereits nächste Woche soll daher ein neues Modell erscheinen, berichtet The Verge mit Verweis auf Personen, die mit den Plänen von OpenAI vertraut sind.

Veröffentlichung vorgezogen

Es ist die erste Reaktion, nachdem OpenAI-Chef Sam Altman Anfang dieser Woche einen Code Red ausgegeben hat. Die Weiterentwicklung von ChatGPT soll sich beschleunigen, der Chatbot soll sowohl personalisierter als auch zuverlässiger und schneller sein.

Das Upgrade von GPT-5.1 ist ein erster Schritt. Eigentlich sollte das Modell erst später im Dezember veröffentlicht werden, heißt es im Bericht von The Verge. Nun wird der Release aber vorgezogen. Derzeit steht der 9. Dezember im Raum.

OpenAI wollte sich nicht auf Anfrage von The Verge äußern. Veränderte Veröffentlichungsdaten sind bei OpenAI aber nicht ungewöhnlich. Manchmal reagiert man damit auf Modelle und Ankündigungen von Konkurrenten, mal sind es die verfügbaren Server-Kapazitäten, die den Zeitplan diktieren.

GPT-5.2 soll Gemini 3 Pro wieder einholen

In diesem Fall ist es die Konkurrenz, die OpenAI antreibt. Wie Medien letzte Woche berichteten, liegt GPT-5.2 laut der internen Bewertung von OpenAI wieder vor Googles neuem Spitzenmodell Gemini 3 Pro. Bei dessen Vorstellung Mitte November konnte es sich in diversen Branchen-Benchmarks von der Konkurrenz absetzen.

Relevante KI-Entwicklungen

Das Pendel schlägt damit derzeit eher in Richtung Google. Schon im August konnte der Konzern mit dem Bildmodell Nano Banana einen Hype entfachen, mit Nano Banana Pro legte man vor kurzem nochmals nach. Der Erfolg führte auch zu deutlich wachsenden Nutzerzahlen beim Gemini-Assistenten.

Priorität auf ChatGPT-Entwicklung

Es ist eine Dynamik, die nicht im Sinne von OpenAI verläuft. Insbesondere mit Blick auf Investoren benötigt das Start-Up Erfolge, um die enormen Investments zu rechtfertigen.

In der Praxis heißt es nun, dass man die Entwicklung von ChatGPT priorisieren will. Projekte wie die Einführung von Werbung in ChatGPT sollen hingegen erst einmal hinten anstehen. Speziell beim Thema Werbung hat OpenAI auch offiziell auf die aktuellen Berichte reagiert. Der für ChatGPT verantwortliche Nick Turley erklärte auf X, Inhalte der Screenshots hätten nichts mit Werbung zu tun. Wenn die Anzeigenschaltung beginnt, würde man einen durchdachten Ansatz wählen.





Source link

Weiterlesen

Beliebt