Connect with us

Künstliche Intelligenz

Mercedes GLC EQ: Das soll er kosten


BMW und Mercedes gehen beim Anlauf eines neuen Modells unterschiedliche Wege. Bei den Bayern wird meist noch am Tag der Vorstellung auch der Konfigurator freigeschaltet, bei Mercedes lässt man sich damit mehr Zeit. Wochen nach der Premiere des Mercedes GLC EQ sind nun auch die offiziellen Preise veröffentlicht worden. Bestellt werden kann das E-SUV ab dem 29. Oktober.

Weiterlesen nach der Anzeige

Im Konfigurator wird bereits jetzt der erste Nachlass eingeräumt, denn dort kostet das Basismodell 67.717 Euro. Der offizielle Listenpreis liegt bei 71.218 Euro und damit etwas oberhalb des BMW iX3. Bei Mercedes geht man vermutlich zurecht davon aus, dass diese Differenz für die Zielgruppe eine untergeordnete Rolle spielen wird, zumal es in beiden E-SUVs nur der Ausgangspunkt ist. Den 80.000 Euro kommt man ohnehin rasch näher, und selbstverständlich ist auch eine deutliche Überschreitung ziemlich problemlos möglich.

Mercedes musste bei der Vorstellung des CLA viel Kritik dafür einstecken, dass sich das Auto nur an DC-Säulen mit mindestens 800 Volt laden lässt. An 400-Volt-Gleichstromquellen kann auch der GLC EQ nur geladen werden, wenn der Kunde 655 Euro zusätzlich investiert. Auch das AC-Laden mit 22 kW kostet 655 Euro – serienmäßig sind 11 kW möglich.

Spannend wird es bei einer Reihe von digitalen Extras. Einige sind in der Laufzeit begrenzt und müssen im Anschluss kostenpflichtig verlängert werden. Bei bestimmten Extras aus diesem Bereich macht Mercedes im Konfigurator konkrete Angaben zur Laufzeit, beispielsweise beim „MBUX Entertainment“, dessen Preis von 226 Euro für drei Jahre gilt. Bei der Massagefunktion (60 Euro) und der MBUX Augmented Reality für Navigation (500 Euro) gibt es zumindest aktuell keine zeitliche Limitierung.

Selbstverständlich behält auch Mercedes die Taktik bei, mit einigen Zwangskopplungen den Preis unter Umständen erheblich anzuheben. Ein Head-up-Display steht mit 1250 Euro in der Liste, ist aber nur zusammen mit dem Advanced-Plus-Paket für 3570 Euro zu haben. Lederbezüge kosten 2011 Euro, ziehen aber zwangsweise Extras für 4117 Euro nach sich.

Weiterlesen nach der Anzeige

Da wird es den ein oder anderen Interessenten geben, der warten wird. Denn im kommenden Jahr wird Mercedes weitere Antriebsvarianten des GLC EQ nachreichen. Wie bei BMW gehen wir davon aus, dass die Baureihe vor allem nach unten erweitert wird. Im iX3 wird das Basismodell, welches im kommenden Jahr folgen wird, wahrscheinlich zwischen 60.000 und 62.000 Euro kosten. Der Audi Q6 e-tron kostet aktuell wenigstens 63.500 Euro. Irgendwo in diesem Bereich wird sich vermutlich auch das Einstiegsmodell des GLC EQ einpegeln.

Lesen Sie mehr zur Marke Mercedes


(mfz)



Source link

Künstliche Intelligenz

Banana Pi BPI-R4 Pro: High-End-Mainboard für Selbstbau-Router


Der chinesische Hersteller Sinovoip verkauft sein bisher am üppigsten ausgestattetes Router-Mainboard, das Banana Pi BPI-R4 Pro. Das Herzstück bildet ein für Router-Verhältnisse flotter Prozessor von Mediatek: Der MT7988A alias Filogic 880 integriert vier ARM-Kerne vom Typ Cortex-A73, flankiert von 8 GByte DDR4-RAM. Damit eignet sich die Platine auch für Selbstbau-Flash-NAS, etwa als Multimedia-Zentrale.

Weiterlesen nach der Anzeige

Der Mediatek-Prozessor bindet zahlreiche Zusatzchips per PCI Express und USB an. Zwei Schächte in der Bauform Small Form-Factor Pluggable (SFP+) nehmen Lichtwellenleiter- und Ethernet-Module auf und übertragen bis zu 10 Gbit/s. Zwei RJ45-Buchsen sind ebenfalls für bis zu 10 Gbit/s ausgelegt. Es handelt sich um Kombianschlüsse hinter zwei Netzwerk-Controllern; aus einem RJ45-SFP+-Paar ist also je ein Anschluss nutzbar.

Je ein Port kann sich per WAN (Wide Area Network) mit einem vorgeschalteten Modem verbinden. Für die weitere Verkabelung gibt es viermal 2,5-Gbit/s- und einmal Gigabit-Ethernet. Die Ports hängen hinter mehreren Netzwerk-Controllern: zwei Aeonsemi AS21010P und ein Maxlinear MxL86252C.


(Bild:

Sinovoip / Banana Pi

)

Für WLAN-Module gibt es zwei Mini-PCIe-Steckplätze. Sinovoip selbst bietet mit dem BPI-R4-NIC-BE14 ein Wi-Fi-7-Modul an, das beide Mini-PCIe-Steckplätze verwendet. Es unterstützt alle drei WLAN-Bänder 2,4, 5 und 6 GHz simultan, letzteres mit der maximal möglichen Kanalbreite von 320 MHz.

Drei M.2-Steckplätze in B-Key-Bauform nehmen Mobilfunkmodule für 4G oder 5G auf. Passend dazu gibt es drei Nano-SIM-Schächte für getrennte Mobilfunktarife. Auf der Platinenrückseite befinden sich zwei M.2-M-Key-Steckplätze für NVMe-SSDs. Für je zwei M- und B-Key-Steckplätze stehen insgesamt zwei PCIe-3.0-Lanes bereit – von vier Steckplätzen sind daher maximal zwei gleichzeitig nutzbar. Der dritte B-Key-Slot ist per USB angebunden.

Weiterlesen nach der Anzeige

Eine PCIe-3.0-Lane reicht für knapp ein Gigabyte pro Sekunde. Das genügt für SSDs in einem Router oder NAS.

Für ein Betriebssystem und Firmware sind auch 256 MByte SPI-NAND-Flash und 8 GByte eMMC-Flash-Speicher verlötet. Alternativ zu einer SSD lässt sich der Speicher per microSD-Karte erweitern. Zusätzlich gibt es je einmal USB 2.0 und USB 3.2 Gen 1 (früher USB 3.0 genannt). Ein USB-Typ-C-Anschluss dient zum Debugging. Strom bekommt die Platine über ein DC-Netzteil mit 12 oder 24 Volt.

Das Mainboard ist mit 194 mm × 134 mm deutlich größer als bisherige Banana-Pi-Platinen und erfordert daher neue Gehäuse. Einen Entwurf gibt es bereits.

OpenWrt unterstützt das Banana Pi BPI-R4 Pro laut Übersicht noch nicht. Da OpenWrt aber schon auf den bisherigen R3- und R4-Modellen läuft, sollte der Support für die R4-Pro-Version folgen.

Sinovoip verkauft das Banana Pi BPI-R4 Pro im eigenen Webstore für 165 US-Dollar, umgerechnet 142 Euro. Hinzu kommen 38 US-Dollar für den Versand aus China per DHL und die Einfuhrumsatzsteuer. Unterm Strich sollte das Mainboard knapp 210 Euro kosten. Das WLAN-Modul BPI-R4-NIC-BE14 kostet 70 US-Dollar, womit das Gesamtpaket bei etwa 275 Euro landen dürfte.

Die normale R4-Version ist auch bei deutschen Händlern verfügbar (ab 119,99 €); die abgespeckte Lite-Variante dagegen kaum.


(mma)



Source link

Weiterlesen

Künstliche Intelligenz

DeepSeek-OCR: Wie Bilder Chatbots helfen, lange Gespräche zu führen


Chinesische KI-Forscher wollen mithilfe von Bildern erreichen, dass Chatbots auch bei Gesprächen mit großer Vorgeschichte schnell und günstig bleiben. Mithilfe optischer Kontextkompression könnten die KI-Assistenten deutlich besser werden, zeigen sich die Entwickler von DeepSeek-OCR überzeugt. Das Modell hat aktuell experimentellen Status. Trotz zehnfacher Kompression habe man aber bereits eine Genauigkeit von 97 Prozent nachweisen können.

Weiterlesen nach der Anzeige

Das Problem bei heutigen KI-Chatbots ist, dass sie bei jeder Antwort die komplette Historie neu verarbeiten müssen. Bei der optischen Kompression wird der Gesprächsverlauf stattdessen als Bild gespeichert und benötigt weniger Token bei der Verarbeitung. Statt 1000 Token würden etwa nur 100 benötigt. Dies ermögliche zehnfach schnellere Antwortzeiten. Hilfreich wäre das auch bei der Verarbeitung langer PDF-Dokumente.

Per OCR (Optical Character Recognition) werden die Bilder von der KI bei Bedarf wieder in Texte umgewandelt. Allerdings geht der Ansatz von DeepSeek weit über klassische OCR hinaus. Das System kann nicht nur Text erkennen, sondern auch Diagramme in Excel-taugliche Tabellen umwandeln, chemische Formeln in maschinenlesbare SMILES-Formate konvertieren und geometrische Figuren analysieren. Zudem beherrscht es fast 100 Sprachen in einem einzigen Modell.

Die Entwickler von DeepSeek haben dabei auch mit verschiedenen Auflösungen gearbeitet und die Idee entwickelt, mit den unterschiedlichen Schärfegraden das menschliche Gedächtnis nachzuahmen. Zeitlich nur kurz zurückliegende Kontexte könnten in höherer Auflösung gespeichert werden und wären damit der KI schärfer im Gedächtnis. Weiter zurückliegende Erinnerungen würden aufgrund niedrigerer Auflösungen zunehmend verblassen.

Weiterlesen nach der Anzeige

Für die praktische Anwendung hat DeepSeek umfangreiche Trainingsdaten zusammengestellt: 30 Millionen PDF-Seiten in rund 100 Sprachen, 20 Millionen Bilder natürlicher Szenen sowie Millionen synthetische Samples für Diagramme, Chemieformeln und geometrische Figuren. In der Produktion kann das System bereits heute über 200.000 Seiten pro Tag verarbeiten – mit nur einem älteren Nvidia-Beschleuniger vom Typ A100. Das macht es interessant für Massendatenverarbeitung, etwa bei Versicherungen, Behörden oder Verlagen.

Die Forscher selbst bezeichnen DeepSeek-OCR in ihrem Paper als „vorläufige Erkundung“ und benennen offene Fragen. Wie verhält sich das System zum Beispiel bei der Suche nach der „Nadel im Heuhaufen“ („Needle-in-a-Haystack“-Tests), wenn spezifische Infos aus sehr langen Kontexten gesucht werden?

DeepSeek erprobt damit einen andersartigen Architektur-Ansatz für KI. Die chinesische KI-Schmiede bemüht sich schon seit einiger Zeit, ein Gegengewicht zu den US-KI-Firmen wie OpenAI, Google oder Anthropic aufzubauen, die primär auf Skalierung setzen. Der Code von DeepSeek-OCR steht samt Modellgewichten auf GitHub zum Download bereit und kann von Interessierten ausprobiert werden.


(mki)



Source link

Weiterlesen

Künstliche Intelligenz

Claude Code: Neue Web-Version bringt mehrere Vorteile für Entwickler


Schon seit Anfang des Jahres bietet Anthropic die Coding-KI Claude Code in seinem Portfolio an. Der KI-Agent soll Programmierern im Terminal ihren Arbeitsalltag erleichtern. Nachdem Claude Code zunächst einen recht holprigen Start hatte, hat das KI-Unternehmen alles daran gesetzt, den Agenten besser zu machen. Jetzt erfolgt der nächste Schritt: Claude Code wandert auf eine weitere Plattform.

Weiterlesen nach der Anzeige

Wie Anthropic in einer Ankündigung schreibt, ist Claude Code ab sofort für einige User im Web verfügbar. Sie müssen also nicht mehr ein Terminal aufrufen, sondern können sich über eine URL mit dem KI-Agenten verbinden und direkt losprogrammieren lassen. Dabei lassen sich all ihre wichtigen GitHub-Repositories verbinden, um Änderungen direkt auf die Plattform zu laden, sobald sie mit Claudes Arbeit zufrieden sind.

Ein Vorteil der Web-Variante ist, dass Claude Code so mehrere Instanzen gleichzeitig erlaubt. Sie können den KI-Agenten in mehreren Tabs verschiedene Aufgaben geben und diese parallel bearbeiten lassen. Laut Anthropic eignet sich diese Eigenschaft von Claude Code vorrangig für mehrere Bugfixes, Routineaufgaben und Änderungen im Backend, bei denen abschließende Tests nötig sind. Zudem soll Claude Code so auch parallel mehrere Fragen zu verschiedenen Repositories und Projekten beantworten können.

Noch spannender ist allerdings, dass Claude Code im Web in einer „Sandbox-Umgebung“ arbeitet. Anthropic schreibt dazu: „Jede Claude-Code-Aufgabe läuft in einer isolierten Sandbox mit Netzwerk- und Datenbeschränkungen. GitHub-Interaktionen werden über einen sicheren Proxy-Service durchgeführt, wodurch Claude auch nur autorisierte Repositories aufrufen kann. Das soll dabei helfen, ihren Code und ihre Daten im gesamten Workflow zu schützen“.

Claude-Nutzer können dabei sogar selbst Anpassungen an der Sandbox-Umgebung vornehmen. So ist es laut Anthropic etwa möglich, weitere Domains hinzuzufügen, mit denen sich Claude verbinden darf. Zunächst steht Claude Code im Web allen Pro- und Max-Abonnenten des KI-Dienstes zur Verfügung, die die Research-Preview aktivieren. Claude Code im Web kostet dabei nicht extra. Die Nutzung zählt stattdessen mit zu ihrem monatlichen Nutzungslimit.

Dieser Beitrag ist zuerst auf t3n.de erschienen.

Weiterlesen nach der Anzeige


(jle)



Source link

Weiterlesen

Beliebt