Connect with us

Künstliche Intelligenz

Lokale KI-Modelle sind jetzt brauchbar (und auf dieser Hardware laufen sie)


Statt Prompts auf US-Server zu posaunen, kann man KI-Modelle auch auf eigener Hardware laufen lassen: Das ist nicht nur besser für die Privatsphäre, sondern macht auch unabhängiger von den Launen der KI-Anbieter (die gerne mal liebgewonnene Modelle durch andere austauschen). Die Frage ist nur: Welche Modelle sind brauchbare? Welche Hardware braucht man dafür? Diese Fragen versucht c’t 3003 in einem ausführlichen Video zu beantworten.

Weiterlesen nach der Anzeige

(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)

Guckt mal hier, hier lasse ich mir gerade was von einem KI-Modell coden – in irrsinniger Geschwindigkeit. Das Beste: Das passiert alles lokal auf meinem Rechner, und das Ergebnis ist manchmal sogar besser als das, was die großen kommerziellen Anbieter wie ChatGPT von OpenAI oder Claude liefern. Naja, okay, die Betonung liegt auf manchmal, aber ich war ehrlich gesagt wirklich erstaunt, wie sich die lokalen Modelle entwickelt haben.

In diesem Video, das sich auch an Leute richtet, die noch nicht so viel Ahnung von lokaler KI haben, erkläre ich euch: Was braucht man für einen Rechner dafür, was braucht man für Software dafür und vor allem, welche KI-Modelle nimmt man am besten? Ja, NVIDIAs DGX Spark kommt auch vor – auch wenn ich davon bislang ziemlich enttäuscht bin. Bleibt dran.

Liebe Hackerinnen, liebe Internetsurfer, herzlich willkommen hier bei…

Okay, lokale KI-Modelle – das ist bei euch ein Riesenthema, kann ich nicht anders sagen. Ich krieg da viel Feedback von euch, auch übrigens schon öfter in der echten Welt, dass ihr mich darauf ansprecht. Eine häufige Frage ist: Was brauche ich dafür für einen Rechner, was kaufe ich mir am besten? Könnt ihr da mal einen Rechner empfehlen? Welche Modelle taugen überhaupt was? Sind die inzwischen so gut wie ChatGPT oder Claude?

Das alles versuche ich in diesem Video zu beantworten – und ich sag mal, das wird ein heißer Ritt. Ich hoffe, dass ich euch nicht alle nach und nach verliere, ja, weil da gibt es schon viel zu besprechen. Zumindest ich finde es alles richtig interessant – und das ist ja die Hauptsache, wenn man so ein Video macht.

Weiterlesen nach der Anzeige

Fangen wir mal mit dem optimalen Rechner dafür an. Und das ist tatsächlich eine Frage, die in der c’t-Redaktion, und ich übertreibe nicht, zu stunden- und sogar tagelangen Diskussionen geführt hat. Das Problem ist halt: KI ist nicht gleich KI – und man kann den optimalen Rechner eben deswegen schlecht verallgemeinern.

Wollt ihr einfach ein lokales LLM als Chatbot mit LM Studio anzapfen, wollt ihr Bilder, Videos oder Musik generieren, wollt ihr Audio mit Whisper transkribieren, wollt ihr vielleicht sogar Modelle finetunen – das sind alles unterschiedliche Nutzungsszenarien. Ich weiß, dass das schwierig ist, aber ich versuche das jetzt trotzdem mal mit einer Empfehlung.

Fangen wir mal an mit lokalen KI-Modellen, die man mit LM Studio zum Beispiel anzapft, um so einen lokalen Chatbot hinzukriegen. Viele nennen diese Modelle ja Open-Source-Modelle, aber das ist mindestens irreführend – ich würde sogar sagen falsch. Wenn die wirklich Open Source wären, dann müssten da ja auch Informationen darüber drin sein, wie genau die trainiert wurden. Also eigentlich müsste es dann zumindest Zugriff auf die Trainingsdaten geben – und das ist so gut wie nie der Fall.

Deshalb ist es präziser, Open Weights zu sagen statt Open Source. Das heißt, dass man die Parameter des Modells runterladen und auf eigener Hardware laufen lassen kann. Also wenn wir hier von lokalen LLMs oder lokalen Modellen reden, dann sind das Open-Weights-Modelle. Aber „lokales Modell“ finde ich eigentlich am einfachsten, weil das aussagt: Kann ich auf eigener Hardware mitmachen, was ich will.

Ja, also jedenfalls: Wenn ihr damit euer eigenes ChatGPT bauen wollt – was nehmt ihr dann für Hardware? Da würde ich jetzt erst mal ganz kurz diese Tabelle hier einblenden, die ich gerade zusammengestellt habe. Die ist nämlich dafür extrem hilfreich.

Beim Abzapfen von LLMs – die KI-Crowd nennt das ja Inferenz – ist wirklich zum allergrößten Teil die Speicher-Datentransferrate relevant. Das heißt: Habt ihr eine Grafikkarte mit schnellem Speicher und passt das Sprachmodell da komplett rein, dann läuft das schnell.

Hier, guck mal: Das ist Mistral Small 3.2, komplett in meiner RTX 4090-Grafikkarte – bäm, über 40 Token die Sekunde. Ja, GDDR6X-Speicher mit ungefähr einem Terabyte Datentransferrate pro Sekunde, das ist schnell. Wenn ich das gleiche Modell nur auf meiner CPU laufen lasse, die auch echt nicht langsam ist mit ihren 16 Kernen, die aber dafür nur DDR5‑5600‑Speicher zur Verfügung hat, mit nur 90 Gigabyte Datentransferrate, ja – dann kriege ich nur drei Token pro Sekunde. Ich bin selbst echt überrascht, wie das skaliert.

Denn 1000 Gigabyte sind ja ungefähr das Elffache von 90 Gigabyte, und 40 Token pro Sekunde sind das 13-Fache von drei Token. Natürlich funktioniert das in der Praxis nicht ganz exakt, weil da noch mehr Faktoren eine Rolle spielen. Aber grob gesagt, kann man das schon so sagen.

Das Problem ist halt nur: Wenn ich eine einzelne Grafikkarte haben will mit diesem schnellen Speicher im Preisbereich unter mehreren Zehntausend Euro, dann bekomme ich zurzeit nur die RTX 5090 mit 32 Gigabyte Speicher – zwar GDDR7, superschnell, aber eben nur 32 Gigabyte.

Das heißt: Wenn ich Sprachmodelle schnell abzapfen will, dann kann ich nur Sprachmodelle benutzen, die da reinpassen. Und zum Beispiel das echt richtig gute GPT‑OSS 120B von OpenAI– also mit 120 Milliarden Parametern – braucht 63 Gigabyte Speicher. Vielleicht einfach zwei 5090er kaufen? Nee, geht nicht, denn Nvidia unterstützt NVLink nicht mehr. Also die Technik zum Bündeln von mehreren Grafikkarten – das können nur Karten bis einschließlich der 3090er‑Generation.

Und das ist auch der Grund, warum sich einige KI-Freaks Workstation-Mainboards kaufen und da dann zum Beispiel drei gebrauchte 3090er reintun. Die gibt’s auf dem Gebrauchtmarkt so ab 700 Euro das Stück. Ja, das ist aufwendig zu kühlen, aber das knallt ganz schön was weg in Sachen Token pro Sekunde – und unterstützt halt Sprachmodelle bis 72 Gigabyte Größe. (Die 3090 hat 24 Gigabyte pro Stück, also 3 × 24 = 72 Gigabyte.)

Solche Rigs schaffen mit GPT‑OSS 120B laut etlicher Quellen im Netz deutlich über 50 Token pro Sekunde, zum Teil noch viel mehr – also wirklich gute Werte. Wenn ihr jetzt die aktuellen News verfolgt und sagt: Hä, warum denn so viel Aufwand? Man kann inzwischen doch für ungefähr 4000 Euro eine Nvidia DGX Spark kaufen – die hat doch 128 Gigabyte schnellen Unified‑Speicher. Da wird ja gar nicht zwischen normalem RAM und schnellem Video‑RAM unterschieden, übrigens wie bei Apple auch. Und die ist ja extra für KI‑Workloads gemacht – die müsste doch super damit funktionieren, oder?

Ich habe das Teil zwar selbst noch nicht testen können, aber dafür viele Tests im Netz gesehen. Und da kommen die Leute mit dem GPT‑OSS 120B maximal auf 43 Token/Sekunde, zum Teil noch deutlich weniger. Ich habe euch mal ein paar Tests verlinkt – das ist also deutlich weniger als die selbstgebauten Kisten mit mehreren 3090ern.

Aber nochmal der deutliche Disclaimer: Die Benchmarks hier sind nicht von uns – also alles mit Vorsicht genießen. Was aber definitiv sicher ist: Die DGX Spark hat eine deutlich geringere Leistungsaufnahme als solche Rechner mit mehreren 3090ern.

Was ich vor allem krass finde: Rechner mit AMD Strix Halo, also Ryzen AI Max+ 395. Die gibt’s so ab 1800 Euro, und die schaffen ungefähr genauso viele Token/Sekunde wie eine DGX Spark – nur halt deutlich günstiger.

Ich habe ja noch meinen Framework‑Desktop mit AI Max Plus+ stehen, und damit habe ich in LLM Studio ungefähr 36 Token/Sekunde mit GPT‑OSS 120B gemessen – zumindest, wenn ich manuell alles auf die GPU gemappt habe.

Ach so, ich muss hier mal kurz einschieben: Wir sprechen hier nur von den Decode‑Werten, also der reinen Ausgabe der LLMs. Beim sogenannten Prefill, in dem das LLM den Prompt und den Kontext liest und daraus den internen Speicher – also den KV‑Cache – baut, da ist Rechenkraft, also Compute, relevant. Und da ist die DGX Spark deutlich schneller als die AMD‑Konkurrenz. Das will ich der Vollständigkeit halber gerne noch sagen.

Aber für so ein normales LLM‑Anzapfen kommt man günstiger bei rum – zum Beispiel mit Apple‑Rechnern. Macs sind auch eine Alternative: Da gibt’s Modelle mit 120 Gigabyte Unified‑schnellem Speicher. Wird natürlich dann schnell teuer.

Ich habe GPT‑OSS 120B gerade mal auf dem MacBook Pro mit M3 Max laufen lassen – der ist über zweieinhalb Jahre alt und schafft aber 40 Token/Sekunde, also schon ungefähr in der Range wie die DGX Spark – auf dem Notebook.

Was ich bei meinem eigenen Rechner gemacht habe: Ich will ja auch Linux nutzen, und so habe ich mir für ungefähr 500 Euro zweimal 64 Gigabyte normalen DDR5‑Speicher gekauft und den da einfach reingeworfen – also in den Rechner mit meiner RTX 4090. Und darauf schaffe ich mit GPT‑OSS 120B ziemlich annehmbare 14 Token/Sekunde. Damit reiße ich jetzt keine Bäume aus, aber ich kriege halt ein 63‑Gigabyte‑großes Sprachmodell zum Laufen – auf einem Rechner mit nur 24 Gigabyte Grafikspeicher. Für alle, die es genau wissen wollen: Ich habe den GPU‑Offload auf 13 von 36 eingestellt.

Was ich euch auf jeden Fall generell als Empfehlung sagen kann: Checkt, welche Sprachmodelle ihr genau laufen lassen wollt. Wenn die klein sind, also sagen wir mal kleiner als 24 Gigabyte, dann reichen natürlich 24 Gigabyte schneller Grafikspeicher – und dann reicht auch z. B. eine 3090 oder 4090.

Also, wenn ihr KI machen wollt und ihr eine gebrauchte 3090 auftreiben könnt, dann seid ihr auf jeden Fall ziemlich gut bedient. Die Geschwindigkeitsvorteile der beiden nachfolgenden Generationen sind bei KI nicht so richtig groß.

Die ganzen Textsachen – also z. B. so ein lokaler Chatbot mit LM Studio – funktionieren aber auch gut mit AMD‑Grafikkarten. Da könntet ihr auch zuschlagen. Oder ihr nehmt halt einen Mac; die haben auch schnellen gemeinsamen Speicher, je nach Modell – seht ihr hier in der Tabelle nochmal.

Aber für andere KI‑Anwendungen als LLMs laufen zu lassen, z. B. mit LLM Studio, also sowas wie Comfy UI zum Bilder‑ oder Video‑Generieren, da seid ihr vor allem mit Nvidia‑Grafikkarten am besten bedient, weil die halt CUDA können. Diese Programmierschnittstelle wird von vielen KI‑Programmen nach wie vor hauptsächlich genutzt. Immer mehr Programme wie eben LLM Studio beherrschen aber auch MLX – das ist das Apple‑Pendant zu CUDA – oder halt ROCm, das ist die AMD‑Variante, aber eben: viele Programme nicht. Die können nur CUDA.

Das heißt: Wenn ihr viel experimentieren wollt mit unterschiedlichen Sachen, muss ich Nvidia empfehlen. Aber geht zum Beispiel auch mit gebrauchten Nvidia‑Karten – eben der 3090er‑Empfehlung.

Ganz kurz zwischengefragt: Interessiert euch, dass wir mal so ein Multi‑GPU‑System mit KI mit gebrauchten 3090ern aufbauen? Ist halt ziemlich viel Aufwand, aber wenn das Interesse bei euch groß genug ist, dann würden wir das schon machen – also, ich hätte Bock. Wenn’s keinen interessiert, natürlich nicht.

So, das war jetzt erst mal zur Hardware. Jetzt kommen die lokal laufenden Sprachmodelle. Was nimmt man da denn so? Sind die inzwischen so gut wie ChatGPT?

Lange war die Antwort nein – und ich meine wirklich deutlich, deutlich schlechter. Man kann auch sagen: unbrauchbar.

Hier mal so ein älteres Modell auf die Frage „Was ist das c’t‑Magazin?“
Antwort: „Der c’t‑Magazin ist ein Zeitschrift für alles, was heute im Thema ist.
Das c’t‑Magazin ist ein wichtiges Leitfadenspiel, das alles ausprobiert, um sich mit den Menschen in Beziehung zu setzen und das ganze Leben damit zu verbinden.“ Also einfach – man kann es nicht anders sagen – Kauderwelsch.

Was ich auch sehr schön finde, ist hier die Antwort auf diese Rechenaufgabe: „Viel“ und dann so … „Nee, vier.“
Aber das waren wirklich alte Modelle, die ersten.

Dann kam Anfang des Jahres DeepSeek aus China – und das war wirklich das erste lokal betreibbare LLM, das mit der US‑Konkurrenz in der Cloud mithalten konnte. Allerdings – und das war das Problem – die vollständige DeepSeek‑Variante braucht über 700 Gigabyte Speicher, möglichst extrem schnellen Speicher, also wie man es halt mit Profi‑Rechenzentrums‑GPUs hinkriegt für viele, viele Zehn‑ oder sogar Hunderttausend Euro.

Aber jetzt sind ja wieder ein paar Monate vergangen, und ich muss sagen: Ich bin erstaunt, wie gut inzwischen auch ganz kleine Modelle performen. Also Modelle, die so gut wie jeder Rechner oder sogar Smartphones laufen lassen können – vor allem beim Coding.

Ich habe ja gerade schon ein paarmal LM Studio erwähnt – das habe ich in diesem Video auch nur verwendet.
Das gibt es für Linux, Windows und macOS, und das ist aktuell meine Lieblingsplattform zum Anzapfen von Sprachmodellen.
Ich habe früher immer Ollama verwendet, aber ich mag LLM Studio inzwischen lieber – einmal, weil man bei LM Studio viel einfacher die ganzen Parameter drumherum einstellen kann, also zum Beispiel, wie viel man auf die Grafikkarte auslagert, wie groß das Kontextfenster ist – also quasi das Kurzzeitgedächtnis – und weil Ollama mit so komischen Sachen wie Cloud‑Unterstützung und Accounts angefangen hat.
Und ja, bei lokaler KI geht es ja gerade darum, dass man sich eben nicht an Cloud‑Anbieter hängt. Ich will Ollama jetzt auch nicht schlechtreden. Wenn ihr das lieber benutzt, könnt ihr das natürlich gerne machen – also kein Ding.

Ich habe auf jeden Fall einfach LM Studio installiert, dann hier unter „Entdecken“ ein paar Sprachmodelle installiert und dann im Chat oben das gewünschte Modell ausgewählt – und dann einfach gepromptet: „Ich brauche eine Website, die die Uhrzeit in Hannover, New York und Tokio hübsch darstellt. Gib mir was, was ich einfach in einer HTML‑Datei copy‑pasten kann.“ Das Ganze auf Englisch, weil ich gerade bei kleineren Modellen nicht so sicher bin, welche Deutsch‑Fähigkeiten die so haben – und es soll ja fair und gerecht zugehen.

Ja, und so sah das Ergebnis bei den großen, teuren Cloud‑Sprachmodellen aus – also ChatGPT mit GPT‑5 Thinking (mit Abo), Gemini 2.5 Flash und Claude Sonnet 4.5. Und das hier ist von Qwen 3 4B 2507. Und jetzt mal kurz innehalten: Dieses Sprachmodell ist läppische 2,5 Gigabyte groß – das läuft also wirklich auf jeder Kartoffel – und es produziert meiner Meinung nach das visuell am besten gelungene Ergebnis.

Seht ihr, wie der Sternenhintergrund so ein bisschen animiert ist? Richtig nice! Okay, den Sternenhintergrund habe ich mit einem zweiten Prompt nachträglich hinzugefügt, aber das hat wunderbar funktioniert – was ja nicht immer der Fall ist. Allerdings habe ich dann gemerkt, dass die Uhrzeit nicht stimmt, aber das konnte ich im Quellcode dann selbst hinbiegen.

Ich finde auf jeden Fall Qwen 3 4B für die Größe wirklich richtig gut. Ist übrigens von Alibaba in China. Und das Ding läuft echt in einer beeindruckenden Geschwindigkeit, weil es so klein ist – weil es halt locker in meinen 24‑Gigabyte‑Grafikspeicher passt. Da kann man auch den Kontext, also das Kurzzeitgedächtnis, richtig hochziehen, und dann kann man da ganz gute Sachen mitmachen.

Andere lokale Open‑Weights‑Sprachmodelle haben mein Uhrzeit‑HTML übrigens auch ganz gut hinbekommen – das ist GPT‑OSS von OpenAI mit 20 Milliarden Parametern, das mit 120 Milliarden Parametern und Mistral Small 3.2 mit 24 Milliarden Parametern.

Wenn ihr gerade genau auf meine Liste mit den Sprachmodellen geguckt habt, dann habt ihr vielleicht gesehen, dass die Zahl der Parameter nicht mit der Gigabyte‑Angabe des Modells korreliert. Hier zum Beispiel: Mistral Small 3.2 hat 24 Milliarden Parameter (die Parameter seht ihr immer in dieser Spalte hier – also 24B steht da für „Billion“ = Milliarden). Das Modell ist aber über ein Gigabyte größer als Qwen 3 Coder 30B – also das mit 30 Milliarden Parametern. Ihr denkt euch vielleicht: Hä, wie kann das denn sein? Das hat mit der sogenannten Quantisierung zu tun.
Statt zum Beispiel jeden Parameter in 32‑Bit‑Gleitkommagenauigkeit zu speichern – was ja in unserem Fall 30 Milliarden × 32 Bit bedeutet – kann man das Ganze auch quantisieren, also vereinfacht gesagt runden: z. B. auf 8 oder sogar 4‑Bit‑Ganzzahlen.

Das hat viele Vorteile – neben weniger Speicherplatz natürlich auch höhere Geschwindigkeit. Aber wenn man zu aggressiv rundet, dann arbeitet das Sprachmodell schlechter. Da wird mit sogenannten K‑Quants gearbeitet, aber das müsst ihr in der Praxis gar nicht wissen.
Ihr müsst nur verstehen, dass es viele Modelle eben in unterschiedlichen Quantisierungsstufen gibt – ihr wisst, was diese Codes da bedeuten.

Guckt mal hier, zum Beispiel bei Qwen 3 Coder 30B: Wenn ihr da in LM Studio auf „Download Options“ klickt, seht ihr die vier Quantisierungsstufen: 3‑Bit, 4‑Bit, 6‑Bit, 8‑Bit. Wenn ihr einen Mac habt, seht ihr sogar noch mehr – nämlich die für MLX optimierten Versionen zusätzlich. Aber ihr sucht auf jeden Fall das aus, was am besten in euren GPU‑Speicher passt. Da zeigt euch LLM Studio auch Icons an – also hier zum Beispiel „vollständiges GPU‑Offloading möglich“ oder eben nicht. Wenn es nicht möglich ist, dann wird’s langsam – geht aber auch.

Wenn ihr dann im Chatfenster das Modell auswählt, sollte LLM Studio direkt automatisch den besten GPU‑Offload einstellen – also wie viel vom Sprachmodell in euren GPU‑Speicher geladen wird. Außerdem könnt ihr das Kontextfenster (oder wie LLM Studio anzeigt: die Kontextlänge) einstellen. Das bedeutet, wie viele Tokens – ein Token ist ungefähr eine Silbe – das Sprachmodell im Kurzzeitgedächtnis halten kann.

Das ist wichtig, wenn ihr mit viel Code herumhantiert, aber auch für RAG – Retrieval Augmented Generation. Also das Generieren ergänzt durch Abrufen, z. B. Abrufen von Informationen. Das klingt jetzt kompliziert, ist aber in der Praxis total super und praktisch. Und es klappt inzwischen auch wirklich gut mit den aktuellen lokalen Modellen.

Ein Beispiel: Ihr habt ein unübersichtliches PDF und wollt da eine bestimmte Info draus haben, aber keine Lust, euch da durchzuquälen.
Dann werft ihr das einfach auf LM Studio. Ich habe hier mal das Programm einer Tagung, wo ich vor vielen Jahren mal einen Vortrag gehalten habe. Dann kann ich einfach schreiben: „Wann findet der Vortrag von Jan-Keno Janssen statt?“ – und dann kriege ich super schnell eine korrekte Antwort. Man kann aber natürlich auch aufwendigere Dinge tun. Zum Beispiel: „Guck dir mal die Vornamen aller Personen an, die da sprechen, und rechne mit ihnen das Geschlechterverhältnis aus.“ Ja, zack – funktioniert. Hätte manuell ewig gedauert.

Klar, das können ChatGPT & Co. in der Cloud auch – aber man will ja vielleicht PDFs analysieren, die man nicht unbedingt im Internet herumschicken will, nicht an OpenAI in die USA. Mit lokalen Modellen bleibt das eben alles lokal – und wenn es auf die Grafikkarte passt, geht’s richtig schnell.

Der Nachteil allerdings: Weil die Modelle eben lokal laufen, können die nicht out of the box im Netz was suchen.
Das geht mit MCP – Model Context Protocol. Darüber haben wir schon ein eigenes Video gemacht, das würde jetzt zu weit führen.

Es ist halt so, dass die kommerziellen Cloud‑LLMs wie ChatGPT, Claude und Gemini inzwischen standardmäßig selbst im Netz suchen.
Das machen unsere lokalen Modelle hier nicht. Deshalb geben die auch auf viele Fragen schlechte oder falsche Antworten.

Als ich zum Beispiel gefragt habe: „Was ist das c’t‑Magazin?“, kam bei einigen eine korrekte Antwort, z. B. bei Mistral Small 3.2 aus Frankreich – aber oft auch richtiger Schrott. Das schon ältere Llama 3.23B sagt zum Beispiel, dass „c’t“ „Cthulu Times“ sei. Okay, ja … mhm.

Manchmal sieht die Antwort auf den ersten Blick okay aus, aber dann steht da auf einmal so was wie: „c’t gehört zur Famitsu Publishing Group.“
Okay … Also als lokale Wikipedia, wenn man gerade kein Netz hat, sollte man auf jeden Fall nicht diese kleinen Modelle verwenden. Aber zum Beispiel das GPT‑OSS 120B, von dem hier schon öfter die Rede war, produziert schon ganz gute Fakten.

Wenn ihr in LLM Studio eure installierten Modelle anschaut, könnt ihr mit diesem Ordnersymbol nicht nur die Zahl der Parameter oder Quantisierung sehen, sondern auch Zusatz‑Icons: Der Hammer bedeutet z. B. Tool Use, also Werkzeugbenutzung. Das kann also mit MCP umgehen, z. B. Browser bedienen. (Wie gesagt – eigenes Video dazu.) Und es gibt auch das gelbe Auge: Das bedeutet Vision, also dass das Modell Bilder verstehen kann.

Da war ich echt überrascht, wie gut das klappt. Ich habe z. B. dem nur 12‑Milliarden‑Parameter‑großen Gemma 3 von Google dieses Thumbnail hier gegeben und gesagt: „Roaste den Typen da drauf mal.“ Und dann sagt Gemma 3 sinngemäß: „Schau dir diesen Mann an – er sieht aus wie ein Teddybär, der versucht, einen Gaming‑Stream zu moderieren. In diesem Bart könnte er locker drei Hamster unterbringen …“ usw.

Also, man kann mit diesen Modellen auch sinnvollere Sachen machen – z. B. sie in Visual Studio Code einbinden, etwa mit der Software Continue oder Cline. Da muss man einfach in VS Code LLM Studio als Provider auswählen und kann dann ein Modell da einladen – und das hilft einem beim Programmieren.

Wenn ihr bis jetzt durchgehalten habt, dann habt ihr vielleicht gemerkt, dass das ein riesiges Thema ist, und ich könnte da stundenlang drüber sprechen. Aber das war jetzt, glaube ich, schon fast zu viel Inhalt für ein Video. Ich sehe das mal als Versuch. Ich gucke, wie das so ankommt bei euch – und wenn ihr da mehr drüber wissen wollt, dann mache ich zu den einzelnen Themen noch einzelne Videos.
Also eben sowas wie: selbstgebauter KI‑Server mit mehreren gebrauchten RTX 3090ern, oder lokale LLMs in einen Code‑Editor einbauen, oder einen eigenen Agenten bauen, der lokal läuft und Webseiten bedienen kann, oder auch, wie man LLMs finetuned. Oder, oder, oder – da gibt’s so viele Themen. Sagt ihr mir einfach, was ihr sehen wollt – und dann machen wir das. Tschüss.

c’t 3003 ist der YouTube-Channel von c’t. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.


(jkj)



Source link

Künstliche Intelligenz

Nexperia-Chipkrise: Sehenden Auges ins Desaster


Bei der niederländisch-chinesischen Chipfirma Nexperia drohen Lieferstopps, die deren direkte und indirekte Kunden in Probleme stürzen. Betroffen sind nicht bloß europäische Autofirmen wie VW. Denn Nexperia liefert gängige Standardkomponenten, die in sehr vielen Produkten stecken.

Die drohende Krise wäre vermeidbar gewesen. Zwar ist man im Nachhinein immer schlauer als zuvor, aber ein Blick auf die Entwicklung bei Nexperia überrascht aus heutiger Perspektive. Es gibt Hinweise, dass Politik und Unternehmen naiv und planlos agierten, obwohl es deutliche Warnzeichen gab.

Auf den ersten Blick produziert Nexperia keine sonderlich wichtigen Halbleiterbauelemente. Denn dazu gehören viele vermeintlich unscheinbare Standardprodukte, sogenannte diskrete Bauelemente wie Transistoren, Dioden und Überspannungsableiter (Schutz gegen elektrostatische Entladungen, ESD). Ähnliche Produkte wie Nexperia liefern auch Konkurrenten wie Analog Devices, Maxim, Onsemi, Renesas und TI.


Das war die Leseprobe unseres heise-Plus-Artikels „Nexperia-Chipkrise: Sehenden Auges ins Desaster“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

WD will Probleme älterer SMR-Festplatten untersuchen


Western Digital (WD) untersucht mögliche Probleme bei einigen älteren Festplatten. Der Hersteller reagiert damit auf Berichte von Datenrettern, die auf ungewünschte Begleiterscheinungen der HDD-Firmware aufmerksam machen. Diese können zum Komplettausfall der Festplatten führen.

Weiterlesen nach der Anzeige

„Vertrauen und Zuverlässigkeit sind die Grundlage für alles, was wir bei Western Digital machen. Wir nehmen die von 030 Datenrettung gemeldeten Ergebnisse ernst und haben eine Untersuchung durch unsere Ingenieurteams eingeleitet, um den Umfang und die Details dieser Berichte nachzuvollziehen“, schreibt WD.

Das ist schon mehr, als die WD-Schwester Sandisk zuletzt zustande brachte: Probleme bei USB-SSDs, die zum Datenverlust führen können, schweigt der Hersteller bis heute tot.

WD bestätigt zudem unsere Annahme, dass Modelle aus der WD-Purple-Baureihe aufgrund eines unterschiedlichen technischen Unterbaus nicht betroffen sein sollten. Der Hersteller betont auch, dass die betroffenen Modelle nicht mehr hergestellt werden.

Insbesondere bei Festplatten tauchen allerdings immer wieder alte Lagerbestände im Handel auf. Auch jetzt listen vereinzelte Shops noch zahlreiche der betroffenen HDDs. Wer eine WD-Festplatte mit 2 bis 6 TByte Kapazität kauft, sollte genau auf die Modellbezeichnung schauen.

Kunden mit Problemen sollen den WD-Support kontaktieren. Vorsicht ist allerdings auch mit Rückendeckung des Herstellers geboten: Ist der Kontakt zum Support notwendig, sind die Daten womöglich schon verloren.

Weiterlesen nach der Anzeige

Bei den Problemen geht es um Festplatten mit Kapazitäten bis 6 TByte, die eine intern VeniceR genannte technische Plattform verwenden. Sie setzen auf die Aufzeichnungstechnik Shingled Magnetic Recording (SMR), bei der sich die Datenspuren überlappen.

Aufgrund dieser Überlappung ist eine komplexe Firmware notwendig, die in Übersetzungstabellen stets protokolliert, welche Daten sich wo befinden. Hier kann es zu unerwünschten Nebeneffekten kommen, die zu Fehlern in den Übersetzungstabellen und letztendlich zum Ausfall führen.


(mma)



Source link

Weiterlesen

Künstliche Intelligenz

Top 10: Die besten Fitness-Tracker im Test – Testsieger Amazfit für nur 90 Euro


Whoop 4.0 im Test

Whoop 4.0 will als Fitness-Wearable helfen, die Gesundheit und Leistungsfähigkeit basierend auf wissenschaftlicher Grundlage zu optimieren. Für wen sich das Armband mit integriertem optischen Sensor lohnt, klären wir im Test.

VORTEILE

  • guter KI-Coach
  • integrierte Trainingsdatenbank für Kraftsport
  • guter Pulssensor

NACHTEILE

  • teuer
  • kein integriertes GPS
  • Stressmessung teilweise ungenau

Whoop 4.0 will als Fitness-Wearable helfen, die Gesundheit und Leistungsfähigkeit basierend auf wissenschaftlicher Grundlage zu optimieren. Für wen sich das Armband mit integriertem optischen Sensor lohnt, klären wir im Test.

Im Segment der Fitness-Tracker ist das Whoop 4.0 in gleich mehrerlei Hinsicht ein besonderes Produkt. Denn anders als die Geräte von Fitbit, Garmin, Huawei und Co. verzichtet der Hersteller des Whoop-Bands auf ein Display. Gemessene Daten lassen sich dementsprechend nur in der App ablesen. Ferner bekommen Anwender das Whoop 4.0 weitestgehend kostenlos, müssen für die Nutzung aber ein kostenpflichtiges Abo abschließen.

Wir haben uns das Whoop 4.0 mit seiner einzigartigen Funktionsweise genauer angeschaut und klären in unserem Test, für wen sich die Anschaffung des Wearables und das zugehörige Abonnement lohnt.

Design: Wie trägt man Whoop?

Wie bereits erwähnt, verzichtet der Hersteller beim Whoop 4.0 vollständig auf ein Display. Damit möchte das Unternehmen eine seiner Meinung nach unnötige Ablenkung eliminieren und den Fokus auf die reine Datenanalyse legen. Das Gerät besteht dementsprechend aus einem kleinen schwarzen Gehäuse, in dem der Akku und die Sensoren des Trackers eingebaut sind, bestehend aus fünf LEDs mit grünem und infrarotem Licht sowie vier Fotodioden, die Herzfrequenz, Hauttemperatur und Blutsauerstoff messen.

Whoop 4.0

Neben dem eigentlichen Gerät ist im Lieferumfang ein gewebtes Stoffarmband und ein drahtloses Akku-Ladepack enthalten. Das Armband lässt sich flexibel in der Größe anpassen und wird am Gehäuse des Whoop 4.0 eingeklemmt. Mit einem Bügelmechanismus kann man anschließend das Armband am Handgelenk fixieren. Was auf den ersten Blick etwas gewöhnungsbedürftig wirkt, entpuppt sich in der Praxis als durchdachte und bequeme Lösung, die dazu führt, dass man das Whoop 4.0 im Alltag kaum spürt.

Whoop bietet zudem eine Vielzahl an Zubehör an, darunter neben verschiedenen Armbändern aus unterschiedlichen Materialien und Bizepsbändern für das Tragen am Oberarm auch Arm-Sleeves oder Unterwäsche, in der man das Wearable platzieren kann. Dadurch hat man die Möglichkeit, das Whoop 4.0 an verschiedenen Stellen am Körper zu tragen und es weitestgehend unter der eigenen Kleidung verschwinden zu lassen. Für bestimmte Sportarten, bei denen ein Armband am Handgelenk hinderlich oder sogar gefährlich sein kann, ist das definitiv ein Vorteil gegenüber anderen Fitness-Trackern.

Das Whoop 4.0 ist übrigens nach IP68-Standard zertifiziert und übersteht damit ein Eintauchen in zehn Metern Wassertiefe für maximal zwei Stunden. Der Tracker eignet sich dementsprechend auch für den Einsatz bei diversen Wassersportarten.

Einrichtung: Kann man Whoop auch ohne Mitgliedschaft nutzen?

Das Whoop 4.0 funktioniert nur im Rahmen eines Abo-Modells. Die Einrichtung erfolgt ein wenig anders als bei einem herkömmlichen Fitness-Tracker. Möchte man das Whoop 4.0 ausprobieren, erstellt man einen Account bei Whoop und lässt sich das Whoop 4.0 zuschicken. Für Neukunden ist eine 30-tägige kostenlose Testphase inklusive. Sobald der Test abgelaufen ist, wird man in der App aufgefordert, ein Abo abzuschließen, damit man weiter alle Funktionen von Whoop nutzen kann.

Die Einrichtung des Trackers an sich funktioniert aber denkbar einfach. Wir laden die Whoop-App auf unser Smartphone herunter, loggen uns mit unserem Account ein und koppeln das Wearable via Bluetooth über die Geräteeinstellungen mit dem Handy. Nach erfolgreicher Kopplung können wir uns durch ein Tutorial klicken, das uns die wichtigsten Funktionen des Whoop-Bands und der App erklärt.

Aktivität & Training: Was zeichnet Whoop auf?

Obwohl es sich beim Whoop 4.0 um ein Fitnessarmband handelt, gibt es im Vergleich zu klassischen Smartwatches (Bestenliste) und Fitness-Trackern (Bestenliste) einige wesentliche Unterschiede. Das wichtigste Detail vorweg: Das Whoop verzichtet auf ein Display, sodass die Bedienung nur in Verbindung mit dem Smartphone möglich ist. GPS-Features oder ein Schrittzähler fehlen komplett.

Stattdessen misst Whoop die tägliche Belastung, der unser Körper ausgesetzt ist, und bewertet sie auf einer Skala von null bis 21. Um die jeweilige Anstrengung eines Tages zu berechnen, berücksichtigt der Tracker verschiedene biometrische Daten wie Herzfrequenz, Blutsauerstoffsättigung und Hauttemperatur. Der gesamte Belastungswert basiert dann sowohl auf körperlicher Aktivität wie Sport oder Arbeit als auch auf Stress und Erholungsmaßnahmen.

Zusätzlich gibt es eine Anzeige für den täglichen Stresslevel, den sogenannten Stress-Monitor. Dieser zeigt an, wie viel Zeit wir mit wie viel Stress verbracht haben. Dabei unterscheidet Whoop zwischen Phasen mit niedrigem, mittlerem und hohem Stress sowie Stress innerhalb und außerhalb von Belastungsaktivitäten sowie beim Schlafen. Diese Werte vergleicht der Tracker mit anderen Tagen und zeigt langfristige Trends auf, von denen wir ableiten können, ob bestimmte Aktivitäten uns besonders viel Stress verursachen. In der Praxis funktionierte das größtenteils zuverlässig und nachvollziehbar. Allerdings kam es in einem Fall zu seltsamen Werten, als die Testerin entspannt auf dem Sofa lag, das Whoop-Band aber einen hohen Stresslevel attestierte.

In Kombination mit dem Stress-Monitor können wir anhand der Logbuch-Funktion prüfen, wie sich bestimmte Verhaltensweisen auf unsere physische und psychische Gesundheit sowie Erholung auswirken. Dazu legen wir in der App eine Auswahl verschiedener Verhaltensweisen fest, etwa „Dehnübungen gemacht“, „genug Wasser getrunken“ oder „Spät arbeiten“. Die Optionen zur Personalisierung des Logbuchs umfassen eine Vielzahl unterschiedlicher Aktivitäten und Gewohnheiten aus den Bereichen Erholung, Ernährung, Gesundheitszustand, Lifestyle, Medikamente, mentale Gesundheit, Schlaf und mehr. Wer regelmäßig die entsprechenden Daten im Logbuch einträgt und eine Gewohnheit variabel ausführt, erhält in der App konkrete Informationen über deren Auswirkungen. Dabei unterscheidet Whoop, in welchem Maß eine Gewohnheit der eigenen Erholung hilft oder schadet. Im Fall unserer Testerin berechnete der Fitness-Tracker, dass die Einnahme von entzündungshemmenden Medikamenten wie Ibuprofen die Erholung um sieben Prozent verschlechtert.

Ob diese Analysen tatsächlich realistische Werte ergeben, lässt sich subjektiv schwer einschätzen. Wer sich die Mühe macht und über mehrere Tage die entsprechenden Daten im Logbuch einträgt, kann aber zumindest gewisse Trends ausmachen und erhält Anregungen, welche Gewohnheiten die physische und psychische Erholung beeinflussen könnten.

Neben den Gesundheitsdaten im Alltag zeichnet Whoop auch konkrete Trainingseinheiten auf. Körperliche Belastung registriert das Armband automatisch, wer aber eine bestimmte Sportart tracken möchte, muss die Aufzeichnung zunächst manuell in der App aktivieren. Hat man ein paar Einheiten derselben Sportart abgeschlossen, erkennt das Armband mit der Zeit aber automatisch, wenn man eine entsprechende Trainingseinheit ausführt. Wir haben die automatische Trainingserkennung mit dem Laufen ausprobiert, was in unserem Fall auch reibungslos funktioniert hat.

Starten wir ein Ausdauertraining, etwa Laufen oder Radfahren, können wir die Strecke aufzeichnen. Allerdings muss dafür die App auf dem Smartphone aktiv sein und Zugriff auf unseren Standort erhalten, weil das Whoop 4.0 nicht über ein eigenes GPS-Modul verfügt. Anhand unserer aktuellen Belastungsdaten empfiehlt uns die App ein spezifisches Belastungsziel, das wir aktivieren oder deaktivieren können. Erreichen wir das Ziel, erhalten wir eine Benachrichtigung in der App. Das Ziel berücksichtigt unsere Trainings- und Erholungsziele, die wir wiederum in der App festlegen können.

Nutzer, die das Whoop 4.0 vorwiegend für Krafttraining verwenden möchten, können sich den Strength-Trainer zunutze machen. Dabei handelt es sich um eine Art Trainingsdatenbank in der App, die vorprogrammierte Workouts unterschiedlicher Schwierigkeitsgrade beinhaltet. Außerdem können wir mithilfe des Strength-Trainers eigene Trainingseinheiten erstellen und dabei sowohl Übungen als auch Sätze und Wiederholungen definieren. Die App gibt dann an, welche Muskelgruppen wir mit dem jeweiligen Training konkret belastet haben.

Ferner haben wir die Möglichkeit, in der App konkrete Ziele für Training und Fitness festzulegen. Dazu stellt uns Whoop in der App einige Fragen, auf deren Basis wir dann Empfehlungen für unseren Trainingsalltag erhalten. Empfiehlt Whoop uns in der App dann etwa basierend auf unserer aktuellen Erholung eine bestimmte Trainingsbelastung, können wir direkt über die App eine entsprechende Aktivität starten, um das Belastungsziel zu erreichen. Das funktionierte im Test absolut intuitiv und problemlos.

Neben der Belastungsaufzeichnung bietet die Whoop-App noch einen separaten Reiter für die Erholung. Dabei berücksichtigt Whoop verschiedene Werte wie unseren Schlaf, unsere Ruheherzfrequenz und unsere Herzfrequenzvariabilität. Um unseren Erholungswert zu berechnen, vergleicht die App die aktuellen Daten mit früheren Messungen und gibt einen Prozentsatz aus. Je niedriger unser Ruhepuls und je höher unsere Herzfrequenzvariabilität bei guter Schlafleistung ausfallen, desto besser bewertet Whoop unsere Erholung. Die gemessenen Werte für Ruhepuls und HFV wichen in unserem Fall nur minimal von den Daten unseres Kontrollgeräts (Garmin Fenix 7) ab. Entsprechend lassen sich also glaubwürdige Rückschlüsse über den Grad unserer Erholung aus den Analysen der Whoop-App ziehen.

Insgesamt bietet das Whoop 4.0 eine Vielzahl an Möglichkeiten, das eigene Training aufzuzeichnen, allerdings liegt der Fokus des Wearables primär auf der erlittenen Belastung. Daten wie Schritt- und Trittfrequenz, Durchschnittstempo oder VO2 Max sucht man vergebens. Dass man zudem für praktisch jede Aktivität das Smartphone benötigt, weil das Armband über kein eigenes Display verfügt, schränkt den Nutzen des Wearables beim Training ein. Wer auf Daten wie Herzfrequenz oder das Lauftempo angewiesen ist, kommt also um den Einsatz einer zusätzlichen Smartwatch einschlägiger Hersteller nicht herum. Das führt wiederum die Intention von Whoop teilweise ad absurdum, ein ablenkungsfreies Armband anbieten zu wollen.

Schlaf: Was kann Whoop alles messen?

Das Schlaf-Tracking gehört zu den zentralen Funktionen des Whoop 4.0, weil unser Schlaf signifikante Auswirkungen auf unsere Erholung hat. Der Tracker berechnet unsere Schlafaktivität anhand von Daten wie Herzfrequenz, Hauttemperatur, Dauer und den einzelnen Schlafphasen. Die von Whoop in der App aufbereitete Statistik berücksichtigt unsere Zeit im Bett, die Beständigkeit unseres Schlafs (also die Variabilität unserer Schlaf- und Weckzeiten), das Maß an erholsamem Schlaf sowie unser Schlafdefizit. Unsere Schlafleistung gibt an, wie viel wir geschlafen haben im Vergleich mit der benötigten Menge an Schlaf.

Die App erklärt sämtliche Schlafparameter in ausführlichen Informationsboxen. Alle Daten werden zudem in einzelnen Tabellen aufbereitet und vorangegangenen Tagen, Wochen und Monaten gegenübergestellt, sodass wir langfristige Trends ablesen können. Einschlaf- und Aufwachzeitpunkt hat das Whoop 4.0 in unserem Test zuverlässig aufgezeichnet. Die Messungen der Schlafphasen entsprachen unserem subjektiven Empfinden und wichen nur geringfügig von den Daten unseres Kontrollgeräts ab.

Bei Bedarf kann man in der Whoop-App auch eine Weckfunktion aktivieren. Das Whoop 4.0 weckt seinen Nutzer dann entweder zu einer bestimmten Uhrzeit oder auf Wunsch im Rahmen eines Zeitfensters mit der intelligenten Weckfunktion. Das Band vibriert dann, wenn wir uns entsprechend der Messung unserer Schlafphasen gerade besonders nahe am Wachzustand befinden. Um die Vibration zu deaktivieren, müssen wir mit dem Finger auf die Oberseite des Whoop-Bands tippen. Das funktionierte im Test nicht immer zuverlässig.

Features: Welche Funktionen gibt es noch?

Neben den zahlreichen Analyse-Funktionen für Belastung, Erholung und Schlaf verfügt das Whoop 4.0 über einen integrierten K.I.-Bot. Dieser sogenannte Whoop-Coach befindet sich derzeit noch in der Beta-Phase, funktioniert aber in deutscher Sprache und beantwortet uns Fragen zu unseren Daten. Wir können beispielsweise nach konkreten Trainingsempfehlungen fragen oder um eine Einschätzung unserer Schlafdaten bitten. Dabei gilt: Je mehr Daten das Whoop-Band bereits über uns gesammelt hat, desto genauer und umfangreicher fallen die Antworten des Bots aus. In unserem Fall hat die K.I. durchaus nachvollziehbare Antworten auf unsere Fragen gegeben. Die Antwortzeit blieb mit wenigen Sekunden dabei jederzeit im annehmbaren Rahmen.

Für Frauen bietet das Whoop 4.0 übrigens noch die Möglichkeit, den eigenen Zyklus aufzuzeichnen. Dabei kann man Symptome wie einen aufgeblähten Bauch oder konkrete Schmerzen über das Logbuch notieren. Tragen wir den Beginn der Periode ein, informiert uns die App über die aktuelle Zyklusphase und berät uns zur Trainingsintensität. Außerdem macht Whoop konkrete Angaben zur Schlafeffizienz, abhängig von unseren Zyklusdaten. Die Empfehlungen in der App sind hilfreich für Frauen, die zyklusbasiert trainieren möchten. Leider verzichtet Whoop auf eine Option, mit deren Hilfe wir unsere Körpertemperatur und weitere Zyklusdaten notieren können. Für Methoden wie NFP ist das Zyklustracking von Whoop daher nicht geeignet.

Akku: Wie lange läuft das Whoop 4.0?

Whoop gibt die Akkulaufzeit des Whoop 4.0 mit rund fünf Tagen an. Diesen Wert konnten wir in unserem Test bestätigen: Nach drei Trainingseinheiten in fünf Tagen zu je etwa anderthalb Stunden war die Ladung des Akkus nach knapp fünf Tagen erschöpft. Der Hersteller liefert den Tracker aber mit einem kabellosen Akku-Pack aus, das ebenfalls wasserdicht ist. Dadurch kann man die Laufzeit des Wearables deutlich verlängern, ohne es ablegen zu müssen. Das Akku-Pack wird einfach über das Whoop-Band geschoben und lädt den Akku dann unterwegs wieder auf. Um das Akku-Pack selbst aufzuladen, ist im Lieferumfang ein USB-C-Ladekabel enthalten. Wer möchte, kann außerdem zusätzliche Akku-Packs im Online-Shop von Whoop zum Preis von 49 Euro (genauer gesagt 59 Euro für variable Farben) erwerben.

Preis: Wie viel kostet Whoop 4.0?

Anders als die meisten anderen Anbieter am Markt für Wearables verfolgt Whoop ein Preismodell, das nicht auf dem Modell „Buy to Use“ basiert. Anstatt also einmalig mehrere hundert Euro für das Whoop 4.0 zu investieren, müssen Nutzer ein Abonnement abschließen. Darin enthalten sind das Whoop 4.0 als Neugerät oder generalüberholtes Gebrauchtmodell inklusive Superknit-Armband und Akkupack. Neukunden können den Tracker für 30 Tage kostenlos testen. Am Ende der Testphase muss man dann ein kostenpflichtiges Abo abschließen, andernfalls wird das Whoop 4.0 nutzlos.

Für das Abonnement bietet Whoop verschiedene Bezahlpläne an. Ein Monatsabo kostet 30 Euro, allerdings liegt die Mindestlaufzeit bei 12 Monaten. Nach Ablauf der 12 Monate ist das Abo jeweils monatlich kündbar. Alternativ können wir auch direkt ein Jahresabo abschließen und auf einen Schlag 264 Euro zahlen. Die monatlichen Kosten belaufen sich dann auf 22 Euro. Die teuerste Version ist Whoop Pro. Hier zahlen wir einmalig 408 Euro (34 Euro pro Monat), erhalten dafür aber 20 Prozent Rabatt auf alle Artikel im Shop sowie einen Gratisartikel alle drei Monate.

Fazit: Für wen lohnt sich das Whoop?

Der Hersteller hat mit dem Whoop 4.0 eine klare Zielgruppe vor Augen, nämlich die der Daten-Nerds. Wer am liebsten jedes noch so kleine Detail tracken und den Körper minutiös überwachen möchte, kommt mit dem Whoop 4.0 definitiv auf seine Kosten. Der Umfang der Datenanalysen ist immens und erlaubt tiefgreifende Einblicke in die eigenen Gewohnheiten.

Am Ende muss sich Whoop aber die Frage gefallen lassen, wer dieses Wearable wirklich benötigt. Zwar bewirbt der Hersteller explizit damit, dass der Tracker ein ablenkungsfreies Training ermöglicht, aber diese Prämisse läuft ins Leere, wenn wir für viele Features eben zum Smartphone greifen oder auf andere, zusätzliche Tracker und Smartwatches ausweichen müssen.

Ja, das, was das Whoop 4.0 machen soll und will, macht es gut. Aber ob man dafür wirklich 22 Euro oder mehr im Monat zahlen muss, lässt sich nur sehr individuell beantworten. Denn alle Funktionen und Analysen, die Whoop bietet, liefern auch die Mitbewerber am Markt für smarte Wearables und Fitness-Tracker. Eine Garmin Fenix 7 zeichnet genauso den Schlaf, die Herzfrequenz und die Belastung auf wie das Whoop 4.0 und hat zudem noch viele weitere nützliche Features zu bieten, dank derer man wirklich auf ein Smartphone verzichten kann.

Möchte man zusätzlich noch Gewohnheiten tracken, die sich möglicherweise auf die eigene Erholung auswirken, kann man das auch ohne Whoop tun – nämlich ganz altmodisch mit Stift und Papier oder mit einer kostenlosen Smartphone-App wie Habitnow oder Daylio. Das Whoop 4.0 ist also letztlich nur für diejenigen Nutzer interessant, die typische Trackingfeatures für Schlaf, Belastung und Erholung nicht mit anderen Maßnahmen aufzeichnen können oder wollen.



Source link

Weiterlesen

Beliebt