Künstliche Intelligenz
Der beste Rechner für lokale KI, aber…
Sogenannte KI-Workstations wie Nvidias DGX Spark sind durch das Unified-Memory-Konzept gut für große lokale KI-Modelle geeignet. Diese Technik gibt es auch in Apple-Silicon-Macs und im direkten Vergleich arbeiten sie bei großen Sprachmodellen teils sogar schneller und extrem effizient. Bei Video- und Bildgenerierung sieht das anders aus. Wir haben zwei aktuelle Mac Studios gegen Nvidias DGX Spark und AMDs Strix Halo antreten lassen.
Weiterlesen nach der Anzeige
Transkript des Videos
(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)
Guck mal hier, das bin ich, wie ich endlich mal KI-Zeug auf Apple-Rechnern teste. Und direkt Spoiler: Das große, sehr gute Modell gpt-oss-120B habe ich noch auf keinem Rechner, der hier auf meinem Schreibtisch stand, so schnell laufen sehen. Und da standen schon sehr viele und auch sehr teure. Interessant ist dabei: Ein Mac Studio M4 Max mit 128 GB geteiltem Speicher kostet mit knapp 4.200 Euro ungefähr genauso viel wie die Nvidia-DGX-Spark-Workstations, die mit gpt-oss-120B deutlich weniger Tokens pro Sekunde machen. Also Apple, denen man ja nachsagt, KI so ein bisschen zu verschlafen, performt viel besser als die OG-KI-Superfirma Nvidia mit ihrer KI-Workstation? Hä? Ja, beim Anzapfen von solchen großen Sprachmodellen wie gpt-oss-120B ist das auf jeden Fall ganz klar so. Aber bei anderen KI-Sachen, da sieht die Sache schon wieder ganz anders aus. Ich habe übrigens zusätzlich zu dem Mac Studio mit M4 Max auch noch einen M3 Ultra mit 512 GB RAM getestet und noch etliche andere Rechner. Bleibt dran, wird wirklich interessant.
Liebe Hackerinnen, liebe Internetsurfer, herzlich willkommen hier bei …
Wenn ihr euch fragt: lokale KI, ja, was soll das eigentlich bringen? Lokale KI ist super interessant, weil man da nicht mehr auf irgendwelche Anbieter aus USA oder China angewiesen ist, die vielleicht klammheimlich irgendwas ändern an den KI-Modellen. Stellt euch mal vor, ihr habt so in mühsamer Kleinarbeit komplexe Workflows auf ein bestimmtes KI-Modell in der Cloud angepasst, und dann nimmt der Anbieter das aus dem Angebot oder ändert das, und dann läuft euer Kram nicht mehr. Mit lokalen Modellen seid ihr komplett safe, weil die liegen ja bei euch auf der SSD. Problem ist nur: Diese sogenannten Open-Weights-Modelle, Open Source werden die auch manchmal genannt, aber das sind die so gut wie nie, weil man nämlich die Trainingsdaten nicht kennt. Also Open Weights, ich nenne die ab jetzt einfach lokale Modelle. Die waren lange Zeit ziemlich schlecht, aber die holen auf. Die sind auf jeden Fall noch nicht auf dem Stand der State-of-the-Art-Cloud-Modelle wie Gemini 3 oder GPT 5.2, aber man kann damit auf jeden Fall schon arbeiten. Das habe ich hier in diesem Video auch schon mal anschaulicher gezeigt, was man da so machen kann.
Und es gibt natürlich auch Bild- und Videogenerierungsmodelle, die auch lokal laufen und die ziemlich gut sind und die man zum Beispiel auch selbst feintunen kann. Die man also selbst anpassen kann, dass da wirklich der Stil rauskommt, den man gerne haben will. Ganz aktuell ist da zum Beispiel Flux.2 für Bilder aus dem Schwarzwald oder WAN 2.2. für Videos. Das Problem ist nur, und das gilt vor allem für die LLMs: Je besser die Modelle, desto mehr schnellen Speicher brauchen die meistens. Und der schnelle Grafikspeicher von Grafikkarten ist dafür zwar sehr gut geeignet, aber man kriegt im Bereich bis, sagen wir mal, 2.000 Euro für eine Grafikkarte nur maximal 32 GB. Mein aktuelles Open-Weights-LLM, gpt-oss-120B, braucht ungefähr 63 GB Speicher. Ja, schwierig. Und man kann natürlich auch normales RAM verwenden, also statt Grafikspeicher einfach DDR5-RAM, wenn man es sich leisten kann. Aber nur auf DDR5 läuft wirklich kein Modell brauchbar schnell. Seht ihr später auch in den Benchmarks, wie das läuft. Lahm.
Aber es gibt ja auch immer mehr Spezialrechner, die für KI ausgelegt sind. Zum Beispiel die kleine Nvidia-KI-Workstation DGX Spark, die es von etlichen OEMs gibt. Haben wir auch schon mal ein Video zu gemacht, von der Gigabyte-Version. Oder auch die AMD-Halo-Strix-Rechner, zum Beispiel Framework Desktop, da gab es auch schon mal ein Video dazu. Und die nutzen alle Unified Memory, also CPU- und GPU-Speicher sind geteilt und schneller angebunden als normaler, zum Beispiel DDR5-Speicher.
Weiterlesen nach der Anzeige
Das Ding ist aber, dass Apple dieses Unified-Memory-Konzept schon lange nutzt. Also seit der Einführung von Apple Silicon vor fünf Jahren, also vor dem KI-Hype. Apple-Silicon-Rechner sind wegen des schnellen Speichers zumindest theoretisch super geeignet für KI. Und auch in der Praxis gilt das so langsam, da wird nämlich immer mehr Software richtig gut angepasst. Also zum Beispiel die zum Abzapfen von Sprachmodellen, also zum Beispiel für so ChatGPT-artige Anwendungen. Bild- und Videogenerierung, ja, da kommen wir später noch zu.
Erst mal Sprachmodelle, zum Beispiel das erwähnte gpt-oss-120B. Ja, und das habe ich auf zwei Apple-Rechnern getestet: einmal auf dem Mac Studio M4 Max mit 128 GB gemeinsamem Speicher für 4174 Euro. Und einmal dem Mac Studio M3 Ultra mit 512 GB gemeinsamem Speicher für 11.674 Euro. Tatsächlich sind beides aktuelle Geräte, denn wenn ihr euch jetzt wundert: Hä, M3: ist das nicht alt? Ne, tatsächlich sind beides aktuelle Geräte, denn wenn man mehr als 128 GB haben will, gibt es kein Gerät mit M4 Max, sondern dann gibt es nur den M3 Ultra. Und Ultra bedeutet in diesem Fall, dass da zwei M3-Einheiten zusammengebacken wurden, das nennt Apple Ultra Fusion. Ja, und obwohl die M4-Generation eine bessere Speicherbandbreite hat, nämlich beim M4 Max 546 GB/s, kriegt man mit dem M3 Ultra trotzdem mehr, weil es sind ja zwei M3-Einheiten, was hier insgesamt 819 GB/s entspricht.
Und was habe ich da nun genau drauf getestet? Ja, drei Sprachmodelle: ein ganz kleines Qwen3-4B, Q4 quantisiert, 2,5 GByte groß, ein mittleres Mistral Small 3.2 24B, auch Q4 quantisiert, das ist 15,2 GByte groß, und ein recht großes gpt-oss-120B mit im MXFP4-Format, 63,4 GByte groß.
So, und ich habe ja bislang die Benchmarks mit LM Studio manuell gemacht. Aber da haben mehrere Leute angemerkt, dass man noch ein bisschen mehr Tokens pro Sekunde mit der llama.cpp-Bibliothek rausholen kann. Die wird zwar von LM Studio intern auch verwendet, aber ist da trotzdem oft langsamer. Außerdem ein großer Vorteil: llama.cpp hat auch einen Benchmark eingebaut, und der differenziert zwischen dem Verstehen des Prompts, also dem Prompt Processing, PP oder Prefill, und der reinen Inferenz, also Decode oder Token-Generation, TG. Ja, und weil ich letzte Woche mehr Zeit hatte als sonst, weil ja kein Video kam, bin ich da richtig reingegangen und habe auf sechs unterschiedlichen Plattformen nicht nur llama.cpp installiert, also über die vorkompilierten Binarys, sondern ich habe llama.cpp auf jeder der Plattformen mit möglichst optimalen Compiler-Flags kompiliert. Das macht keinen riesigen Unterschied, aber bei meinem Test konnte ich da schon ein paar Prozent nachweisen, also im Vergleich zu den einfach runtergeladenen Binarys. Man kann mir also auf jeden Fall nicht vorwerfen, dass ich hier nicht fair getestet habe.
Und jetzt endlich die Ergebnisse, worauf ihr wahrscheinlich schon die ganze Zeit wartet: Tatsächlich haben mit gpt-oss-120B die beiden Apple-Rechner die besten Prompt-Processing-Ergebnisse erzielt, die ich jemals gemessen habe, mit gpt-oss-120B: 86 und 82 Token pro Sekunde. Also wie erwartet etwas mehr beim M3 Ultra, weil höhere Speicherbandbreite als beim M4 Max. Aber eigentlich ist der M4 Max die eigentliche Überraschung, weil der beim Generieren nur eine Leistungsaufnahme von 120 Watt hatte. Und 82 Token pro Sekunde bei 120 Watt, das ist wirklich krass effizient. Der M3 Ultra braucht fast das Doppelte, aber ist immer noch viel effizienter als die Konkurrenz. Also richtig doll ineffizient ist mein Desktop-Rechner mit zugeschalteter RTX4090-Grafikkarte. Der macht tatsächlich 14-mal weniger Token pro Watt als der M4 Max. Die beiden Spezialrechner mit Nvidia DGX Spark und AMD Strix Halo, die liegen im Mittelfeld. Bei den kleineren Modellen, die halt in den superschnellen Videospeicher meiner Grafikkarte passen, ja, da kommen M3 Ultra und M4 Max nur auf Platz 2 und 3. Ich habe übrigens, wie am Anfang schon erwähnt, testweise mal die GPU deaktiviert und geguckt, wie weit man nur mit der CPU kommt. Nicht weit, bei allen den drei Sprachmodellen schon sehr langsam, wie ihr hier sehen könnt.
Achtung, Achtung, jetzt kommt ein kurzer Super-Nerd-Einschub, geht gleich wieder nochmal weiter.
Ja, ich weiß, llama.cpp nutzt GGUF-Modelle. Bei Apple kann man ja auch MLX mit vorkonfigurierten MLX-Modellen verwenden. MLX ist das Apple-Machine-Learning-Framework, also quasi der PyTorch-Konkurrent. Ich habe das mit LM Studio getestet, und tatsächlich waren da meine Ergebnisse mit gpt-oss-120B mit MLX schlechter als mit llama.cpp. Und MLX lief auch auf dem M4 Max mit gpt-oss-120B auch gar nicht, sondern nur mit GGUF. Bei den kleineren Modellen war MLX aber tatsächlich ein ganzes Stück schneller, siehe hier meine Werte. Also das solltet ihr tatsächlich bedenken, und das ist auch die Erklärung dafür, dass LM Studio auf macOS bei den meisten Modellen immer beide Varianten, also GGUF oder GGUF und MLX, anbietet. Nerd-Einschub ist vorbei.
So, das war jetzt alles die Token-Generation. Jetzt kommt noch kurz das Prompt Processing, wo es weniger auf die Speicherbandbreite ankommt. Jetzt ist der M3 Ultra zumindest mit dem großen Sprachmodell gpt-oss-120B immer noch Spitzenreiter. Bei den kleineren Modellen, da gewinnt ganz klar wieder die Nvidia-Grafikkarte, und auf dem zweiten Platz ist der Nvidia-DGX-Spark-Rechner. Einfach weil die Nvidia-Kerne mehr rohe Compute-Pferdestärken mitbringen.
So, aber es gibt ja nun auch noch andere KI-Anwendungsbereiche als LLMs, zum Beispiel Bild-, Videobearbeitung, Generierung und so weiter. Das machen die meisten Menschen heutzutage wohl mit ComfyUI, dieser node-basierten Open-Source-Software. Hier gelten Nvidia-GPUs als de-facto Standard, einfach weil das alles sehr CUDA-fokussiert ist, also CUDA, die Nvidia-exklusive Programmierschnittstelle. Ich war deshalb schon ziemlich positiv überrascht, dass ich auf der ComfyUI-Website direkten macOS-Installer für die Desktop-Variante gefunden habe. Da habe ich mich auf mehr Frickeln eingestellt, und es lief alles super, also zumindest die Installation. Aber als ich dann für meine Tests einfach mal das Flux.2-Template aufgerufen habe und die Modelle runtergeladen hatte, bekam ich dann einfach ganz lapidar diese Fehlermeldung. Ja, und stellt sich raus: Apple Silicon kann nicht mit FP8 umgehen, also dem 8-Bit-Gleitkomma-Format, in dem aber dummerweise so gut wie alle ComfyUI-Modelle vorliegen. Also sowohl für Bildgenerierung als auch für Videogenerierung. Man kann sich damit behelfen, Modelle im FP16-Format zu verwenden, aber das verbraucht deutlich mehr Speicher und ist auch langsamer als FP8. Also wenn man denn auch ein FP16-Modell überhaupt findet. Also man will, also ich will das, auch vielleicht einfach nur die Templates anklicken, und dann funktioniert das, und will da jetzt nicht in den Nodes dann noch so viel rumfummeln. Na ja, bei einigen Workflows reichte das in meinen Tests auch einfach aus, in der Konfiguration von ComfyUI einfach auf FP16 hier umzuschalten. Aber auch nicht immer. Na ja, ich habe auf jeden Fall Flux-Dev stabil laufend bekommen und konnte da die Geschwindigkeit messen. Ja, die Geschwindigkeit auf dem Max war nicht berauschend. Ganz grob kann man sagen: 110 Sekunden für ein Standard-Preset-Flux-Dev-Bild auf dem M4 Max. 65 Sekunden hat der M3 Ultra gebraucht. 35 Sekunden, zum Vergleich, die DGX Spark und nur 12 Sekunden meine RTX 4090.
Und ja, mit Videos fange ich gar nicht erst an, das ist alles noch frickeliger gewesen. Und leider haben bei den ComfyUI-Standard-Workflows auch der riesige Speicher der Apple-Rechner keine Vorteile. Einfach weil die Modelle, die ich da gesehen habe und die ich so kenne, also auch die Videogenerierungsmodelle, die sind so gut wie alle für Grafikkarten-Speichergrößen optimiert. Ja, meistens so im Bereich bis 16 GB, ganz selten mal zwischen 16 und 24 GB.
Also auf jeden Fall: Wenn man hauptsächlich ComfyUI-Sachen machen will, dann ist man mit einem dieser Apple-Rechner nicht wirklich gut bedient. Aber ganz wichtig: Das kann sich natürlich alles ändern. Es sind ja jetzt auf jeden Fall schon Anflüge von einem Aufbrechen des CUDA-Monopols zu spüren. Warten wir das mal ab. Als reine LLM-Abzapfmaschine sind die Mac Studios und eigentlich alle Macs mit genügend Speicher beeindruckend gut geeignet. Und eine Eins mit Sternchen kriegen die wirklich in Sachen Effizienz. Will man allerdings nur Modelle laufen lassen, die in den Speicher einer normalen Grafikkarte passen, also maximal 32 GB, dann fährt man nach wie vor günstiger und meistens auch schneller mit einem x86-Rechner mit einer dedizierten Grafikkarte.
Aber bei Modellen wie gpt-oss-120B mit 63 GB, und meiner Meinung nach fängt das in diesen Speicherbereichen oft erst an, wirklich interessant zu werden, dann gibt es zurzeit nichts Besseres als ein Mac. Also auch in Sachen Preis-Leistung. Also zumindest, wenn man einfach was kaufen will. Klar, man kann sich irgendwelche krassen Rechner frankensteinen mit gebrauchten Grafikkarten, aber das gibt es auf jeden Fall nicht von der Stange. Zumindest nicht zu den Preisen.
Bei anderen KI-Anwendungen als LLMs, ja, also zum Beispiel bei ComfyUI, ja, da ist man auf jeden Fall immer noch mit Nvidia-Hardware besser und vor allem auch unkomplizierter bedient. Mit AMD-Hardware ist es fast noch schwieriger als mit Apple-Hardware. Aber wer weiß, wie lange das alles noch so ist.
Leider, und das muss ich auch sagen, habe ich jenseits von gpt-oss-120B, also jenseits der 63 GB, keine Sprachmodelle gefunden, die deutlich besser sind, also für die sich jetzt 128 oder sogar 512 GB lohnen würden. So Sachen wie DeepSeek und Kimi K2, die sind auf jeden Fall besser, aber die brauchen halt noch mehr als 512 GB. Da muss man dann vielleicht mal mit so Clustern rumexperimentieren. Habe ich schon auf der To-do-Liste, das kommt bald, eventuell. Aber wir wissen auf jeden Fall: In der KI-Welt kann alles sehr schnell gehen. Mal sehen, was sich da in den nächsten Monaten tut. Tschüss!
c’t 3003 ist der YouTube-Channel von c’t. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.
(sahe)
Künstliche Intelligenz
Waterfox positioniert sich als KI-freie Firefox-Alternative
Der Firefox-Ableger Waterfox positioniert sich als bewusste Gegenbewegung zu Mozillas KI-Strategie. Wie Waterfox-Entwickler Alex Kontos in einem Blogpost mitteilte, werde der Browser keine Large Language Models enthalten – „Punkt“, wie er unmissverständlich formulierte. Die Ankündigung erfolgte als direkte Reaktion auf Mozillas Pläne, Firefox mit KI-Funktionen auszustatten.
Weiterlesen nach der Anzeige
Mozilla hatte Mitte Dezember unter seinem neuen CEO Anthony Enzor-DeMeo angekündigt, Firefox zu einem „modernen KI-Browser“ weiterzuentwickeln. Die Strategie umfasst Funktionen wie ein AI Window, in dem Nutzer zwischen verschiedenen Sprachmodellen wählen können, sowie Features wie „Shake to Summarize“ für iOS (Schütteln für Zusammenfassung). Nach massiver Kritik aus der Community versprach Mozilla-Entwickler Jake Archibald einen KI-Schalter, der alle entsprechenden Funktionen vollständig entfernen soll.
Kontos unterscheidet in seinem Blogpost zwischen spezialisierten, transparenten Machine-Learning-Tools wie Mozillas Übersetzungstool Bergamot und generischen LLMs. Während zweckgebundene ML-Werkzeuge auditierbar und nachvollziehbar seien, kritisiert er LLMs als intransparente Black Boxes. Besonders problematisch sieht er den potenziellen Zugriff auf Browserdaten: LLMs mit Zugang zu Tabs, Verlauf und Nutzerinteraktionen könnten Inhalte manipulieren, Darstellungen verändern oder sensible Daten herausfiltern.
Technische Unterschiede zu Firefox
Waterfox basiert auf Firefox ESR und folgt damit einem längeren Update-Rhythmus als Mozillas monatliche Releases. Der im Jahr 2011 ursprünglich als 64-Bit-Rebuild von Firefox gestartete Browser deaktiviert standardmäßig die Erfassung von Telemetriedaten, die Firefox nach eigenen Angaben zur Verbesserung der Stabilität erhebt, und bietet Funktionen wie eine vertikale Tab-Leiste. Eine Classic-Variante erhält Kompatibilität für ältere Erweiterungen aufrecht, die in modernen Firefox-Versionen nicht mehr funktionieren.
Die technische Umsetzung eines KI-Kill-Switches bleibt unterdessen ungeklärt. Mozilla hat bisher nicht offengelegt, ob der angekündigte Schalter lediglich UI-Elemente versteckt oder auch Netzwerkaufrufe und Telemetrie zu KI-Endpunkten blockiert. Auch die Frage, ob Firefox standardmäßig auf lokale oder Cloud-basierte Modelle setzen wird, ließ Mozilla offen. Für Datenschutz-kritische Anwendungen wäre eine vollständige Deaktivierung aller KI-Prozesse und Netzwerkverbindungen erforderlich.
DSGVO-Relevanz bei KI-Integration
Weiterlesen nach der Anzeige
Sollte Firefox Daten an Cloud-LLM-Anbieter außerhalb der EU übermitteln, unterliegt dies der DSGVO. Mozilla müsste eine Rechtsgrundlage wie die nötige Einwilligung sicherstellen und Datenübermittlungen durch Standardvertragsklauseln absichern. Deutsche Datenschutzbehörden könnten bei großflächigen KI-Funktionen mit personenbezogenen Daten Prüfungen einleiten. Besonders bei Datenexporten in die USA drohen zusätzliche Auflagen.
Für Unternehmen und öffentliche Einrichtungen, die auf datenschutzkonforme Browser setzen müssen, wird Mozillas finale technische Umsetzung entscheidend sein. Waterfox dürfte von der Debatte profitieren und könnte neben anderen Forks wie LibreWolf zu einer Alternative für Nutzer werden, die KI-Funktionen grundsätzlich ablehnen.
(mki)
Künstliche Intelligenz
BND-Agenten sollen Wohnungen betreten und Bundestrojaner installieren dürfen
Das Bundeskanzleramt treibt eine umfangreiche Reform des Gesetzes für den Bundesnachrichtendienst (BND) voran. Ziel ist es, den Auslandsgeheimdienst technologisch wie operativ aufzurüsten. Das berichten WDR, NDR und Süddeutsche Zeitung. Ein Kernpunkt der Initiative ist demnach die Befugnis für die Agenten, physisch in Wohnungen einzudringen, um Spionagesoftware wie den Bundestrojaner heimlich direkt auf IT-Systemen von Zielpersonen zu installieren. Das soll helfen, technische Hürden wie Verschlüsselung und die Abschottung von Endgeräten zu umgehen. Das spiegelt einen Trend wider, der sich auf Länderebene abzeichnet: Erst jüngst beschloss das Berliner Abgeordnetenhaus: Die dortige Polizei darf Wohnungen heimlich betreten, um Staatstrojaner zu platzieren.
Weiterlesen nach der Anzeige
Brisant ist auch die vorgesehene Einführung „operativer Anschlussmaßnahmen“, die den BND zur Sabotage im Ausland ermächtigen würden. Bisher war die Arbeit der Behörde darauf beschränkt, Erkenntnisse zu gewinnen und diese für die politische Entscheidungsfindung aufzubereiten. Nach den Plänen soll der Dienst eigenständig handeln dürfen, um die Angriffsfähigkeit gegnerischer Akteure zu schwächen. Dies reicht von der Störung feindlicher Kommunikationsnetze bis hin zur Unschädlichmachung von Waffensystemen durch gezielte Cyberoperationen. Bei Cyberangriffen auf deutsche Ziele soll es dem BND so laut den Berichten erlaubt werden, im Rahmen der umstrittenen „Hackbacks“ aktiv zurückzuschlagen. Die Spione dürften etwa Datenströme umleiten oder die für die Attacken genutzte IT-Infrastruktur im Ausland direkt selbst angreifen.
Sabotage nicht nur im Cyberraum
Der Entwurf sieht vor, dass BND-Mitarbeiter physisch an gegnerischen Geräten oder Waffensystemen Manipulationen vornehmen dürfen. Dies könnte die Sabotage von Raketentechnik oder Zentrifugen umfassen, um deren Einsatz oder Weitergabe in Krisenstaaten zu verhindern. Das Kanzleramt setzt ferner auf moderne Analysewerkzeuge: Der Einsatz von KI zur Datenauswertung soll ebenso verankert werden wie die Nutzung von Gesichtserkennungssoftware. Der Dienst könnte zudem künftig Standort- und Routendaten direkt bei Fahrzeugherstellern oder Werkstätten abrufen. Damit diese weitreichenden Befugnisse greifen, müsste der Nationale Sicherheitsrat zuvor eine Sonderlage feststellen, die eine systematische Gefährdung der Bundesrepublik beschreibt. Der BND würde damit in einer Grauzone zwischen klassischer Spionage und militärischer Verteidigung agieren.
Insgesamt umfasst der Entwurf 139 Paragraphen, was einer Verdopplung des bisherigen Normenwerks entspricht und den Anspruch der Reform unterstreicht. Der BND dürfte künftig so auch verdächtige Drohnen über seinen Liegenschaften mit „geeigneten Mitteln“ abwehren. Das Kanzleramt betont, mit der Leistungsfähigkeit internationaler Partnerdienste wie der NSA Schritt halten zu müssen, um in einer veränderten Weltlage handlungsfähig zu bleiben. Die Vorgaben des Bundesverfassungsgerichts zur Datenübermittlung sollen zwar umgesetzt werden, doch der Fokus liegt auf einer offensiven Ausrichtung. Mit dem Mix aus physischer Infiltration, digitaler Sabotage und KI-Überwachung will die Regierungszentrale den Nachrichtendienst als schlagkräftiges Instrument einer „hemdsärmeligeren“ Sicherheitspolitik positionieren. Zunächst müssen aber die anderen Ressorts zustimmen, damit das parlamentarische Verfahren starten kann.
(mki)
Künstliche Intelligenz
Top 5: Die beste Akku-Kaffeemaschine im Test – mobil Espresso kochen & trinken
Espresso unterwegs kochen ist dank Akku-Kaffeemaschinen super einfach. Wir zeigen die Stärksten unter ihnen.
Ob beim Camping, auf Reisen, im Büro oder sogar im Auto: Mobile Espressomaschinen ermöglichen es Kaffeeliebhabern, hochwertigen Kaffee unterwegs zu trinken – und zwar viel günstiger als im Café.
Die Akku-Kaffeemaschinen zeichnen sich primär durch ihren kompakten Formfaktor aus, der sie zur idealen Reisebegleitung macht. Neben Pulverkaffee akzeptieren sie auch Kapseln, um in wenigen Minuten einen Espresso zu zaubern.
Äußerlich unterscheiden sich die mobilen Espressokocher kaum, je nach Preisklasse und Modell gibt es aber größere Unterschiede in Bezug auf die Kaffeequalität, die Menge an gekochtem Espresso pro Akkuladung und die Geschwindigkeit, in der das Wasser erhitzt und der Kaffee zubereitet wird.
Für unsere Bestenliste haben wir fünf unterschiedliche Modelle aus drei verschiedenen Preisklassen getestet, um die beste Akku-Kaffeemaschine für unterwegs zu finden.
Welche ist die beste Akku-Kaffeemaschine?
Unser Testsieger ist die Outin Nano für 117 Euro. Die wertige Verarbeitung, Effizienz bei der Zubereitung und der Espressogeschmack überzeugen hier auf ganzer Linie.
Als Technologiesieger platziert sich indes die Bostar für 60 Euro. Ihr Alleinstellungsmerkmal ist der wechselbare Akku, der sie so langlebiger macht.
Der Preis-Leistungs-Sieger ist die Everange für 66 Euro. Mit ihr bekommt man bis zu fünf Tassen geschmacklich guten Espresso pro Akkuladung und bis zu 90 Tassen, wenn man direkt mit heißem Wasser kocht.
Worauf muss man bei Akku-Kaffeemaschinen achten?
Elektrische Espressomaschinen mit Akku sind zwar noch recht neu, aber schon zahlreich bei diversen Online-Händlern vertreten. Das Gros stammt von No-Name-Herstellern, die sich alle gegenseitig im Hinblick auf Design und Technik „inspirieren“. Beim Formfaktor und Funktionsumfang gibt es meist nur minimale Unterschiede. Alle erinnern an einen großen Trinkbecher oder einen Thermobecher und passen in den Getränkehalter eines Autos. Überwiegend arbeiten sie entweder mit Nespresso-Kapseln und/oder gemahlenem Kaffeepulver. Die von uns getesteten Produkte arbeiten sowohl mit Kapseln als auch mit Pulver. Neben Nespresso-Kapseln sind manche von ihnen auch in der Lage, mit größeren Kapseln von beispielsweise Nescafé Dolce Gusto zu arbeiten.
Wichtig ist natürlich auch die Menge an Espressi, die man pro Akkuladung gebrüht bekommt. Obwohl so ziemlich alle mobilen Espressomaschinen mit einem 7500-mAh-Akku ausgestattet sind, unterscheidet sich die Menge von Maschine zu Maschine. Die Outin Nano, unser Testsieger, kommt beispielsweise auf fünf Tassen Espresso, während unser Technologiesieger Bostar nur maximal drei Tassen schafft. Auch wie lange man auf seinen Kaffee warten muss, ist unterschiedlich. Hier spielen neben der Akkuleistung noch zwei weitere Faktoren eine Rolle: die Menge an aufzuheizendem Wasser und die Extraktionslänge. Mehrere Geräte in unseren Tests legen hier 70 Sekunden für die Extraktion fest. Premium-Modelle wie die Wacaco Pixapresso, die wir bislang nicht testen konnten, ermöglichen beispielsweise verschiedene Brüharten und die Wahl unterschiedlicher Brühtemperaturen, die sich dann auch noch einmal auf die Wartezeit auswirken.
Die Reinigung des Geräts ist zum Glück relativ simpel. Ein wenig Wasser und ein Lappen reichen, um die Maschine selbst wieder sauber zu bekommen. Zur Not tut es auch ein Papiertaschentuch unterwegs, wobei natürlich die normale Reinigung nur verschoben, aber nicht damit ersetzt werden darf. Etwas schwieriger wird es mit dem benutzten Kaffeebecher, der unterwegs vorübergehend ausgerieben werden sollte. Manche Akku-Kaffeemaschinen verfügen über einen Reinigungsmodus, in welchem sie einmal mit Wasser durchspülen.
Wann lohnt sich eine Akku-Kaffeemaschine?
Die Anschaffung einer Akku-Kaffeemaschine ist sinnvoll, wenn man oft unterwegs ist und nicht immer auf den teuren Espresso vom Café zurückgreifen möchte. Dank der kompakten Form passen die tragbaren Espressomaschinen auch problemlos in den Rucksack oder die Handtasche.
Für Outdoor-Begeisterte stellen sie eine praktische Lösung dar, um beim Campen oder Wandern nicht auf den täglichen Genuss verzichten zu müssen. Für mehrtägige Trips oder Urlaub auf dem Campingplatz bietet sich zudem an, zusätzlich einen Wasserkocher mitzunehmen. Dadurch erspart sich die Espressomaschine das vorherige Aufwärmen und ist in der Lage, mit einer Akkuladung ein Vielfaches an Espresso zu kochen. Bei unseren getesteten Produkten kommen wir bei manchen Modellen so auf bis zu 90 Tassen, bis man sie wieder aufladen muss.
Wie funktionieren Akku-Kaffeemaschinen?
Sie arbeiten alle nach dem gleichen Prinzip: Oben wird in ein Reservoir Wasser eingefüllt, das wird erhitzt und dann durch die unten eingesteckte Nespresso-Kapsel oder das Pulverfach gepresst. An der Unterseite fließt der Kaffee dann in den angesteckten Plastikbecher. Wer will, kann das Gerät aber auch über eine stilvollere Tasse halten oder darauf stellen. Manche Hersteller bieten als Zubehör auch Stative an, mit denen die Espressomaschine über einer Tasse schwebend platziert werden kann. Die einschlägigen 3D-Druck-Foren halten Pläne für solche Ständer zum Selbstausdrucken bereit.
Neben der Pumpe ist der wichtigste Teil der Kaffeemaschinen der integrierte Lithium-Ionen-Akku, der – je nach Modell – zwischen drei und fünf Tassen Kaffee aus kaltem Wasser zaubert. Wer kochendes Wasser einfüllt, kann durchaus 20 und mehr Tassen ziehen, bis der Akku wieder aufgeladen werden muss. Die Maschinen benötigen im Schnitt zwischen vier bis sechs Minuten, um aus kaltem Wasser einen Kaffee zu produzieren. Schließlich muss das Wasser erst einmal die idealen 90 bis 96 °C erreichen, um anschließend mit einem Druck von rund 15 bis 20 bar den Espresso zu brühen.
Entkalken mussten wir keine einzige Maschine, obwohl wir teilweise 30 und mehr Kaffees gezogen hatten. Die Hersteller raten von aggressiven Entkalkern ab, sondern empfehlen lediglich das Auswischen des Wassertanks mit einem Tuch. Alle Maschinen verfügen über einen fest schließenden Deckel für den Wassertank, was beim Erhitzen unterwegs wegen der Verbrühungsgefahr wichtig ist.
Das Aufladen der Akkus dauert je nach Modell zwischen 2,5 und 3 Stunden. Wer morgens frischen Kaffee will, hängt die Maschine einfach über Nacht an ein USB-C-Netzteil. Keine einzige Maschine ist in der Lage, bei fast leerem Akku und angeschlossenem Netzteil Kaffee zu machen.
Was kosten Akku-Kaffeemaschinen?
Die Preise für die Maschinen unterscheiden sich teilweise stark. Einfache Modelle gibt es bereits ab 30 Euro, teurere Modelle sind für über 100 Euro erhältlich. Ab etwa 60 Euro bekommt man unserer Erfahrung nach dann auch echt solide Exemplare, die sowohl geschmacklich guten Espresso kochen, als auch effizient in der Zubereitung des Kaffees sind.
Teure Modelle warten häufig mit einer hochwertigeren Verarbeitung, schnellerem Brühen und Zusatzfunktionen wie der Wahl der Brühtemperatur auf. Bei günstigeren Modellen kann es hingegen dann sein, dass diese aufgrund billiger Verarbeitung schneller kaputtgehen oder nur befriedigende Ergebnisse bei der Kaffeezubereitung liefern.
Fazit
Wer unterwegs nicht auf die tägliche Tasse Espresso verzichten möchte, erhält mit tragbaren Akku-Kaffeemaschinen die Lösung für das Problem und erspart sich den teuren Espresso von der Tankstelle oder dem Café. Was die Qualität angeht, darf man bei den kompakten Kaffeekochern natürlich keine Wunder erwarten, manche Modelle aus unseren Tests haben uns dann aber doch mit einem runden Geschmacksprofil und guter Textur überrascht.
Vom Aufbau und dem Funktionsumfang unterscheiden sich die meisten Maschinen kaum voneinander. Erst im hohen Preisbereich kommen diverse Zusatzfunktionen hinzu, die das mobile Espressoerlebnis ein Stück weit mehr bereichern. Allerdings bekommt man schon ab 60 Euro super kompetente Kaffeespender, an denen es nur wenig auszusetzen gibt und die einen soliden Espresso kochen.
Besonders Vielreisende profitieren natürlich von den portablen Espressomaschinen, aber auch für Campingfans ist eine Anschaffung sinnvoll. Hier lohnt es sich dann auch, zusätzlich den Wasserkocher einzupacken, um noch mehr Espresso aus einer Akkuladung herauszuholen.
In unserer Bestenliste zeigen wir Modelle aus drei Preiskategorien, um die Bandbreite an Qualität und Leistung abzubilden, die man beim Kauf einer tragbaren Espressomaschine erwarten kann. Unser Testsieger ist die Outin Nano. Als Technologiesieger sticht die Bostar hervor. Wer das Meiste zu einem guten Preis herausholen möchte, ist hier mit unserem Preis-Leistungs-Sieger Everange gut beraten.
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Künstliche Intelligenzvor 2 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Entwicklung & Codevor 1 MonatKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 2 MonatenNeue PC-Spiele im November 2025: „Anno 117: Pax Romana“
-
Künstliche Intelligenzvor 2 MonatenDonnerstag: Deutsches Flugtaxi-Start-up am Ende, KI-Rechenzentren mit ARM-Chips
-
UX/UI & Webdesignvor 2 MonatenArndt Benedikt rebranded GreatVita › PAGE online
