Künstliche Intelligenz
Der beste Rechner für lokale KI, aber…
Sogenannte KI-Workstations wie Nvidias DGX Spark sind durch das Unified-Memory-Konzept gut für große lokale KI-Modelle geeignet. Diese Technik gibt es auch in Apple-Silicon-Macs und im direkten Vergleich arbeiten sie bei großen Sprachmodellen teils sogar schneller und extrem effizient. Bei Video- und Bildgenerierung sieht das anders aus. Wir haben zwei aktuelle Mac Studios gegen Nvidias DGX Spark und AMDs Strix Halo antreten lassen.
Weiterlesen nach der Anzeige
Transkript des Videos
(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)
Guck mal hier, das bin ich, wie ich endlich mal KI-Zeug auf Apple-Rechnern teste. Und direkt Spoiler: Das große, sehr gute Modell gpt-oss-120B habe ich noch auf keinem Rechner, der hier auf meinem Schreibtisch stand, so schnell laufen sehen. Und da standen schon sehr viele und auch sehr teure. Interessant ist dabei: Ein Mac Studio M4 Max mit 128 GB geteiltem Speicher kostet mit knapp 4.200 Euro ungefähr genauso viel wie die Nvidia-DGX-Spark-Workstations, die mit gpt-oss-120B deutlich weniger Tokens pro Sekunde machen. Also Apple, denen man ja nachsagt, KI so ein bisschen zu verschlafen, performt viel besser als die OG-KI-Superfirma Nvidia mit ihrer KI-Workstation? Hä? Ja, beim Anzapfen von solchen großen Sprachmodellen wie gpt-oss-120B ist das auf jeden Fall ganz klar so. Aber bei anderen KI-Sachen, da sieht die Sache schon wieder ganz anders aus. Ich habe übrigens zusätzlich zu dem Mac Studio mit M4 Max auch noch einen M3 Ultra mit 512 GB RAM getestet und noch etliche andere Rechner. Bleibt dran, wird wirklich interessant.
Liebe Hackerinnen, liebe Internetsurfer, herzlich willkommen hier bei …
Wenn ihr euch fragt: lokale KI, ja, was soll das eigentlich bringen? Lokale KI ist super interessant, weil man da nicht mehr auf irgendwelche Anbieter aus USA oder China angewiesen ist, die vielleicht klammheimlich irgendwas ändern an den KI-Modellen. Stellt euch mal vor, ihr habt so in mühsamer Kleinarbeit komplexe Workflows auf ein bestimmtes KI-Modell in der Cloud angepasst, und dann nimmt der Anbieter das aus dem Angebot oder ändert das, und dann läuft euer Kram nicht mehr. Mit lokalen Modellen seid ihr komplett safe, weil die liegen ja bei euch auf der SSD. Problem ist nur: Diese sogenannten Open-Weights-Modelle, Open Source werden die auch manchmal genannt, aber das sind die so gut wie nie, weil man nämlich die Trainingsdaten nicht kennt. Also Open Weights, ich nenne die ab jetzt einfach lokale Modelle. Die waren lange Zeit ziemlich schlecht, aber die holen auf. Die sind auf jeden Fall noch nicht auf dem Stand der State-of-the-Art-Cloud-Modelle wie Gemini 3 oder GPT 5.2, aber man kann damit auf jeden Fall schon arbeiten. Das habe ich hier in diesem Video auch schon mal anschaulicher gezeigt, was man da so machen kann.
Und es gibt natürlich auch Bild- und Videogenerierungsmodelle, die auch lokal laufen und die ziemlich gut sind und die man zum Beispiel auch selbst feintunen kann. Die man also selbst anpassen kann, dass da wirklich der Stil rauskommt, den man gerne haben will. Ganz aktuell ist da zum Beispiel Flux.2 für Bilder aus dem Schwarzwald oder WAN 2.2. für Videos. Das Problem ist nur, und das gilt vor allem für die LLMs: Je besser die Modelle, desto mehr schnellen Speicher brauchen die meistens. Und der schnelle Grafikspeicher von Grafikkarten ist dafür zwar sehr gut geeignet, aber man kriegt im Bereich bis, sagen wir mal, 2.000 Euro für eine Grafikkarte nur maximal 32 GB. Mein aktuelles Open-Weights-LLM, gpt-oss-120B, braucht ungefähr 63 GB Speicher. Ja, schwierig. Und man kann natürlich auch normales RAM verwenden, also statt Grafikspeicher einfach DDR5-RAM, wenn man es sich leisten kann. Aber nur auf DDR5 läuft wirklich kein Modell brauchbar schnell. Seht ihr später auch in den Benchmarks, wie das läuft. Lahm.
Aber es gibt ja auch immer mehr Spezialrechner, die für KI ausgelegt sind. Zum Beispiel die kleine Nvidia-KI-Workstation DGX Spark, die es von etlichen OEMs gibt. Haben wir auch schon mal ein Video zu gemacht, von der Gigabyte-Version. Oder auch die AMD-Halo-Strix-Rechner, zum Beispiel Framework Desktop, da gab es auch schon mal ein Video dazu. Und die nutzen alle Unified Memory, also CPU- und GPU-Speicher sind geteilt und schneller angebunden als normaler, zum Beispiel DDR5-Speicher.
Weiterlesen nach der Anzeige
Das Ding ist aber, dass Apple dieses Unified-Memory-Konzept schon lange nutzt. Also seit der Einführung von Apple Silicon vor fünf Jahren, also vor dem KI-Hype. Apple-Silicon-Rechner sind wegen des schnellen Speichers zumindest theoretisch super geeignet für KI. Und auch in der Praxis gilt das so langsam, da wird nämlich immer mehr Software richtig gut angepasst. Also zum Beispiel die zum Abzapfen von Sprachmodellen, also zum Beispiel für so ChatGPT-artige Anwendungen. Bild- und Videogenerierung, ja, da kommen wir später noch zu.
Erst mal Sprachmodelle, zum Beispiel das erwähnte gpt-oss-120B. Ja, und das habe ich auf zwei Apple-Rechnern getestet: einmal auf dem Mac Studio M4 Max mit 128 GB gemeinsamem Speicher für 4174 Euro. Und einmal dem Mac Studio M3 Ultra mit 512 GB gemeinsamem Speicher für 11.674 Euro. Tatsächlich sind beides aktuelle Geräte, denn wenn ihr euch jetzt wundert: Hä, M3: ist das nicht alt? Ne, tatsächlich sind beides aktuelle Geräte, denn wenn man mehr als 128 GB haben will, gibt es kein Gerät mit M4 Max, sondern dann gibt es nur den M3 Ultra. Und Ultra bedeutet in diesem Fall, dass da zwei M3-Einheiten zusammengebacken wurden, das nennt Apple Ultra Fusion. Ja, und obwohl die M4-Generation eine bessere Speicherbandbreite hat, nämlich beim M4 Max 546 GB/s, kriegt man mit dem M3 Ultra trotzdem mehr, weil es sind ja zwei M3-Einheiten, was hier insgesamt 819 GB/s entspricht.
Und was habe ich da nun genau drauf getestet? Ja, drei Sprachmodelle: ein ganz kleines Qwen3-4B, Q4 quantisiert, 2,5 GByte groß, ein mittleres Mistral Small 3.2 24B, auch Q4 quantisiert, das ist 15,2 GByte groß, und ein recht großes gpt-oss-120B mit im MXFP4-Format, 63,4 GByte groß.
So, und ich habe ja bislang die Benchmarks mit LM Studio manuell gemacht. Aber da haben mehrere Leute angemerkt, dass man noch ein bisschen mehr Tokens pro Sekunde mit der llama.cpp-Bibliothek rausholen kann. Die wird zwar von LM Studio intern auch verwendet, aber ist da trotzdem oft langsamer. Außerdem ein großer Vorteil: llama.cpp hat auch einen Benchmark eingebaut, und der differenziert zwischen dem Verstehen des Prompts, also dem Prompt Processing, PP oder Prefill, und der reinen Inferenz, also Decode oder Token-Generation, TG. Ja, und weil ich letzte Woche mehr Zeit hatte als sonst, weil ja kein Video kam, bin ich da richtig reingegangen und habe auf sechs unterschiedlichen Plattformen nicht nur llama.cpp installiert, also über die vorkompilierten Binarys, sondern ich habe llama.cpp auf jeder der Plattformen mit möglichst optimalen Compiler-Flags kompiliert. Das macht keinen riesigen Unterschied, aber bei meinem Test konnte ich da schon ein paar Prozent nachweisen, also im Vergleich zu den einfach runtergeladenen Binarys. Man kann mir also auf jeden Fall nicht vorwerfen, dass ich hier nicht fair getestet habe.
Und jetzt endlich die Ergebnisse, worauf ihr wahrscheinlich schon die ganze Zeit wartet: Tatsächlich haben mit gpt-oss-120B die beiden Apple-Rechner die besten Prompt-Processing-Ergebnisse erzielt, die ich jemals gemessen habe, mit gpt-oss-120B: 86 und 82 Token pro Sekunde. Also wie erwartet etwas mehr beim M3 Ultra, weil höhere Speicherbandbreite als beim M4 Max. Aber eigentlich ist der M4 Max die eigentliche Überraschung, weil der beim Generieren nur eine Leistungsaufnahme von 120 Watt hatte. Und 82 Token pro Sekunde bei 120 Watt, das ist wirklich krass effizient. Der M3 Ultra braucht fast das Doppelte, aber ist immer noch viel effizienter als die Konkurrenz. Also richtig doll ineffizient ist mein Desktop-Rechner mit zugeschalteter RTX4090-Grafikkarte. Der macht tatsächlich 14-mal weniger Token pro Watt als der M4 Max. Die beiden Spezialrechner mit Nvidia DGX Spark und AMD Strix Halo, die liegen im Mittelfeld. Bei den kleineren Modellen, die halt in den superschnellen Videospeicher meiner Grafikkarte passen, ja, da kommen M3 Ultra und M4 Max nur auf Platz 2 und 3. Ich habe übrigens, wie am Anfang schon erwähnt, testweise mal die GPU deaktiviert und geguckt, wie weit man nur mit der CPU kommt. Nicht weit, bei allen den drei Sprachmodellen schon sehr langsam, wie ihr hier sehen könnt.
Achtung, Achtung, jetzt kommt ein kurzer Super-Nerd-Einschub, geht gleich wieder nochmal weiter.
Ja, ich weiß, llama.cpp nutzt GGUF-Modelle. Bei Apple kann man ja auch MLX mit vorkonfigurierten MLX-Modellen verwenden. MLX ist das Apple-Machine-Learning-Framework, also quasi der PyTorch-Konkurrent. Ich habe das mit LM Studio getestet, und tatsächlich waren da meine Ergebnisse mit gpt-oss-120B mit MLX schlechter als mit llama.cpp. Und MLX lief auch auf dem M4 Max mit gpt-oss-120B auch gar nicht, sondern nur mit GGUF. Bei den kleineren Modellen war MLX aber tatsächlich ein ganzes Stück schneller, siehe hier meine Werte. Also das solltet ihr tatsächlich bedenken, und das ist auch die Erklärung dafür, dass LM Studio auf macOS bei den meisten Modellen immer beide Varianten, also GGUF oder GGUF und MLX, anbietet. Nerd-Einschub ist vorbei.
So, das war jetzt alles die Token-Generation. Jetzt kommt noch kurz das Prompt Processing, wo es weniger auf die Speicherbandbreite ankommt. Jetzt ist der M3 Ultra zumindest mit dem großen Sprachmodell gpt-oss-120B immer noch Spitzenreiter. Bei den kleineren Modellen, da gewinnt ganz klar wieder die Nvidia-Grafikkarte, und auf dem zweiten Platz ist der Nvidia-DGX-Spark-Rechner. Einfach weil die Nvidia-Kerne mehr rohe Compute-Pferdestärken mitbringen.
So, aber es gibt ja nun auch noch andere KI-Anwendungsbereiche als LLMs, zum Beispiel Bild-, Videobearbeitung, Generierung und so weiter. Das machen die meisten Menschen heutzutage wohl mit ComfyUI, dieser node-basierten Open-Source-Software. Hier gelten Nvidia-GPUs als de-facto Standard, einfach weil das alles sehr CUDA-fokussiert ist, also CUDA, die Nvidia-exklusive Programmierschnittstelle. Ich war deshalb schon ziemlich positiv überrascht, dass ich auf der ComfyUI-Website direkten macOS-Installer für die Desktop-Variante gefunden habe. Da habe ich mich auf mehr Frickeln eingestellt, und es lief alles super, also zumindest die Installation. Aber als ich dann für meine Tests einfach mal das Flux.2-Template aufgerufen habe und die Modelle runtergeladen hatte, bekam ich dann einfach ganz lapidar diese Fehlermeldung. Ja, und stellt sich raus: Apple Silicon kann nicht mit FP8 umgehen, also dem 8-Bit-Gleitkomma-Format, in dem aber dummerweise so gut wie alle ComfyUI-Modelle vorliegen. Also sowohl für Bildgenerierung als auch für Videogenerierung. Man kann sich damit behelfen, Modelle im FP16-Format zu verwenden, aber das verbraucht deutlich mehr Speicher und ist auch langsamer als FP8. Also wenn man denn auch ein FP16-Modell überhaupt findet. Also man will, also ich will das, auch vielleicht einfach nur die Templates anklicken, und dann funktioniert das, und will da jetzt nicht in den Nodes dann noch so viel rumfummeln. Na ja, bei einigen Workflows reichte das in meinen Tests auch einfach aus, in der Konfiguration von ComfyUI einfach auf FP16 hier umzuschalten. Aber auch nicht immer. Na ja, ich habe auf jeden Fall Flux-Dev stabil laufend bekommen und konnte da die Geschwindigkeit messen. Ja, die Geschwindigkeit auf dem Max war nicht berauschend. Ganz grob kann man sagen: 110 Sekunden für ein Standard-Preset-Flux-Dev-Bild auf dem M4 Max. 65 Sekunden hat der M3 Ultra gebraucht. 35 Sekunden, zum Vergleich, die DGX Spark und nur 12 Sekunden meine RTX 4090.
Und ja, mit Videos fange ich gar nicht erst an, das ist alles noch frickeliger gewesen. Und leider haben bei den ComfyUI-Standard-Workflows auch der riesige Speicher der Apple-Rechner keine Vorteile. Einfach weil die Modelle, die ich da gesehen habe und die ich so kenne, also auch die Videogenerierungsmodelle, die sind so gut wie alle für Grafikkarten-Speichergrößen optimiert. Ja, meistens so im Bereich bis 16 GB, ganz selten mal zwischen 16 und 24 GB.
Also auf jeden Fall: Wenn man hauptsächlich ComfyUI-Sachen machen will, dann ist man mit einem dieser Apple-Rechner nicht wirklich gut bedient. Aber ganz wichtig: Das kann sich natürlich alles ändern. Es sind ja jetzt auf jeden Fall schon Anflüge von einem Aufbrechen des CUDA-Monopols zu spüren. Warten wir das mal ab. Als reine LLM-Abzapfmaschine sind die Mac Studios und eigentlich alle Macs mit genügend Speicher beeindruckend gut geeignet. Und eine Eins mit Sternchen kriegen die wirklich in Sachen Effizienz. Will man allerdings nur Modelle laufen lassen, die in den Speicher einer normalen Grafikkarte passen, also maximal 32 GB, dann fährt man nach wie vor günstiger und meistens auch schneller mit einem x86-Rechner mit einer dedizierten Grafikkarte.
Aber bei Modellen wie gpt-oss-120B mit 63 GB, und meiner Meinung nach fängt das in diesen Speicherbereichen oft erst an, wirklich interessant zu werden, dann gibt es zurzeit nichts Besseres als ein Mac. Also auch in Sachen Preis-Leistung. Also zumindest, wenn man einfach was kaufen will. Klar, man kann sich irgendwelche krassen Rechner frankensteinen mit gebrauchten Grafikkarten, aber das gibt es auf jeden Fall nicht von der Stange. Zumindest nicht zu den Preisen.
Bei anderen KI-Anwendungen als LLMs, ja, also zum Beispiel bei ComfyUI, ja, da ist man auf jeden Fall immer noch mit Nvidia-Hardware besser und vor allem auch unkomplizierter bedient. Mit AMD-Hardware ist es fast noch schwieriger als mit Apple-Hardware. Aber wer weiß, wie lange das alles noch so ist.
Leider, und das muss ich auch sagen, habe ich jenseits von gpt-oss-120B, also jenseits der 63 GB, keine Sprachmodelle gefunden, die deutlich besser sind, also für die sich jetzt 128 oder sogar 512 GB lohnen würden. So Sachen wie DeepSeek und Kimi K2, die sind auf jeden Fall besser, aber die brauchen halt noch mehr als 512 GB. Da muss man dann vielleicht mal mit so Clustern rumexperimentieren. Habe ich schon auf der To-do-Liste, das kommt bald, eventuell. Aber wir wissen auf jeden Fall: In der KI-Welt kann alles sehr schnell gehen. Mal sehen, was sich da in den nächsten Monaten tut. Tschüss!
c’t 3003 ist der YouTube-Channel von c’t. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.
(sahe)
Künstliche Intelligenz
Neue Filme und Serien bei Netflix, Disney+ und Amazon Prime im Februar 2026
Der Februar hat unter anderem Film- und Serien-Highlights wie Tarantinos „Inglourious Basterds“, die kultige SciFi-Serie „Stargate SG-1“ sowie die Tragikomödie „The Life Of Chuck“ im Gepäck.
Weiterlesen nach der Anzeige
„Stargate SG-1“, Staffel 1-10
Ab dem 15. Februar 2026 zeigt Netflix alle 10 Staffeln der beliebten Science-Fiction-Serie „Stargate SG-1“, die zwischen 1997 und 2007 produziert und erstmals veröffentlicht wurde. Die Serie basiert auf dem Film „Stargate“, der 1994 in den Kinos lief, und handelt von der geheimen militärischen Spezialeinheit „SG-1“, die aus Soldaten und Wissenschaftlern besteht. Zu der Einheit gehören unter anderem Colonel Jack O’Neill (Richard Dean Anderson), Dr. Samantha Carter (Amanda Tapping), Teal’c (Christopher Judge) und Dr. Daniel Jackson (Michael Shanks).
Mithilfe des namensgebenden Sternentors (Stargate) können die Mitglieder von „SG-1“ über eine Wurmlochverbindung innerhalb weniger Sekunden zu Stargates reisen, die sich auf anderen Planeten befinden. Colonel Jack und seine Kollegen sollen auf fremden Planeten nach unbekannten Zivilisationen und fortschrittlicher Technik suchen, was dazu führt, dass der Trupp immer wieder Konflikte entfacht oder in vor Ort bereits bestehende Konflikte hineingezogen wird. Bereits zu Beginn der Serie wird schnell klar, dass die feindseligen „Goa’uld“ eine Bedrohung für die Erde darstellen, sodass SG-1 auch kontinuierlich nach Verbündeten auf den bereisten Planeten sucht. Im Herbst 2025 wurde angekündigt, dass eine neue „Stargate“-Serie gegen Ende 2026 für Amazon in die Produktion gehen wird.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.
Trailer zu „Stargate SG-1“
„The Life Of Chuck“
Die Tragikomödie „The Life Of Chuck“ ist die Verfilmung der Kurzgeschichte „Chucks Leben“ aus Stephen Kings Novellensammlung „Blutige Nachrichten“. Das Besondere an „The Life Of Chuck“ ist, dass die Geschichte des titelgebenden Protagonisten Charles „Chuck“ Krantz (Tom Hiddleston) rückwärts erzählt wird. Chuck wächst nach dem Tod seiner Eltern bei seinen Großeltern auf. Während sein Großvater Albie Krantz (Mark Hamill) ihn dazu drängt, wie er selbst Buchhalter zu werden, geht Chuck seiner Tanz-Leidenschaft nach, die er von seiner Großmutter Sarah Krantz (Mia Sara) geerbt hat.
Als er eines Tages auf den stets verschlossenen Dachboden seines Wohnhauses geht, obwohl es ihm von Albie verboten worden war, hat Chuck eine geisterhafte Begegnung mit seinem Zukunfts-Ich. Dieses Ereignis hat großen Einfluss auf sein weiteres Leben und ohne Chucks Wissen auch auf das vieler anderer Menschen. Zu Beginn des Films wird gezeigt, wie die Erde in nicht allzu ferner Zukunft kurz vor ihrem Ende steht, nachdem Naturkatastrophen und Epidemien die Welt zu einem nahezu unbewohnbaren Ort gemacht haben. Diese Ereignisse scheinen auf seltsame Weise mit einem Mann namens Charles „Chuck“ Krantz verbunden zu sein. Der Film ist ab dem 09. Februar 2026 bei Amazon Prime Video zu sehen.
Weiterlesen nach der Anzeige
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.
Trailer zu „The Life Of Chuck“
„Inglourious Basterds“
Quentin Tarantinos „Inglourious Basterds“ findet in einem fiktiven Szenario während des 2. Weltkriegs statt und erzählt über fünf Kapitel eine ebenso brutale wie spannende Kriegsgeschichte mit alternativen Fakten und Wendungen. Im Zentrum der Handlung steht einerseits die jüdische Kinobetreiberin Shosanna Dreyfus (Mélanie Laurent) und andererseits die berüchtigte jüdische Kampftruppe „Basterds“ unter der Führung von Lieutenant Aldo Raine (Brad Pitt). Shosanna will sich an den Nazis rächen, da diese ihre Familie ermordet haben, während Aldo und seine Männer hinter feindlichen Linien in Frankreich so viele Nazis wie möglich überfallen und töten wollen.
Die Wege von Shosanna und Aldo kreuzen sich in einem fulminanten Finale, bei dem beide Parteien unabhängig voneinander die Auslöschung der gesamten NS-Führungsriege, inklusive Adolf Hitler, geplant haben. Shosanna und Aldo haben mit dem SS-Offizier Hans Landa (Christoph Waltz) den gleichen, skrupellosen und äußerst scharfsinnigen Widersacher, den es für die Umsetzung der Attentatspläne zu überwinden gilt. „Inglourious Basterds“ läuft ab dem 01. Februar 2026 bei Disney+.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.
Trailer zu “ Inglourious Basterds“
Alle neuen Filme und Serien in der Übersicht
Die folgende Tabelle zeigt alle neuen Filme und Serien, die im Februar bei Netflix, Disney+ und Amazon Prime Video erscheinen und im Abopreis inbegriffen sind. Titel, die bei Amazon ausschließlich zum Einzelkauf oder zum Leihen verfügbar werden, sind nicht angegeben.
| Disney+ | Release |
| Filme | |
| Ich – Einfach unverbesserlich 1+2 | 01.02. |
| E.T. – Der Außerirdische | 01.02. |
| Inglourious Basterds | 01.02. |
| Notting Hill | 01.02. |
| Jerry Maguire – Spiel des Lebens | 01.02. |
| Jumanji | 01.02. |
| Die Hochzeit meines Besten Freundes | 01.02. |
| Grindhouse: Planet Terror | 01.02. |
| Jackie Brown | 01.02. |
| Kill Bill: Volume 1+2 | 01.02. |
| Reservoir Dogs | 01.02. |
| Du & Ich und Alle reden mit | 01.02. |
| Hook | 02.02. |
| Ella McCay | 05.02. |
| Max und die wilde 7 – Die Geister-Oma | 06.02. |
| Stay | 13.02. |
| Love Story: John F. Kennedy Jr. & Carolyn Bessette | 13.02. |
| Searchlight Pictures „In the Blink of an Eye“ | 27.02. |
| Morbius | 28.02. |
| Serien | |
| Schitt’s Creek: Staffel 1-6 | 02.02. |
| Die Muppet Show | 04.02. |
| Beyond Paradise: Staffel 3 | 04.02. |
| We Call It Imagineering: Staffel 1 | 04.02. |
| The Artful Dodger: Staffel 2 | 10.02. |
| The Scream Murder: A True Teen Horror Story: Staffel 1 | 11.02. |
| Himmel, Herrgott, Sakrament: Staffel 1 | 18.02. |
| Die achte Familie: Sekizinci Aile: Staffel 1 | 18.02. |
| Schloss Einstein: Staffel 20-23 | 18.02. |
| Das Geheimnis des Totenwaldes: Staffel 1 | 18.02. |
| Girl on the Run: The Hunt for America’s most wanted Woman: Staffel 1 | 19.02. |
| Watching You: Staffel 1 | 20.02. |
| Paradise: Staffel 2 | 23.02. |
| Amazon | Release |
| Filme | |
| Fargo – Blutiger Schnee | 01.02. |
| Glam Girls – Hinreißend verdorben | 01.02. |
| Licorice Pizza | 01.02. |
| After | 01.02. |
| After Love | 01.02. |
| After Truth | 01.02. |
| Ein ganzes halbes Jahr | 01.02. |
| Bad Boy And Me | 03.02. |
| William Tell | 04.02. |
| Relationship Goals | 04.02. |
| Fabian und Die mörderische Hochzeit | 06.02. |
| Natürliches Gleichgewicht: Die Vision eines Königs | 06.02. |
| Noah | 06.02. |
| Jumper | 06.02. |
| F*Ck Valentine’s Day | 07.02. |
| Das perfekte Geheimnis | 07.02. |
| Hellboy: The Crooked Man | 09.02. |
| The Life Of Chuck | 09.02. |
| Love Me Love Me | 13.02. |
| After Ever Happy | 13.02. |
| Manta Manta | 16.02. |
| Borderlands | 22.02. |
| Boneyard | 24.02. |
| Meet Cute – Mein täglich erstes Date | 25.02. |
| The Bluff | 25.02. |
| Man On The Run | 27.02. |
| Hit Man (2023) | 27.02. |
| Inheritance – Ein dunkles Vermächtnis | 28.02. |
| The Creator | 28.02. |
| Serien | |
| LOL: Last One Laughing Brazil: Staffel 5 | 06.02. |
| Cross: Staffel 2 | 11.02. |
| Soul Power: The Legend Of The American Basketball Association: Staffel 1 | 12.02. |
| Jesy Nelson: Life After Little Mix: Staffel 1 | 13.02. |
| 56 Tage: Staffel 1 | 18.02. |
| The CEO Club: Staffel 1 | 23.02. |
| Final Siren: Inside The Afl: Staffel 1 | 27.02. |
| Diverse NBA-Spiele | Februar |
| Netflix | Release |
| Filme | |
| Für immer Liebe | 01.02. |
| Glitter & Gold: Die Welt erfolgreicher Eistanzpaare | 01.02. |
| Ist das Kuchen? Valentinstag | 04.02. |
| Yoh! Bestie | 06.02. |
| Die Königin des Schachs | 06.02. |
| Longlegs | 08.02. |
| Matter of Time | 09.02. |
| This is I | 10.02. |
| Mission: Impossible – Dead Reckoning | 10.02. |
| Brotherhood: Angstzustand | 11.02. |
| The French Dispatch | 12.02. |
| Die Royal Tenenbaums | 12.02. |
| Darjeeling Limited | 12.02. |
| Joe’s College Road Trip | 13.02. |
| Ich weiß, was du letzten Sommer getan hast | 16.02. |
| Being Gordon Ramsay | 18.02. |
| Die schwedische Verbindung | 19.02. |
| Pavane | 20.02. |
| Firebreak | 20.02. |
| Serien | |
| Bones: Die Knochenjägerin Staffel 1-4 | 01.02. |
| Mo Gilligan: In The Moment | 03.02. |
| Unfamiliar | 05.02. |
| The Lincoln Lawyer: Staffel 4 | 05.02. |
| Die Löwinnen | 05.02. |
| Salvador | 06.02. |
| Die tierischen Fälle von Kit und Sam: Kapitel 7 | 09.02. |
| Motorvalley | 10.02. |
| Kohrra: Staffel 2 | 11.02. |
| Die Bleikinder | 11.02. |
| Love Is Blind: Staffel 10 | 11.02. |
| How To Get To Heaven From Belfast | 12.02. |
| Million-Follower Detective | 12.02. |
| Das Museum der Unschuld | 13.02. |
| The Art of Sarah | 13.02. |
| Im Dreck: Staffel 2 | 13.02. |
| Stargate SG-1: Staffel 1-10 | 15.02. |
| Sommore: Chandelier Fly | 17.02. |
| The Night Agent: Staffel 3 | 19.02. |
| Strip Law – Die Gesetze von Las Vegas | 20.02. |
| Taylor Tomlinson: Prodigal Daughter | 24.02. |
| Kacken an der Havel | 26.02. |
| Bridgerton: Staffel 4 Teil 2 | 26.02. |
| BAKI-DOU: The Invincible Samurai | 26.02. |
| Formula 1: Drive to Survive: Staffel 8 | 27.02. |
Auch interessant:
VPN Test 2025: Die besten VPN-Anbieter im Vergleich bei heise Download
(sem)
Künstliche Intelligenz
SpaceX übernimmt xAI, samt Grok und X
„It’s always sunny in space!“, verkündet Elon Musk. „Im All scheint immer die Sonne!“ Diese fast konstante Sonnenenergie soll in Zukunft Musks Künstliche Intelligenz Grok antreiben. Auf einer Million Satelliten, für den Anfang. Damit begründet Musk die am Montag erfolgte Übernahme seiner Firma xAI durch seine Raumfahrtfirma SpaceX.
Weiterlesen nach der Anzeige
SpaceX mit xAI werde die „ambitionierteste, vertikal integrierte Innovationsmaschine auf (und außerhalb) der Erde bilden, mit KI, Raketen, Internet aus dem Weltall, direkten Verbindungen zu Handys und der führenden Echtzeit-Informations- und Freie-Rede-Plattform“, kündigt der reichste Mann der Welt an. In einem Schreiben an die Mitarbeiter stellt er ihnen ihre neue Aufgabe vor: „scaling to make a sentient sun to understand the Universe and extend the light of consciousness to the stars!“
Herr Musk möchte nicht weniger als das Universum verstehen und das „Licht des Bewusstseins zu den Sternen“ bringen. Angesichts des aktuellen Status des globalen Geldwesens könnte eine solche Ansage tatsächlich den geplanten Börsengang von SpaceX beflügeln. Und damit wären die Geldsorgen, die sich xAI durch die sündteure Übernahme Twitters und hohe Ausgaben für den KI-Dienst Grok eingebrockt hat, gelöst.
Endliche Energie auf Erden
Musk weist darauf hin, dass der aktuelle KI-Boom so viel Energie verschlingt, dass dies mit terrestrischen Lösungen nicht realisierbar sei, ohne Umwelt und Siedlungen zu beeinträchtigen. Die Lösung sei, Sonnenenergie direkt im All zu ernten. Also sollen seine Grok-Rechenzentren dort installiert werden. In Form von einer Million Satelliten, „als erster Schritt“.
Seiner Schätzung nach würden Rechenzentren im All bereits in zwei bis drei Jahren billiger sein als auf dem Boden. Da wäre allerdings ein kleines Transportproblem. Laut Musk wurden im Vorjahr weltweit rund 3.000 Tonnen Nutzlast ins All befördert, überwiegend Satelliten des SpaceX-eigenen Satellitennetzes Starlink. Damit lässt sich Musks Traum nicht verwirklichen.
Stündliche Starts
Weiterlesen nach der Anzeige
Auftritt Starship: Die Riesenrakete soll noch dieses Jahr in Betrieb gehen. Eine spätere, noch größere Version werde 200 Tonnen Nutzlast befördern können. Jede Stunde ein Start, und schon fliegen Millionen Tonnen jährlich in den Orbit und darüber hinaus. Schließlich plant Musk, auf dem Mond Fabriken zu etablieren, und später, dank im All schwebender Treibstoffdepots, auch zu den Sternen reisen zu lassen.
„Die grundlegende Rechnung ist, dass Millionen Tonnen von Satelliten jedes Jahr … 100 Gigawatt an KI-Rechenleistung jährlich hinzufügen würden, ohne laufende Ausgaben für Betrieb oder Wartung“, schreibt der Mann. „Letztlich gibt es einen Fahrplan, um ein Terawatt (KI-Rechenleistung) jährlich zu starten.“ Die soll dann jenseits des Erdorbits zum Einsatz gelangen, schließlich möchte er ja andere Planeten besiedeln.
„Die Fähigkeiten, die wir durch im Weltall stationierte Datenzentren entwickeln, werden selbstverwaltete Mondbasen, eine ganze Zivilisation auf dem Mars und letztlich die Expansion ins Universum finanzieren“, meint Musk. Den Anfang macht aber wohl der Börsengang SpaceX’.
(ds)
Künstliche Intelligenz
Windows mit NTLM: Das Ende des Albtraums – vielleicht demnächst
In einem weiteren Blog-Posting verspricht Microsoft, das Sicherheitsproblem NTLM aus der Welt zu schaffen. „Mit der nächsten Version von Windows Server“ soll es dann so weit sein; wann die erscheint, ist jedoch nach wie vor ungewiss. Aktuell ist NTLM zwar deprecated, aber nach wie vor in vielen Windows-Systemen aktiv und Administratoren müssen die davon ausgehenden Gefahren managen.
Weiterlesen nach der Anzeige
Die Sünden der Vergangenheit
NTLM ist ein seit Jahrzehnten veraltetes Authentifizierungsverfahren, dessen Sicherheitsprobleme altbekannt sind und immer noch etwa von Ransomware-Banden ausgenutzt werden, um sich den Zugang zu Konten mit höheren Rechten zu verschaffen. Insbesondere abgefangene NTLMv1-Hashes lassen sich leicht knacken – etwa mit den von Google bereitgestellten Rainbow-Tabellen. Außerdem lassen sich NTLM-Hashes auch für Pass-The-Hash-Attacken nutzen.
Trotzdem zögert Microsoft, das veraltete Protokoll komplett abzuschalten. Zu viele Systeme nutzen das Verfahren noch. Etwa weil sie keine direkte Verbindung zu einem Domain Controller haben, der für eine Kerberos-Authentifizierung nötig wäre. Oder weil es sich um lokale Accounts handelt oder NTLM fest verdrahtet („hard coded“) ist, erklärt Microsoft. Doch in der zweiten Hälfte des Jahres 2026 will man diese kritischen Punkte der Migration weg von NTLM aus der Welt geschafft haben. IAKerb, lokale Key Distribution Center und Updates zentraler Windows-Komponenten sollen es bis dahin richten.

Mit der nächsten großen Windows-Server-Version soll es kommen, das Abschalten von NTLM
(Bild: Quelle: Microsoft)
Das Ende naht
Und dann soll es endlich so weit sein. Mit der nächsten großen Windows-Server-Version und den zugehörigen Windows-Clients will man NTLM standardmäßig deaktivieren, heißt es jetzt bei Microsoft. Ganz aus der Welt ist es damit jedoch weiterhin nicht, beugt man übertriebenen Erwartungen der Security-Community vor. Der NTLM-Code wird immer noch Teil von Windows bleiben und Admins werden das unsichere Protokoll somit reaktivieren können. Wann man diesen letzten Schritt der Ausmusterung von NTLM vollziehen will, dazu lässt sich der Konzern nicht weiter aus.
Wer für die Sicherheit von Windows-Netzen verantwortlich ist, sollte nicht auf dieses ungewisse Ende warten, sondern vielmehr sofort Maßnahmen ergreifen, um die von NTLM ausgehenden Gefahren einzuhegen. Wie das sinnvoll geht, erklärt etwa das heise security Webinar zum Thema Sicherheitslücken in NTLM und Kerberos verstehen und schließen. Denn auch den designierten NTLM-Nachfolger Kerberos plagen Sicherheitsprobleme, die Angreifer etwa beim Kerberoasting gezielt ausnutzen.
Weiterlesen nach der Anzeige
(ju)
-
Entwicklung & Codevor 3 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 1 MonatSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Apps & Mobile Entwicklungvor 2 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Apps & Mobile Entwicklungvor 2 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Künstliche Intelligenzvor 3 MonatenWeiter billig Tanken und Heizen: Koalition will CO₂-Preis für 2027 nicht erhöhen
