Connect with us

Apps & Mobile Entwicklung

Deepcool CL6600: Neues Gehäuse lagert CPU-Hitze ins Oberteil aus


Deepcool CL6600: Neues Gehäuse lagert CPU-Hitze ins Oberteil aus

Bild: Deepcool

Prozessor oder Grafikkarte optimal kühlen? Deepcool möchte im CL6600 beides und lagert dazu die Hitze der CPU aus. Sie wird in einer eigenen Kammer abgegeben, die der Hersteller vom übrigen Gehäuse trennt und als „Oberteil“ auf den Kern-Tower setzt. Der dafür nötige Kühler wird gleich mitgeliefert.

Die ungewöhnliche Interpretation eines Zwei-Kammer-Layouts nimmt den klassischen Midi-Tower als Grundlage und setzt ihm einen weiteren Kasten oben auf. Das, Holz an der Front und ein integrierter Headset-Halter produzieren einen ungewöhnlichen Look. Der soll auch zu sehen sein: Gedacht ist, das Gehäuse auf den Schreibtisch zu stellen, die Anschlüsse befinden sich dementsprechend an der Unterseite.

Oberteil kühlt

Das Oberteil hat zudem eine Funktion. Dort wird die Abwärme des Prozessors abgegeben, Deepcool nennt das „HyperSplit“. Obwohl das CL6600 auch große Luftkühler bis zu einer Höhe von 175 Millimetern aufnehmen kann, funktioniert dieses spezielle Konzept mit einem Heatpipe-Kühler nicht, es benötigt eine Wasserkühlung.

Ein passendes Modell mit 360-mm-Radiator und auf das Gehäuse abgestimmter Schlauchlänge wird daher vorinstalliert. Nachrüsten lassen sich drei weitere Lüfter auf dem Radiator für eine Push-Pull-Belüftung. Die Pumpe kann zwischen 2.500 und 3.400 U/min betrieben werden, die Lüfterdrehzahl liegt zwischen 500 und 2.500 U/Min.

Deepcool CL6600 (Bild: Deepcool)

Das Netzteil soll ebenso vom übrigen Innenleben entkoppelt werden. Damit das funktioniert, sitzt es direkt hinter der Front und entlässt warme Abluft seitlich aus dem Gehäuse. So bleibt die Grafikkarte als einzige Wärmequelle im Innenraum übrig. Unterstützt werden logischerweise auch extrem lange und große Modelle.

Frische Luft besorgen zwei 120-mm-Lüftern vom Typ FL12R SE mit invertierten Blättern an der Unterseite, die an einer ausziehbaren Halterung vor dem Netzteil sitzen. Sie können zwischen 500 und 2.150 U/Min betrieben werden. Weitere Lüfter können an Front, Heck und Oberseite nachgerüstet werden, teilweise ausschließlich im 140-mm-Format.

Preis und Verfügbarkeit

Das CL6600 soll ab sofort im Handel verfügbar sein, als Preisempfehlung nennt Deepcool rund 200 Euro für die schwarze und knapp 210 Euro für die weiße Version. Ein wenig relativiert sich der Preis, da ein Kühler beim Marktvergleich eingerechnet werden muss.



Source link

Apps & Mobile Entwicklung

Im Test vor 15 Jahren: Intels starke Grafik mit schwachem Treiber


Im Test vor 15 Jahren: Intels starke Grafik mit schwachem Treiber

Mit der Sandy-Bridge-Mikroarchitektur brachte Intel nicht nur die CPU-Leistung der Prozessoren auf ein neues Level, sondern integrierte auch deutlich potentere Grafikeinheiten wie die Graphics HD 2000 und HD 3000 (Test). Im Test glänzten sie mit hoher Rohleistung und einem schwachem Treiber.

Sandy Bridge war die zweite CPU-Generation von Intel mit integrierter Grafikeinheit. In der ersten Generation wurden noch zwei Die aus unterschiedlichen Fertigungsverfahren vereint. Bei Sandy Bridge vereinte Intel sowohl die CPU selbst als auch die iGPU auf einem Die, die nun im gleichen Fertigungsverfahren hergestellt wurden. Die schnellste iGPU in Form der Graphics HD 3000 gab es nur in den K-Modellen mit offenem Multiplikator. Aber auch hier galt, dass HD 3000 nicht gleich HD 3000 war. Im Core i7-2600K taktete die iGPU mit bis zu 1.350 MHz, während sie im i5-2500K nur bis 1.100 MHz betrieben wurde. Der Unterschied zwischen der Graphics HD 2000 und HD 3000 belief sich darauf, dass die HD 2000 gegenüber dem größeren Modell nur halb so viele Execution Units besaß.

In puncto APIs unterstützten die iGPUs neben DirectX 10.1 noch OpenGL 3.0 und OpenCL 1.0. Das moderne DirectX 11.0, welches von AMD und Nvidia weitgehend unterstützt wurde, fehlte. Daneben gab es einige Verbesserungen gegenüber den Intel iGPUs der ersten Generation. So waren die Chips in der Lage, H.264 und MPEG-2 auf der iGPU zu enkodieren. Notwendig für die Nutzung der iGPU war ein Mainboard mit kompatiblem Chipsatz. Zum Erscheinungszeitpunkt entsprach das jeglichem Chipsatz mit der Ausnahme des Intel P67.

Gleichauf mit Low-End-Grafikkarten

Insgesamt bot vor allem die Intel Graphics HD 3000 eine vergleichsweise gute Leistung, die im Test mit der einer dedizierten AMD Radeon HD 5450 mithalten konnte. Die Variante im Intel Core i7-2600K war dabei rund 13 Prozent schneller als die im Core i5-2500K mit der geringeren Taktrate. Die Graphics HD 2000 fiel wie erwartet stark zurück und erreichte nur knapp über 60 Prozent der Leistung der schnellsten Graphics HD 3000. In der Praxis waren trotz der nominellen Leistungsunterschiede sämtliche Graphics-HD-iGPUs wie auch die Radeon HD 5450 zu langsam für Spieler. Fern von der Realität war auch der Einsatzzweck eines Core i7-2600K – der schnellsten CPU für Spieler – ohne dedizierte Grafikkarte.

Vorteile ergaben sich bei der hardwarebeschleunigten Videowiedergabe und -Enkodierung. Beispielsweise ließ sich der Avatar Trailer in 1.080p knapp doppelt so schnell auf der iGPU transkodieren.

Abzüge gab es für Intels miserablen Treiber. Beispielsweise gab es Titel wie Metro 2033, die gar nicht starteten, oder Spiele wie Mafia II, die nur unendlich langsam inklusive Grafikfehler laufen. Zudem neigte die damals aktuelle Treiberversion noch zum Abstürzen, was von kleineren Dramen wie dem plötzlichen Schließen des Control Panels bis zum Komplettabsturz mit einem notwendigen Neustart reichte. Selbst die hardwarebeschleunigte Videowiedergabe war kompliziert. Anders als bei AMD und Nvidia reichte es bei Intel nicht, nur den Grafiktreiber zu installieren. Denn anschließend hatte die GPU auf Sandy Bridge noch keine Video-Funktion. Zuerst musste noch eine von Intel zur Verfügung gestellte „Management Engine Software“ installiert werden.

Fazit

Ein Kaufargument waren die iGPUs der Sandy-Bridge-Architektur nicht. Zwar schaffte es Intel, eine gute Leistung abzuliefern und prinzipiell mit Einsteigermodellen wie der Radeon HD 5450 gleich zu ziehen, aber der Treiber war – glimpflich gesagt – unausgereift. Vor allem aber reichte weder die Leistung einer Radeon HD 5450 noch die der Graphics HD 3000 für die meisten Nutzer einer 300-Euro-CPU. Prinzipiell war Intel auf dem richtigen Weg, aber es scheiterte an der Software.

In der Kategorie „Im Test vor 15 Jahren“ wirft die Redaktion seit Juli 2017 jeden Samstag einen Blick in das Test-Archiv. Die letzten 20 Artikel, die in dieser Reihe erschienen sind, führen wir nachfolgend auf:

Noch mehr Inhalte dieser Art und viele weitere Berichte und Anekdoten finden sich in der Retro-Ecke im Forum von ComputerBase.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Apple setzt bei Siri auf Google Gemini


Es grenzt an eine Kapitulation: Apple muss sich Hilfe beim Erzrivalen holen. Künftig soll Google Gemini die angestaubte Siri retten. Ein Milliarden-Deal, der Apples Abhängigkeit zementiert, aber für Euch endlich bessere KI-Features aufs iPhone bringt.

Es ist eine der wohl spektakulärsten Kehrtwenden der jüngeren Tech-Geschichte: Apple und Google gehen eine milliardenschwere Allianz ein. Was im Silicon Valley schon länger als Gerücht die Runde machte, bestätigte Apple zunächst gegenüber CNBC. Selbst für eingefleischte Apple-Fans dürfte das gemeinsame Statement mit Google überraschend gewesen sein. Darin heißt es:

Nach sorgfältiger Prüfung kam Apple zu dem Schluss, dass die KI-Technologie von Google die leistungsfähigste Grundlage für Apple Foundation Models darstellt, und freut sich auf die innovativen neuen Erfahrungen, die sie Apple-Nutzern ermöglichen wird. Apple Intelligence wird weiterhin auf Apple-Geräten und Private Cloud Compute laufen und dabei die branchenführenden Datenschutzstandards von Apple einhalten.

Für einen Konzern, der stolz darauf ist, Hard- und Software aus einer Hand zu liefern und die volle Kontrolle zu behalten, ist das weit mehr als ein normales Lizenzabkommen. Es ist das Eingeständnis, es allein nicht geschafft zu haben – und gleichzeitig ein cleverer Schachzug, um die eigene Relevanz zu sichern.

Der Apple-Google-Deal im Detail: Eine ungewöhnliche Ehe

Die mehrjährige Partnerschaft mit dem direkten Konkurrenten zeigt, wie dringend Apple den Rückstand bei der Künstlichen Intelligenz aufholen muss. Die Zahlen sprechen dabei für sich: Apple überweist rund eine Milliarde US-Dollar jährlich nach Mountain View.

Ihr bekommt auf dem iPhone aber kein „Standard-Gemini“ vorgesetzt. Es handelt sich um eine speziell angepasste Version mit etwa 1,2 Billionen Parametern, die als neues Gehirn für Siri dient – ein gewaltiger Sprung im Vergleich zu Apples bisherigem Cloud-Modell mit seinen 150 Milliarden Parametern.

Gemini soll dabei das Fundament für rechenintensive Aufgaben bilden. Wir erwarten, dass die neue, Gemini-gestützte Siri-Version voraussichtlich im Frühjahr 2026 mit iOS 26.4 an den Start geht. Dass Apple diesen Schritt geht, ist jedoch kein Zeichen von neuer Offenheit, sondern die bittere Konsequenz jahrelanger Versäumnisse. Der einstige Pionier der Sprachassistenten ist im KI-Rennen zum Nachzügler geworden.

Eingeständnis des Scheiterns: Warum Apples KI-Strategie nicht aufging

Dass Apple die Intelligenz für Siri extern einkauft, ist ein klares Eingeständnis, dass die eigene KI-Strategie gescheitert ist. Die Gründe liegen tief in der Firmenkultur: Der interne Drang, externe Lösungen zu meiden – lange Zeit ein Erfolgsgarant – wurde im rasanten KI-Wettlauf zum Bremsklotz.

Die Probleme haben sich über Jahre aufgestaut. Siri entwickelte sich von der Revolution zur Lachnummer, ausgebremst durch eine fragmentierte und veraltete Architektur, die mit ChatGPT und Co. nicht mehr mithalten konnte.

Siri auf dem iPhone
Siri wird den Erwartungen nicht gerecht – jetzt eilt Google zu Hilfe. Bildquelle: Unsplash – Omid Armin

Das Resultat ist ein technologischer Rückstand von geschätzt 18 bis 24 Monaten gegenüber OpenAI und Google. Eigene Modelle waren nicht leistungsfähig genug, um die auf der WWDC 2024 angekündigten „Apple Intelligence“-Funktionen zuverlässig umzusetzen.

Hinzu kam ein massiver „Brain Drain“: Frustrierte Talente verließen das Unternehmen unter anderem Richtung Meta, weil Bürokratie und fehlende Visionen sie ausbremsten. Apple blieb kaum eine andere Wahl, als bei Google anzuklopfen – doch wie löst man dabei das Datenschutz-Problem?

Privacy First: Wie Apple Eure Daten schützt

Hier wird es technisch spannend und wichtig für alle Datenschutz-Bewussten unter Euch: Apple nutzt zwar Googles „Gehirn“, gibt aber die Kontrolle nicht ab. Das Zauberwort heißt „Private Cloud Compute“. Das Gemini-Modell läuft ausschließlich auf Apples eigener Server-Infrastruktur. Google liefert zwar den Code, hat aber keinen Zugriff auf die Hardware oder Eure Daten. Anfragen werden unter keinen Umständen an Google-Server weitergeleitet.

Auch der hybride Ansatz bleibt bestehen: Persönliche, sensible Aufgaben werden weiterhin lokal auf dem iPhone verarbeitet. Nur komplexes Weltwissen geht an das in Apples Cloud gehostete Gemini-Modell. So wahrt Apple den Schein der Privatsphäre, auch wenn die Technologie dahinter eingekauft ist. Für Cupertino ist das eine bittere Pille, aber eine notwendige taktische Atempause.

Blick in die Zukunft: Apple meldet sich zurück

Dieser Deal ist ein strategischer Drahtseilakt. Intern gilt er als Überbrückung, um Zeit für die Entwicklung eines eigenen Modells zu gewinnen, das Gemini später ersetzen soll. Zudem zwingen geopolitische Faktoren Apple zum Handeln, da Google beispielsweise in China nicht verfügbar ist und dort Partner wie Baidu nötig sind. Eine eigene KI-Plattform bleibt also Pflicht.

Kurzfristig rettet der Deal die Siri-Krise und macht das iPhone im KI-Zeitalter wieder konkurrenzfähig. Langfristig begibt sich Apple jedoch in eine unangenehme Abhängigkeit vom größten Rivalen. Für die nächste Zeit trägt Apple Intelligence zwar das Etikett aus Cupertino, das Herz schlägt aber im Takt von Mountain View. Im Silicon Valley muss man eben manchmal den Stolz runterschlucken, um im Spiel zu bleiben.

Was haltet Ihr von dieser „Zwangsehe“ – ist es Euch egal, wessen KI im Hintergrund werkelt, solange Siri endlich schlauer wird?



Source link

Weiterlesen

Apps & Mobile Entwicklung

Pi AI HAT+ 2: Aufsteckbare 40 TOPS Gen-AI-Leistung für den Raspberry Pi 5


Pi AI HAT+ 2: Aufsteckbare 40 TOPS Gen-AI-Leistung für den Raspberry Pi 5

Bild: Raspberry Pi Foundation

Die Raspberry Pi Foundation hat ein neues KI-Aufsteckmodul für den aktuellen Einplatinencomputer Raspberry Pi 5 vorgestellt: den Raspberry Pi AI HAT+ 2. Mit einer NPU mit 40 TOPS (INT 4) und 8 GB dediziertem RAM betritt der Kleinst-PC damit das Gen-AI-Zeitalter.

Mit Hailo-10H und 8 GB RAM wird Gen AI möglich

Der Raspberry Pi AI HAT+ 2 folgt auf den im Oktober 2024 vorgestellten Raspberry Pi AI HAT+, den es mit zwei verschiedenen NPUs von Hailo AI gab: Hailo-8L mit 13 TOPS und Hailo-8 mit 26 TOPS.

Der Raspberry Pi AI HAT+ 2 mit 40 TOPS KI-Leistung
Der Raspberry Pi AI HAT+ 2 mit 40 TOPS KI-Leistung (Bild: Raspberry Pi Foundation)

Der Raspberry Pi AI HAT+ 2 setzt nun auf den bis zu 40 TOPS (INT 4) starken Hailo-10H, der darüber hinaus auf externen DRAM zugreifen kann. Beim HAT+ 2 von Raspberry sind das 8 GB, was das Ausführen echter, wenn auch im Vergleich zur Cloud viel kleinerer Gen-AI-Modelle auf der NPU möglich macht. Als Beispiele werden beispielsweise Qwen2 1.5b oder auch Qwen2.5 Coder genannt. Die folgenden sollen zum Start nutzbar sein:

Ab sofort verfügbar

Der neue Raspberry Pi AI HAT+ 2 ist ab sofort für 137,40 Euro zum Beispiel bei Reichelt.de* verfügbar. Die 1. Generation kostet beim gleichen Händler 79,50 Euro* (13 TOPS) respektive 122,50 Euro* (26 TOPS).

(*) Bei den mit Sternchen markierten Links handelt es sich um Affiliate-Links. Im Fall einer Bestellung über einen solchen Link wird ComputerBase am Verkaufserlös beteiligt, ohne dass der Preis für den Kunden steigt.



Source link

Weiterlesen

Beliebt