Connect with us

Künstliche Intelligenz

Nach Nutzerprotesten: Firefox bekommt kompletten KI-Abschalter


Mozilla sieht sich nach der Ankündigung seiner neuen Firefox-Strategie mit scharfer Kritik aus der Community konfrontiert. Nachdem der neue CEO Anthony Enzor-DeMeo Firefox zum „KI-Browser“ erweitern will, reagiert das Unternehmen nun mit Klarstellungen: Alle geplanten KI-Funktionen sollen ausschließlich Opt-in ausgeliefert werden. Zudem arbeitet Mozilla an einem „AI Kill Switch“, mit dem Nutzer sämtliche KI-Features dauerhaft entfernen können.

Weiterlesen nach der Anzeige

Firefox-Entwickler Jake Archibald stellte via Mastodon klar: „Alle KI‑Funktionen werden ebenfalls optional sein… Der Kill Switch wird all diese Dinge vollständig entfernen und in Zukunft nie wieder anzeigen.“ Allerdings räumte er ein, dass UI-Elemente wie Toolbar-Buttons eine Grauzone darstellen könnten. Ob der Kill Switch tatsächlich alle Netzwerkaufrufe und Telemetrie-Endpoints unterbindet oder lediglich die Bedienoberfläche deaktiviert, bleibt bislang offen.

Deutlich schärfer fällt die Reaktion von anderen Browser-Entwicklern wie dem Firefox-Fork Waterfox aus. Hauptentwickler Alex Kontos kündigte an: „Waterfox wird keine LLMs enthalten. Punkt.“ Waterfox betrachtet große Sprachmodelle als Black-Box-Technologien, die dem Vertrauensmodell des Browsers fundamental widersprechen. Das Projekt grenzt sich damit bewusst von transparenten Machine-Learning-Tools wie dem Übersetzungssystem Bergamot ab, das Mozilla bereits einsetzt. Waterfox basiert auf Firefox ESR und verzichtet seit jeher auf Telemetrie.

Mozilla plant mehrere KI-Funktionen für Firefox, darunter ein AI Window, in dem Nutzer das Sprachmodell frei wählen können sollen. Für iOS ist „Shake to Summarize“ angekündigt – eine Funktion, die durch Schütteln des iPhones KI-gestützte Zusammenfassungen erzeugt. Mozilla betont, dass die Verarbeitung lokal möglich sein soll, um Datenschutzrisiken zu minimieren.

Die technischen Details des angekündigten Kill Switch bleiben vage. Ein vollständiges Deaktivieren aller KI-Komponenten erfordert nicht nur das Entfernen von UI-Elementen, sondern auch die Unterbindung clientseitiger ML-Module, Telemetrie-Endpunkte und Server-APIs. Zudem könnten Signatur-basierte Update-Mechanismen nachträglich Modelle oder Konfigurationspakete nachliefern. Waterfox kritisiert, dass ein reiner UI-Schalter unzureichend sei, solange die grundlegende Infrastruktur für LLM-Integration im Browser verbleibe.

Weiterlesen nach der Anzeige

Aus datenschutzrechtlicher Sicht birgt die Remote-Inferenz mit Sprachmodellen erhebliche Risiken. Werden Inhalte geöffneter Webseiten oder Formulareingaben an externe Server übermittelt, können DSGVO-Pflichten wie Informationspflichten, Auftragsverarbeitungsverträge und Rechtsgrundlagen greifen. Mozilla hat bisher keine detaillierten Datenschutz-Impact-Assessments oder Model Cards veröffentlicht, die Transparenz über Datenflüsse und Modell-Eigenschaften schaffen würden. Auch konkrete Angaben zu geplanten KI-Anbietern – etwa Mistral, Hugging Face oder proprietäre Anbieter – fehlen.

Hintergrund der KI-Offensive ist Mozillas Abhängigkeit von Suchmaschinen-Deals insbesondere mit Google, die historisch 80 bis 90 Prozent der Einnahmen ausmachen. Unter der neuen Führung von CEO Enzor-DeMeo und Firefox-Chef Ajit Varma will Mozilla das Produktportfolio über drei Jahre diversifizieren. Konkrete Monetarisierungsmodelle für KI-Features – etwa Abo-Dienste oder Partner-Integrationen – wurden nicht genannt. Während Firefox auf Desktop bei 3 bis 4 Prozent Marktanteil stagniert, verzeichnet die mobile Version zuletzt 13 Prozent Wachstum.

Die Community-Reaktionen zeigen, dass zumindest ein Teil von Mozillas Kernnutzerschaft die KI-Integration skeptisch sieht. Viele wählen Firefox gerade wegen seiner Datenschutz-Reputation – ein Vertrauenskapital, das Mozilla bereits in der Vergangenheit durch kontroverse Entscheidungen beschädigt hatte. Forks wie Waterfox und LibreWolf entstanden ursprünglich als Reaktion auf Features wie die Pocket-Integration oder Telemetrie.


(fo)



Source link

Künstliche Intelligenz

Speicherkrise: Preise sollen noch stärker steigen als befürchtet


Im ersten Quartal 2026 könnten die Speicherpreise so stark steigen wie noch nie. Zu dem Ergebnis kommt der auf Speicher spezialisierte Marktbeobachter Trendforce, unter anderem anhand von bereits abgeschlossenen Lieferverträgen zwischen Speicher- und PC-Herstellern.

Weiterlesen nach der Anzeige

Im Falle von konventionellem Arbeitsspeicher revidiert Trendforce seine Prognose nach oben: Anfang Januar ging der Marktbeobachter noch von Preissteigerungen zwischen 55 und 60 Prozent aus, jetzt sind es 90 bis 95 Prozent. DDR5- und DDR4-RAM für Desktop-PCs (UDIMMs) und Notebooks (SO-DIMMs) soll es mit bis zu 110 Prozent am stärksten treffen.


Grafik zu Speicherpreisen

Grafik zu Speicherpreisen

Aufschlüsselung der steigenden Preissteigerungen.

(Bild: Trendforce)

Bei Servern (DDR5, DDR4) und Smartphones (LPDDR5X, LPDDR4X) sollen die Preissteigerungen mit 88 bis 93 Prozent nur etwas darunter liegen. In allen Fällen würde es sich um Rekorderhöhungen binnen eines einzigen Quartals handeln.

Die Lieferknappheit soll inzwischen so weit ausgeprägt sein, dass selbst bei den größten PC-Herstellern die Lagerbestände sinken. Trotz langfristiger Lieferverträge bekommen sie demnach nicht so viele DRAM-Riegel geliefert, wie sie in Desktop-PCs und Notebooks einbauen.

Bei SSDs sollen die Preise um bis zu 60 Prozent steigen, da auch hier die Nachfrage das Angebot übersteigt. Speicherhersteller haben offenbar bereits Produktionslinien von NAND-Flash für SSDs auf DRAM für Arbeitsspeicher umgestellt, um die Profitabilität zu erhöhen.

Weiterlesen nach der Anzeige

Grund für die enormen Preissteigerungen ist der hohe Speicherbedarf von KI-Rechenzentren. Hyperscaler kaufen derzeit alles, was sie in die Finger bekommen. Weil sie auch hohe Preise zahlen, reguliert sich der Markt derzeit nicht von selbst: Die Nachfrage sinkt trotz der Preissteigerungen nicht.


(mma)



Source link

Weiterlesen

Künstliche Intelligenz

Klipsch Flexus Core 200 im Test: 3.1.2-Soundbar mit viel Bass und Dolby Atmos


Dolby Atmos, kräftiger Bass ohne Subwoofer, einfache Einrichtung – das ist die Klipsch Flexus Core 200. Aber es gibt auch Nachteile.

Die Klipsch Flexus Core 200 ist die größere Soundbar der Flexus-Reihe. Sie arbeitet als 3.1.2-System mit Dolby Atmos und integriertem Subwoofer. Ein Netzwerkmodul fehlt, daher laufen App und Musikstreaming nicht über WLAN. Inhalte kommen stattdessen hauptsächlich über den Fernseher, über Zuspieler am Fernseher oder per Bluetooth zur Soundbar. Das macht die Bedienung einfach, schränkt aber Nutzungsumfang und Komfort ein. Wir haben im Test überprüft, für wen sich die Soundbar lohnt.

Mit insgesamt neun Lautsprechern bietet die Soundbar Klipsch Flexus Core 200 eine Leistung von 185 Watt.

Design und Verarbeitung

Die Klipsch-Soundbar ist knapp 112 cm breit, 7,8 cm hoch und fast 13 cm tief. Mit 8,5 kg ist sie für eine Einzel-Soundbar recht schwer und wirkt stabil. Das deutet auf ordentliche Bassreserven hin. Das Format passt gut zu großen Fernsehern, kann aber bei kleinen TVs das Bild unten leicht verdecken. Die Optik ist zurückhaltend und vor allem auf Funktion ausgelegt. Das kantige Design wirkt eigenständig. Oben sitzen seitliche Metallgitter, in der Mitte eine Abdeckung in dunkler Holzoptik. Vorn und an den Seiten nutzt Klipsch Stoff. Das Metalllogo ragt vorne rechts sichtbar in die Front – außergewöhnlich.

Tasten auf der Oberseite ermöglichen eine Grundbedienung ohne App, ein Display gibt es leider nicht. Die Verarbeitung ist solide, die ganze Soundbar wirkt hochwertig. Die beiliegende Fernbedienung besteht zwar nur aus Kunststoff, liegt mit ihren deutlichen Rundungen aber gut in der Hand und wirkt nicht billig.

Anschlüsse und Ausstattung

Für den Fernseher ist ein HDMI-Anschluss mit eARC vorgesehen. HDMI-Eingänge für Zuspieler gibt es nicht – Spielkonsole, Streaming-Box oder Blu-ray-Player müssen daher direkt an den Fernseher gehängt werden. Zusätzlich sind ein optischer Digitaleingang und ein Sub-Out für einen frei wählbaren externen Subwoofer vorhanden. Der ebenfalls vorhandene USB-C-Anschluss ist im Alltag hingegen nicht nutzbar, er dürfte für Service-Aufgaben reserviert sein.

Für kabellose Verbindungsaufnahme gibt es nur Bluetooth. WLAN, Air Play, Chromecast, Spotify Connect und Multiroom-Funktionen sind nicht Teil der Ausstattung. Gleiches gilt für Sprachsteuerung, eine entsprechende Funktion ist ebenfalls nicht integriert. Zu den nutzbaren Tonformaten gehören Dolby Atmos, Dolby Digital, DTS Digital Surround und Dolby Digital Plus. DTS:X wird hingegen nicht unterstützt. 9 Treiber baut Klipsch in den Klangriegel mit einer Gesamtleistung von 185 Watt ein: 2 × Tieftöner mit je 4 Zoll, 2 × Höhenlautsprecher mit je 2,25 Zoll, 2 Lautsprecher für die Kanäle links und rechts mit je 2,25 Zoll und ein Center, bestehend aus 2 × 2,25 Zoll für Mitten und einem Hochtöner mit 0,75 Zoll. Mit diesem Set-up soll die Flexus Core 200 einen Frequenzbereich von 43 Hz bis 20 kHz spielen.

Dolby Atmos, kräftiger Bass ohne Subwoofer, einfache Einrichtung – das ist die Klipsch Flexus Core 200.

Aufbau, Inbetriebnahme und Steuerung im Alltag

Die Einrichtung ist grundsätzlich einfach. HDMI-eARC verbinden, Strom anschließen, fertig. Weil kein WLAN genutzt wird, entfällt die Netzwerkkonfiguration. Eine App gibt es trotzdem. Die Klipsch Connect Plus-App verbindet sich per Bluetooth mit der Soundbar und ermöglicht Zugriff auf Funktionen wie Klangmodi, Pegel, Dialog-Anhebung sowie einen einfachen Equalizer.

Die Klipsch Connect Plus-App verbindet sich per Bluetooth mit der Soundbar und ermöglicht Zugriff auf Funktionen wie Klangmodi, Pegel, Dialog-Anhebung sowie einen einfachen Equalizer.

Klangqualität

Bei Film und Fernsehen fällt als Erstes der kräftige Bass auf. Als Standalone-Soundbar liefert die Core 200 für diese Klasse spürbaren Tiefgang und Druck. Im Test zeigt sich, dass die Soundbar nicht nur wie vom Hersteller versprochen bis 43 Hz, sondern tatsächlich sogar bis rund 37 Hz runterspielt – enorm! Dank leichter Überhöhungen bei etwa 50 und 40 Hz erweckt das in den meisten Fällen den Eindruck, dass ein separater Subwoofer nicht zwingend nötig ist. Da aber der „Punch“ unter 50 Hz deutlich nachlässt, empfiehlt sich ein Sub spätestens bei Musikrichtungen wie Hip-Hop oder für intensiven Filmgenuss. Das gibt bei sehr tiefen Effekten und hoher Lautstärke noch einmal deutlich mehr Fundament.

Dialoge werden klar und gut verständlich wiedergegeben. Ein Dialogmodus ist vorhanden, muss aber nicht dauerhaft aktiv sein, weil Stimmen auch so bereits klar und sogar etwas spitz durchkommen. Der Dolby-Atmos-Effekt ist hörbar, aber leider nicht sehr stark ausgeprägt. Eine Anpassung an den Aufstellraum ist mangels automatischer Einmessung bedauerlicherweise nicht möglich. So werden Höheninformationen wie Regen, Hall oder generelle Geräusche von oben zwar dank passender Reflexion durchaus angedeutet, allerdings bleibt der 3D-Eindruck ohne zusätzliche Rear-Lautsprecher eingeschränkt. Außerdem muss der Raum passen, andere Konkurrenzprodukte wie Sennheiser Ambeo Soundbar Plus oder Bose Smart Ultra Soundbar sind hier deutlich flexibler.

Bei Musik waren wir enttäuscht, schließlich gilt Klipsch als Audiospezialist. Während die Soundbar in Tests oft als dynamisch und kräftig beschrieben wird, empfanden wir die Flexus Core 200 hier als eher flach und wenig dynamisch. Das mag für Stile wie Pop und Elektro noch passen, weil Kickbass und Grundton voll und ausreichend deutlich klingen. Zudem bleibt die Soundbar auch bei höherer Lautstärke stabil. Bei komplexer Musik wirkt die Abstimmung hingegen weniger ausgewogen. Begriffe wie „fein“ oder „differenziert“ finden wir hier eher unpassend – schade.

Preis

Die UVP in Deutschland liegt für die Klipsch Flexus Core 200 bei 499 Euro. Der aktuelle Straßenpreis laut Geizhals.de (Deutschland) liegt bei rund 411 Euro (Stand: 2/2026). Wer die Soundbar mit einem Sub erweitern möchte, zahlt zusätzlich für den 10-Zoll Sub 100 249 Euro und für das 12-Zoll-Modell Sub 200 449 Euro. Für ein Paar Surround-Lautsprecher fallen weitere 250 Euro (Surr 100) oder 400 Euro (Surr 200) an.

Fazit

Die Klipsch Flexus Core 200 ist eine Soundbar mit Fokus auf kräftigen Heimkinoklang und guter Sprachverständlichkeit. Sie richtet sich an Nutzer, die es möglichst einfach und überschaubar haben wollen. Ein Subwoofer ist dabei dank kräftigem Bass nicht zwingend nötig. Schwächen gibt es hingegen beim Komfort. Ohne WLAN fehlen integriertes Streaming, Multiroom und Sprachsteuerung. Surround-Sound ist darüber hinaus wenig beeindruckend und auch bei Musik konnte uns die Flexus Core 200 nicht restlos überzeugen – das hätten wir von einem Audiospezialisten anders erwartet. Wer eine Soundbar primär für Film und Fernsehen sucht und später mit Subwoofer und Rear-Lautsprechern der Reihe nach erweitern möchte, bekommt unter den genannten Einschränkungen dennoch ein stimmiges Konzept.



Source link

Weiterlesen

Künstliche Intelligenz

Effizientes C++: Die versteckten Kosten des Rückgabedatentyps auto


Im heutigen Beitrag möchte ich mich mit dem Schreiben von effizientem C++-Code befassen. Dieses Thema lässt sich nicht in einem einzigen Beitrag behandeln. Zum Start möchte ich mich auf die Steuerung der Zeit konzentrieren, die der Compiler benötigt, und dabei ein Element der Sprache herausgreifen: auto.

Weiterlesen nach der Anzeige


Portrait von Andreas Fertig

Portrait von Andreas Fertig

Andreas Fertig ist erfahrener C++-Trainer und Berater, der weltweit Präsenz- sowie Remote-Kurse anbietet. Er engagiert sich im C++-Standardisierungskomitee und spricht regelmäßig auf internationalen Konferenzen. Mit C++ Insights ( hat er ein international anerkanntes Tool entwickelt, das C++-Programmierenden hilft, C++ noch besser zu verstehen.

Ich halte die Typinferenz auto für eine großartige Erweiterung der Sprache. Mit der C++14-Version von auto als Rückgabedatentyp ist es ein guter Weg, flexiblere und akkuratere Funktionen zu schreiben. Allerdings geht das zu Kosten eines längeren Kompiliervorgangs.

Aber beginnen wir ohne auto als Rückgabedatentyp. Hier ist eine Dummy-Funktion, die nichts Interessantes macht:


int Fun(bool b, int val)
{
  if(b) {
    return val * 2;
  } else {
    return val / 2 * 3;
  }
}


Ich brauchte für das Beispiel lediglich eine Funktion mit einem Rumpf, der für den Compiler nicht völlig trivial war. Da es im heutigen Beitrag um effizientes C++ geht, möchte ich über die Zeit sprechen, die zum Kompilieren dieser wenigen Zeilen Code erforderlich ist. Dabei geht es nicht unbedingt um die absoluten Zahlen, da diese auf verschiedenen Rechnern unterschiedlich sein werden.

Wie kannst du deinen Compiler überhaupt messen? Eine Möglichkeit ist der Linux-Befehl time. Dieser liefert jedoch nur wenige Informationen, die nicht dabei helfen, deine Build-Zeiten zu verbessern. Wenn dir ein Build langsam erscheint, benötigst du kein Tool, das dir sagt, dass du recht hast, sondern ein Tool, das dir zeigt, wo eine mögliche Beschleunigung möglich ist.

Wenn time nicht das richtige Tool ist, was dann? Ganz einfach: dein Compiler! Zumindest Clang. Er verfügt über die hilfreiche Befehlszeilenoption -ftime-trace. Damit kann Clang für jede Objektdatei eine .json-Datei mit zahlreichen Daten erstellen. Du kannst die Informationen beispielsweise mit Chrome und seinem Tracing Viewer untersuchen. Öffne einfach einen Tab und gib chrome://tracing ein. Lade dann die JSON-Datei. Für den obigen Code auf meinem Rechner mit Clang 19 sieht die Visualisierung so aus:

Weiterlesen nach der Anzeige


Screenshot von Chrome mit den Tracing-Ergebnissen von Clang

Screenshot von Chrome mit den Tracing-Ergebnissen von Clang

Screenshot von Chrome mit den Tracing-Ergebnissen von Clang

Ein Wort zu meiner Vorgehensweise: Ich gehe davon aus, dass die Funktion Fun in einer Header-Datei steht und in der aktuellen Übersetzungseinheit nicht verwendet wird. Einfachheitshalber habe ich keinen anderen Code eingefügt oder verwendet. Ich habe eine .cpp-Datei mit dem oben gezeigten Code wie folgt compiliert:


clang++ -c a.cpp -ftime-trace


Zurück zur Visualisierung, auch wenn sie etwas kompakt ist. Die obere Leiste mit der Aufschrift ExecuteCompiler benötigt 6,499 ms.

Hier ist eine modifizierte Version des vorherigen Codes. Die einzige Änderung, die ich vorgenommen habe, ist die auto statt int als Rückgabedatentyp.


auto Fun(bool b, int val)
{
  if(b) {
    return val * 2;
  } else {
    return val / 2 * 3;
  }
}


Wenn ich diesen Code messe, erhalte ich folgende Ergebnisse:


Screenshot von Chrome mit den Tracing-Ergebnissen von Clang

Screenshot von Chrome mit den Tracing-Ergebnissen von Clang

Dieses Mal benötigt ExecuteCompiler 8,114 ms. Das sind ungefähr 1,5 ms mehr. Ja, das stimmt, das ist nur ein einzelner Datenpunkt. Vielleicht haben wir es hier mit Jitter zu tun. Das kann sein. Vielleicht gibt es Aufrufe, bei denen die beiden Zahlen näher beieinander liegen, aber es ist unwahrscheinlich, dass sie jemals gleich werden. Ich bin mir hier sicher, weil im zweiten Trace ein zusätzlicher Schritt erscheint: ParseFunctionDefinition. Dieser Schritt ist nur vorhanden, wenn man auto als Rückgabedatentyp für die Funktion verwendet oder die Funktion tatsächlich aufruft. Aber ich gehe davon aus, dass Fun in einer Header-Datei deklariert ist.

Das zweite Codebeispiel benötigt wegen ParseFunctionDefinition länger zum Kompilieren. Mit auto von C++14 als Rückgabedatentyp muss der Compiler die Funktionsdefinition nachschlagen, wenn er die Deklaration analysiert. Ohne auto verschiebt der Compiler die Analyse des Funktionsrumpfs, bis er wirklich benutzt wird.

Wenn du die Dauer des Kompiliervorgangs optimieren möchtest, solltest du auf Funktionen achten, die auto als Rückgabedatentyp in Header-Dateien verwenden.


(rme)



Source link

Weiterlesen

Beliebt