Künstliche Intelligenz
Holpriger Start: OpenZFS 2.4.0 mit schneller Verschlüsselung – und Problemen
Noch im Dezember veröffentlichten die Entwickler von OpenZFS die Version 2.4.0 ihres selbstheilenden Dateisystems, das aus dem vor über 20 Jahren für Solaris entwickelten ZFS von Sun Microsystems hervorgegangen ist. Explizit werden Linux-Kernel 4.18 bis 6.18 sowie FreeBSD 14, das aktuelle Production-Release 15 und die in rund zwei Jahren kommende Version 16 („-current“) unterstützt.
Weiterlesen nach der Anzeige
Ein Patch von Ameer Hamza führt Standard-Quotas für Benutzer, Gruppen und Projekte in OpenZFS ein – inklusive Objekt-Quotas – und sorgt so für eine konsistente Begrenzung, auch wenn keine individuellen Limits gesetzt sind. Dazu werden Kernel- und Userspace-Werkzeuge (zfs {user|group|project}space) unter FreeBSD und Linux angepasst, so dass Standard-Quotas angezeigt werden, falls keine individuellen Quotas konfiguriert wurden.
Eine Änderung von Alexander Motin erweitert die ZIL-Allokation so, dass bei fehlendem SLOG auch Special-vdevs (typischerweise SSDs) für ZIL-Blöcke genutzt werden, um unlogische Zuordnungen mit höheren Latenzen auf HDDs zu vermeiden. Damit können HDD-Pools mit einem schnellen Special-vdev synchrone Workloads besser bedienen. Das geht dann ohne zusätzliches SLOG und erlaubt in gewissen Grenzen den Verschleiß von SSDs zu minimieren.
Joel Low hat bereits im Februar letzten Jahres Code von Googles BoringSSL nach OpenZFS portiert, was angeblich eine bis zu 80 Prozent schnellere Verschlüsselung bringen soll. Dazu verwendeten die Entwickler bei Google eine Vector-AES-optimierte AES-GCM-Implementation (Galois/Counter Mode), bei der auf AMD Zen3-CPUs das schnelle AVX2 statt AVX512/AVX10 eingesetzt wird.
Drei neue Befehle
Wer OpenZFS 2.4.0 einsetzt, sollte sich mit drei neuen Befehlen vertraut machen: „zfs rewrite -P“ versucht beim erneuten Schreiben von Blöcken die Birth Time beizubehalten und so Zeit und Ressourcen einzusparen, da sich die eigentlichen Daten ja nicht ändern. Mit „zpool scrub -S -E“ kann das Scrubbing auf bestimmte Zeiträume (basierend auf Transaction Groups / TXG) begrenzt werden – im Commit [ werden aber einige Probleme gemeldet. Mit „zpool prefetch -t brt“ schließlich sollen die Metadaten der BRT (Block Reference Table) vorab in den ARC (Adaptive Replacement Cache) eingelesen werden, um Block Cloning und das Freigeben von Blöcken zu beschleunigen (dazu unten mehr).
Die Mehrheit der Commits kommen von Rob Norris (229 Commits) und Alexander Motin (119 Commits), beide arbeiten für das auf FreeBSD, ZFS und ARM spezialisierte Unternehmen Klara. Acht Entwickler haben Commits im zweistelligen Bereich, der überwiegende Teil beschränkt sich auf genau einen Commit.
Weiterlesen nach der Anzeige
Ohne Cache schneller schreiben und Ärger mit den „Gang Blocks“
Während obige Neuerungen aus einzelnen Commits bestehen, bestehen vier Bereiche des neuen OpenZFS 2.4.0 aus einer ganzen Reihe von zusammengefassten Detailverbesserungen: Uncached I/O, Gang Blocks, Deduplication und Block Cloning. Alexander Motin arbeitet an der Optimierung von Uncached I/O-Operationen, die von der Performance her zwischen dem schnellen Direct I/O (mit Beschränkungen wie page alignment) und dem regulären Cached I/O liegen. Scheidet Direct I/O in bestimmten Szenarien aus, soll es einen Fallback auf Uncached I/O statt wie bisher auf das noch langsamere Cached I/O geben.
Mehrere Fixes sollen den Einsatz von „Gang Blocks“ verbessern. Gang Blocks sind eine Art Notfallmechanismus von ZFS, der greift, wenn für einen großen Daten- oder Metadatenblock kein zusammenhängender freier Speicherplatz mehr verfügbar ist. In diesem Fall zerlegt ZFS den Block in mehrere kleinere physische Blöcke und speichert zusätzlich mindestens zwei redundante Gang Block Header, die auf diese Teilblöcke verweisen, sodass der Block logisch weiterhin als Einheit behandelt werden kann. Eine der Verbesserungen ist, die Größe der Gang Block Header von fixen 512 Byte auf eine beliebige dynamische Größe zu verändern.
Die ins Gigantische wachsende Datensammelwut von Konzernen und Regierungen macht Optimierungen bei der Deduplizierung von OpenZFS besonders notwendig. Alleine acht Commits sollen OpenZFS 2.4.0 dabei helfen, Speicherplatz zu sparen.
Sorgenkind Block Cloning gefixt – oder doch nicht?
Wie Alexander Motin klarstellt, wurde bei der ursprünglichen Implementation des Block Clonings ein struktureller Fehler gemacht, der die „BRT ZAP Entries“ betrifft, nun aber korrigiert ist. Block-Cloning erlaubt es, Dateien oder Teile davon zu kopieren, indem nur Referenzen zu bestehenden Blöcken angelegt werden, statt Daten zu duplizieren. Das spart Platz und Zeit, weil die Daten nicht erneut geschrieben werden müssen.
Die Block Reference Table (BRT) ist ein neues Metadaten-Objekt in OpenZFS (eingeführt in 2.2), das Block-Cloning beziehungsweise „Reflinks“ unterstützt. OpenZFS speichert die BRT-Einträge in einem ZAP-Objekt. ZAP (ZFS Attribute Processor) ist eine flexible On-Disk-Struktur für Schlüssel/Wert-Daten, beispielsweise Verzeichnisse, Eigenschaften oder eben Referenztabellen. Weitere Fixes sollen das Block Cloning von OpenZFS stabiler und weniger fehleranfällig machen. Fehlerhaftes Block Cloning sorgte bereits bei OpenZFS 2.2.0 für Datenverluste.
Ist manche NVMe-Hardware nicht OpenZFS-kompatibel?
Neben den Problemen durch Block Cloning scheint OpenZFS auch mit NVMe-Pools ein wenig auf Kriegsfuß zu stehen. Neben Kommentaren bei OpenZFS-Postings oder Foreneinträgen gibt es auch lange Diskussionen, beispielsweise auf Github. In fast allen diesen Diskussionen wird auf Probleme insbesondere mit NVMe-Laufwerken hingewiesen, SATA- und SAS-HDDs/SSDs scheinen weniger betroffen zu sein. Ob der Fehler dabei im OpenZFS zu suchen ist, oder ob es sich um Hardware-Probleme handelt, ist nicht immer klar und sorgt für teilweise hitzige Auseinandersetzungen.
Eine weitere Möglichkeit wäre, dass manche NVMe-Hardware von OpenZFS unter hoher Last einfach überfordert ist. Wenn diese Hardware mit anderen Dateisystemen oder sogar älteren ZFS-Varianten funktioniert, und wenn auch das aktuelle OpenZFS auf anderen Systemen fast überall sauber läuft – ist dann die spezielle Kombination das Problem? Vielleicht ist auch ein genauer Blick auf die eingesetzte NVMe-Controller-Hardware und dessen Firmware sinnvoll? Vor allem Consumer-Hardware wird oft hart an der Spezifikationsgrenze gebaut und könnte dann unter härteren Bedingungen von OpenZFS zu Fehlern neigen. Das Problem sollte genau analysiert werden, da vor allem leistungsfähige OpenZFS-Installationen gerne auf NVMe-Hardware aufbauen.
OpenZFS ist verfügbar für GNU/Linux, FreeBSD, NetBSD, macOS, OpenSolaris, Illumos und OpenIndiana. Der Quellcode von OpenZFS 2.4.0 liegt zusammen mit einer ausführlichen Liste aller Neuerungen und Änderungen auf Githuv.
(axk)
Künstliche Intelligenz
Burger King: KI-Assistent hört mit und bewertet „Freundlichkeit“ von Filialen
Weiterlesen nach der Anzeige
Burger King testet derzeit in rund 500 US-Filialen einen KI-Assistenten namens „Patty“ für Angestellte mit Headset. Das System unterstützt bei verschiedenen Aufgaben, ist aber auch darauf trainiert, Formulierungen wie „Willkommen bei Burger King“, „Bitte“ und „Danke“ zu erkennen, sagt Digitalchef Thibault Roux dem US-Techmagazin The Verge. Diese Daten fließen in eine Metrik, die Filialleitern Aufschluss darüber geben soll, wie ihr Standort in puncto „Freundlichkeit“ abschneidet.
In einem weiteren Interview beschwichtigt Roux: Die Daten würden anonymisiert und nicht zur Bewertung einzelner Mitarbeiter eingesetzt. Zudem werde „Patty“ den Beschäftigten nicht vorgeben, was oder wie sie etwas sagen sollen. Stattdessen erhielten Filialleiter aggregierte Werte, die sie für persönliche Coachinggespräche mit ihren Teams nutzen könnten, sagt Roux dem US-Wirtschaftsmagazin Fast Company.
Wie „Freundlichkeit“ genau berechnet wird, bleibt offen. Roux deutet jedoch an, dass das Unternehmen daran arbeitet, künftig nicht nur bestimmte Worte, sondern auch den Tonfall von Gesprächen zu erfassen.
Deutschland: Mitbestimmung und DSGVO als zentrale Hürden
Derzeit basiert „Patty“ auf einem angepassten KI-Modell von OpenAI. Laut Roux ist die Technologie jedoch so ausgelegt, dass sie künftig auch mit anderen Partnern wie Anthropic oder Google integriert werden könnte.
Neben der Freundlichkeitsanalyse erfüllt „Patty“ eine Reihe weiterer Funktionen. Mitarbeiter können per Headset Arbeitsanweisungen zu Rezepturen und Reinigungsprozessen abrufen, ohne Handbücher konsultieren zu müssen. Das System informiert Manager zudem automatisch über ausgefallene Geräte oder fehlende Zutaten und aktualisiert digitale Menüs, Kioske und Apps entsprechend. Erkennt die KI wiederkehrende Muster, kann sie proaktiv Hinweise an Verantwortliche senden.
Weiterlesen nach der Anzeige
Nach aktuellen Plänen soll das System bis Ende 2026 flächendeckend eingeführt werden. „Patty“ ist eine Kurzform von Patricia oder Patrick, bezeichnet im Englischen aber zugleich die Fleischscheibe im Burger.
In Deutschland wäre ein System, das den Wortlaut von Angestellten erfasst und auswertet, nur mit erheblichen Hürden umsetzbar. Als technische Einrichtung zur Leistungs- und Verhaltenskontrolle dürfte ein solches System ohne Zustimmung des Betriebsrats nicht eingeführt werden. Beim Einsatz von Künstlicher Intelligenz ist zudem die Hinzuziehung eines Sachverständigen gesetzlich vorgesehen. Zusätzlich wären die Vorgaben der DSGVO zu beachten, da Sprachaufzeichnungen personenbezogene Daten darstellen können.
(tobe)
Künstliche Intelligenz
Nvidia-Konkurrenz: Google will sein TPU-Geschäft angeblich groß aufziehen
Google hat mit Meta offenbar einen großen Fisch an Land gezogen, der die eigenen Tensor Processing Units (TPUs) kaufen und in Rechenzentren einsetzen will. TPU nennt Google seine KI-Beschleuniger, die als Alternative unter anderem zu Nvidias und AMDs GPUs dienen. Aktuell ist die Version TPU v7.
Weiterlesen nach der Anzeige
Laut The Information ist das Abkommen zwischen Google und Meta auf mehrere Jahre ausgelegt. Im Vergleich zu den Millionen von Beschleunigern, die Meta von AMD und Nvidia für Dutzende Milliarden US-Dollar kauft, geht es beim Google-Deal um deutlich kleinere Summen. Von mehreren Milliarden US-Dollar ist die Rede. Insbesondere der Preis pro Beschleuniger dürfte niedriger sein als bei der Konkurrenz.
Google bekommt so als Hardware-Zulieferer einen Fuß in die Tür. Angeblich will der Konzern künftig zehn Prozent von Nvidias Marktanteil abhaben. Das wären voriges Jahr rund 16 Milliarden US-Dollar gewesen, rein auf KI-Beschleuniger bezogen: Mit solchen machte Nvidia 162,4 Milliarden US-Dollar Jahresumsatz, mit Netzwerk-Hardware weitere 31,4 Milliarden, Tendenz weiter steigend.
Google-Joint-Ventures für mehr Verbreitung
Um die Verbreitung von TPUs voranzutreiben, will Google mit einem nicht genannten, großen Investor angeblich ein Joint-Venture gründen. Darüber könnte der Konzern die KI-Beschleuniger an weitere Betreiber von Rechenzentren leasen. Weitere Joint-Ventures mit anderen Investoren könnten folgen. Alternativ zum Leasing könnten diese Tochterunternehmen auch ganze Rechenzentren für Kunden betreiben.
Google muss derweil die Vermarktung der eigenen TPUs und den Einsatz von Nvidia-Hardware ausbalancieren. Mindestens für die Vermietung innerhalb der eigenen Cloud ist Google weiter auf Nvidias KI-Beschleuniger angewiesen, weil viele Kunden mit Nvidias Software arbeiten.
Nvidia-Chef Jensen Huang schließt laut The Information gezielt Abkommen ab, um vielversprechende Firmen an sich zu binden, darunter zuletzt Anthropic. Solche Tendenzen zeigten sich schon früher, etwa bei Nvidias Einstieg bei Groq, womit die Firma einem Deal zwischen OpenAI und Groq zuvorkam. Huang sei nur allzu bewusst, dass mit Gemini und Claude manche der besten KI-Modelle mit Google-Hardware trainiert wurden.
Weiterlesen nach der Anzeige
TPU v7 als Alternative
Googles TPU v7 ist auf dem Papier mit 4,6 FP8-Petaflops langsamer als Nvidias Blackwell Ultra (B300) mit 5 Pflops beziehungsweise 10 mit Sparsity (Wegfall von Nullen in den Matrizen). Auch die Speicherkapazität ist mit 192 statt 288 GByte HBM3e geringer.
Allerdings ist die TPU v7 mit geschätzt 1000 statt 1400 Watt sparsamer. Dafür setzt Google auf den modernen 3-Nanometer-Fertigungsprozess N3P vom Chipauftragsfertiger TSMC, während Nvidia auf den verbesserten 5-nm-Prozess 4NP zurückgreift. Effizienz entwickelt sich zur wichtigsten Metrik, da alle Hyperscaler bei der Stromzufuhr zu ihren Rechenzentren limitiert sind. Zudem wollen sich Hyperscaler offensichtlich nicht von Nvidia als alleinigen Zulieferer abhängig machen.
(mma)
Künstliche Intelligenz
Streaming-Streit: Oberlandesgericht Köln verbietet Übernahme der ARD-Mediathek
Ein seit Monaten andauerndes Tauziehen um Grenzen des digitalen Rundfunkrechts ist entschieden. In einem Urteil vom Freitag hat das Oberlandesgericht (OLG) Köln eine weitreichende Entscheidung gegen den privaten Streaming-Anbieter Joyn gefällt. Der 6. Zivilsenat bestätigte damit ein Verbot des Landgerichts Köln vom April 2025 und verschärfte die Auflagen gegen die Tochtergesellschaft von ProSiebenSat.1, die Inhalte der ARD-Mediathek ohne Erlaubnis in das eigene Angebot integriert hatte.
Weiterlesen nach der Anzeige
Mit dem Beschluss unterstreichen die Richter, dass schon das bloße Verlinken sowie das Einbetten („Embedding“) fremder Mediathek-Inhalte zum Zwecke der eigenen Reichweitensteigerung unzulässig ist (Az.: 6 U 75/25). Ausnahme: eine explizite Zustimmung des Rechteinhabers liegt vor.
Der Konflikt schwelt bereits seit Anfang 2025. Joyn begann damals völlig unerwartet, Inhalte der ARD großflächig als integrierten Link anzubieten. Dabei waren vorangegangene Kooperationsverhandlungen gescheitert. Der Betreiber des Streaming-Portals vertrat die Auffassung, öffentlich-rechtlich finanzierte Inhalte dürften ohne Zustimmung genutzt werden. Die ARD sah darin jedoch eine massive Rechtsverletzung.
ProSiebenSat.1 rechtfertigte das Vorgehen ursprünglich als rechtlich zulässiges „Beta-Testing“. Die Gruppe berief sich dabei auf die Rechtsprechung des Europäischen Gerichtshofs sowie auf ein eigenes Gutachten. Die ARD erwirkte jedoch eine einstweilige Verfügung, da ihre Mediathek als urheberrechtlich geschützte Datenbank anzusehen sei.
Wettbewerbsrecht und Markenschutz im Fokus
Besonders deutlich ist die Begründung des OLG unter dem Vorsitz von Martin Hohlweck, da sie über das reine Urheberrecht hinausgeht: Die Kammer wertete das Verhalten von Joyn als unlauter im Sinne des Wettbewerbsrechts und als Verstoß gegen den Medienstaatsvertrag. Sie stellte klar, dass auch eine gebührenfinanzierte Anstalt in einem Wettbewerbsverhältnis zu privaten Anbietern stehe und ihre Investitionen in die digitale Infrastruktur schützen dürfe, selbst wenn sie die Inhalte kostenlos anbietet. Das Recht zur Verlinkung decke es keinesfalls ab, eine gesamte Mediathek zu übernehmen, um das eigene kommerzielle Angebot zu verbreitern.
Zudem sah das Gericht eine Täuschung der Nutzer über die Herkunft des Angebots, da Joyn das Aussehen und den Inhalt der ARD-Mediathek weitgehend nachahmte. Die Verwendung der ARD-Marken stufte die zweite Instanz ebenfalls als unzulässig ein, weil eine Verwechslungsgefahr bestehe. Da die Entscheidung im einstweiligen Verfügungsverfahren ergangen ist, sind weitere Rechtsmittel zum Bundesgerichtshof in diesem Strang des Rechtsstreits nicht mehr möglich.
Weiterlesen nach der Anzeige
Parallele Niederlagen
Das Urteil festigt die juristische Position der öffentlich-rechtlichen Sender, die an mehreren Fronten gegen die Einbindung ihrer Inhalte kämpfen. Bereits Ende Mai 2025 unterlag Joyn vor dem Landgericht München I in ähnlichen Verfahren gegen das ZDF und Arte. Auch dort erkannten die Richter eine Verletzung des Medienstaatsvertrags. Zwar hatte Joyn die umstrittene Praxis bereits Anfang März 2025 vorläufig eingestellt. Doch die grundsätzliche Klärung der Rechtslage durch das OLG Köln sorgt nun für ein deutliches Signal an die Branche.
Während die Eilverfahren damit weitgehend abgeschlossen sind, werden die juristischen Auseinandersetzungen in der ersten Instanz in der Hauptsache fortgeführt. Für die ARD und die weiteren betroffenen Sender bedeutet der Kölner Beschluss jedoch einen Etappensieg zur Sicherung ihrer digitalen Souveränität. Die Kölner Richter unterstrichen, dass private Portale nicht einfach „Trittbrettfahren“ dürfen, um ihr eigenes Angebot auf Kosten der öffentlich-rechtlichen Beitragszahler aufzuwerten.
(mho)
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 1 Woche
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Künstliche Intelligenzvor 3 MonatenDigital Health: „Den meisten ist nicht klar, wie existenziell IT‑Sicherheit ist“
