Künstliche Intelligenz
Meta liefert mit SAM die Augen für multimodale Sprachmodelle
SAM steht für „Segment Anything Model“. Mit diesem KI-Modell ist es möglich, Objekte und sogar Audio aus Bildern und Videos zu segmentieren – einfach per Prompt. Die neueste Version von SAM – SAM 3 – ist in drei Varianten verfügbar: SAM 3, SAM 3D und SAM 3 Body. Wir haben mit Nikhila Ravi, Forschungsingenieurin bei Meta, über Anwendungsfälle und die Funktionsweise von SAM gesprochen.
Weiterlesen nach der Anzeige
Was genau ist SAM? Ist es ein neues Modell? Ist es generative KI? Es handelt sich nicht um ein großes Sprachmodell an sich.
SAM ist also eigentlich eine Reihe von Modellen, die wir in den vergangenen vier Jahren entwickelt haben. Wir haben am Projekt „Segment Anything” gearbeitet. 2023 haben wir SAM1 veröffentlicht. Mit SAM1 kann man auf ein Objekt zeigen oder klicken, woraufhin das Modell die pixelgenaue Grenze des angeklickten Objekts vorhersagt. SAM1 war nur für Bilder gedacht. Im Jahr 2024 haben wir dann SAM2 veröffentlicht, das dasselbe tat, aber in Videos. Jetzt können Sie auf ein Objekt klicken und erhalten die pixelgenaue Begrenzung dieses Objekts in jedem einzelnen Frame des Videos. SAM3 ist ein völlig neues Modell, bei dem Sie nun mit Text oder visuellen Beispielen angeben können, was Sie umreißen möchten.

Nikhila Ravi, Research Engineer bei Meta FAIR.
Damit meine ich, dass man beispielsweise nicht mehr auf jede einzelne Person klicken muss, sondern einfach den Text „Person“ eingeben kann und das Modell automatisch jede einzelne Person findet und die Grenze um sie herum zeichnet. Wir haben also eine völlig neue Schnittstelle geschaffen, um Segmentierungen vornehmen zu können.
Der entscheidende Unterschied zu generativen Modellen besteht vielleicht darin, dass SAM eine pixelgenaue Wahrscheinlichkeit vorhersagt, ob dieses Pixel zum Zielobjekt gehört. Es generiert keine neuen Pixel, sondern markiert sozusagen mit einem Textmarker etwas, das bereits im Bild vorhanden ist.
Man kann einfach „Person” sagen, oder einen anderen Prompt schreiben, und SAM findet die Person im Bild. Gibt es in SAM so etwas wie ein großes Sprachmodell, das für diesen Prozess verwendet wird?
Das ist eine gute Frage. Eines der Dinge, die wir unbedingt erreichen wollten, war die Implementierung einer solchen offenen Vokabular-Textschnittstelle. Aber wir haben uns dann doch dafür entschieden, uns auf kurze Textphrasen zu beschränken. „Person“ ist also ein sehr einfaches Beispiel. Man kann auch komplexere Dinge wie „gelber Schulbus“ oder „rot gestreifter Regenschirm“ eingeben. Es sind jedoch nur zwei oder drei Wörter möglich, also kurze Phrasen. Der Grund dafür ist, dass wir kein großes Sprachmodell innerhalb des Modells verwenden wollen, sondern einen kleinen Text-Encoder haben.
Weiterlesen nach der Anzeige
Denn wir verwenden SAM3 für viele Anwendungsfälle in der Praxis, darunter auch für einige Produkte bei Meta, und es muss schnell sein. Wir hätten uns auch für ein LLM entscheiden können, aber wir haben uns dafür entschieden, es auf diese kurzen Phrasen zu beschränken, damit wir es auch für Produktanwendungen schnell ausführen können.
Ich habe den Playground ausprobiert, eine Art Bild und Video-Editor, und es hat sehr viel Spaß gemacht. Aber wofür wird SAM noch verwendet?
Die präzise Bild- und Videobearbeitung ist definitiv ein Anwendungsfall, den wir im Playground hervorgehoben haben, und den wir intern für etwa Instagram Edits und andere Produkte verwenden. Intern verwenden wir es auch für die visuelle Datenbeschriftung, also das Datalabeling. SAM1 und SAM2 haben die Datenbeschriftung erheblich beschleunigt. Früher musste man die Begrenzung um das Objekt manuell zeichnen. Mit SAM1 konnte man einfach auf das Objekt klicken und erhielt die Begrenzung. Aber wenn beispielsweise fünf Hunde im Bild waren, musste man manuell auf jeden der fünf Hunde klicken. SAM3 ist wie ein weiterer Schritt zur Beschleunigung dieses Prozesses, denn jetzt kann man einfach „Hund” eingeben und erhält Masken für alle Hunde. Im Rahmen der Einführung von SAM3 haben wir unter anderem mit einem Datenkennzeichnungsunternehmen namens Roboflow zusammengearbeitet. Roboflow ist ein Unternehmen für visuelle Datenkennzeichnung, das SAM1, SAM2 und jetzt auch SAM3 integriert hat.
Das Unternehmen ist begeistert davon, wie sehr SAM die Workflows für die Kunden beschleunigen kann, und zwar in gannz verschiedenen Anwendungsfällen aus der Praxis. In der Medizin beispielsweise müssen manche Wissenschaftler Zellen zählen, genauer gesagt müssen sie manuell zählen, wie viele Zellen sich auf einem Objektträger befinden. Mit SAM3 können Sie jetzt einfach einen Textbefehl wie „Zelle” verwenden oder ein Beispielfeld zeichnen. Eine weitere Möglichkeit, etwas zu spezifizieren, besteht nämlich darin, ein Feld um ein Beispiel zu zeichnen, woraufhin SAM3 alle anderen Beispiele findet.
Es gibt auch industrielle Anwendungsfälle. Die Robotik ist ein weiterer wichtiger Anwendungsbereich, der derzeit im Vordergrund steht. Besonders interessant sind die Videofunktionen und der Echtzeitaspekt, da man beim Navigieren in einer Umgebung alle verschiedenen Objekte finden muss. Wenn man beispielsweise einen Roboter hat, der Objekte aufnehmen kann, muss man wissen, wo sich die Objekte befinden.
Datenbeschriftung kann für alles Mögliche verwendet werden. Zum Beispiel in einer industriellen Fertigungslinie, in der eine neue Komponente hergestellt werden soll und man zählen möchte, wie viele Komponenten produziert werden.
Früher mussten Menschen alles anklicken und beschreiben, heute ist das also viel einfacher und schneller, nicht wahr?
Ja. Es ist wie eine Automatisierung dieses Prozesses. Früher musste man alles manuell machen. Jetzt können wir dieses Modell in den Kreislauf einbinden, man nimmt vielleicht ein paar Korrekturen vor, aber dann sind 80 % der Vorhersagen ungefähr richtig. Das beschleunigt den gesamten Prozess.
Jetzt haben wir SAM im Playground als Editor, wir haben SAM für die Datenbeschriftung. Entwickler können SAM3 frei verwenden. Wie geht es weiter? In welche Richtung arbeiten Sie?
Der Forschungsteil ist wirklich grundlegend. Wir betrachten es gerne unter dem Gesichtspunkt: „Was ist eine grundlegende Innovation, die dann viele neue Anwendungsfälle nachgelagert ermöglicht?“ Die Anwendungsfälle im Bereich der Bearbeitung machen Spaß. Aber all diese Anwendungsfälle aus der Praxis zeigen vor allem, dass das Modell über Generalisierungsfähigkeiten verfügt.

Alle Objekte eines Bildes werden erkannt.
Die Entwicklertools, sozusagen der Code und die Modelle, veröffentlichen wir, weil wir von der Community profitieren, die darauf aufbaut. Einige der Dinge, die die Community auf SAM2 aufgebaut hat, haben wir tatsächlich für SAM3 verwendet. Es handelt sich um neue Benchmarks und einige Modellverbesserungen, die die Open-Source-Community vorgenommen hat. Und es gab einige neue Datensätze, die die Community erstellt hat.
Deshalb halten Sie an der offenen Strategie fest, richtig?
Ja, für SAM war es wirklich sehr wirkungsvoll, diese Komponente zu haben.
Was ist das nächste größere, vielleicht grundlegende Problem? Gibt es ein größeres Ziel, auf das Sie hinarbeiten?
Ich denke, eines der Dinge, die wir in der SAM3-Veröffentlichung gezeigt haben, ist, wie SAM3 mit MLLM, multimodalen großen Sprachmodellen, eine visuelle Grundkomponente sein kann. SAM3 ist beispielsweise sehr gut in der Lokalisierung, also der Vorhersage der pixelgenauen Maske, während MLLMs sehr gut im Schlussfolgern und Planen sind und über all dieses zusätzliche Wissen über die Welt verfügen. Wir haben bereits gezeigt, wie man ein MLLM mit SAM3 kombinieren kann, um komplexere visuelle Aufgaben zu lösen. SAM3 ist also so etwas wie die Augen, das MLLM ist wie das Gehirn, und sie arbeiten zusammen. Dieses Experiment haben wir bei der SAM-3-Veröffentlichung vorgestellt. Ich denke, das ist definitiv eine sehr interessante Richtung für die Zukunft.
Und glauben Sie, dass dies für eine AGI (Artificial General Intelligence) oder eine AMI (Artificial Machine Intelligence) oder eine Superintelligenz oder etwas in der Art notwendig ist?
Auf jeden Fall für die Robotik. Die Robotik ist ein gutes Beispiel, weil sie viele verschiedene Anwendungsfälle umfasst: Etwa um verkörperte Agenten zu haben, die sich in der Welt bewegen und dann Aufgaben ausführen können, die die Lokalisierung und Verfolgung von Objekten erfordern. Da ist es eine enorm wichtige Fähigkeit. Und ganz allgemein: Wie kann man Vision und Sprache enger miteinander verbinden? Denn wie Sie wissen, ist die Menge an visuellen Daten, die wir in der Welt haben, deutlich größer als die Menge an Textdaten. Es ist entscheidend, visuelle Inhalte so tiefgreifend wie Textdaten verbinden und verstehen zu können. Wir brauchen die Augen, und die Augen sind im Moment im Vergleich zu den menschlichen Augen noch sehr primitiv.
Was können wir in naher Zukunft erwarten?
Es gibt einige kurzfristige Ziele, die wir erreichen möchten, beispielsweise das Modell etwas schneller zu machen. Derzeit ist es bei Bildern sehr schnell. Bei Videos ist es für etwa fünf Objekte in Echtzeit schnell, aber dann skaliert die Inferenzzeit mit der Anzahl der Objekte. Wir haben also einige Ideen, wie wir die Inferenz schneller machen können. Es gibt ein paar Dinge, die wir umsetzen möchten und die leicht zu erreichen sind.
Ich habe mich gefragt, ob klassische Freisteller, vielleicht für Produkte in Online-Shops, ein Anwendungsfall sind? Oder ist das für SAM viel zu einfach? Es gibt ja auch SAM 3D.
SAM 3D ist ein separates Modell. Wir haben also tatsächlich drei verschiedene Modelle veröffentlicht. SAM 3, SAM 3D Objects und SAM 3D Body. Für den von Ihnen genannten Anwendungsfall könnten SAM 3 und SAM 3D Objects eine gute Lösung sein. Wir haben dies tatsächlich mit Facebook Marketplace umgesetzt. Wir haben eine Funktion entwickelt, mit der jeder Verkäufer von Wohnaccessoires auf Facebook Marketplace die Möglichkeit hat, sein Angebot in ein 3D-Objekt umzuwandeln, das der Käufer dann in Augmented Reality betrachten kann. Dabei wird SAM 3 verwendet, um das Objekt zu maskieren, und dann mit SAM 3D in 3D umgewandelt. Das war ein Projekt, an dem ich besonders gerne mitgearbeitet habe, weil ich glaube, dass wir uns so etwas vor fünf Jahren noch nicht hätten vorstellen können, und jetzt können wir es tun.

Ein Sessel wird mittels Prompt zum 3D-Objekt.
(Bild: Meta)
Und wo liegen die Grenzen? Ich glaube, ich habe gelesen, dass die Hände das Problem für SAM 3D Body sind. Es sind immer die Hände.
Es gibt unterschiedliche Einschränkungen für verschiedene Modelle. Ich denke, die Einschränkung des SAM 3-Modells liegt eindeutig in den kurzen Textphrasen. Das ist etwas, das wir hoffentlich lösen können. Es gibt auch sehr nischenhafte Bereiche, die spezielles Wissen erfordern. Zum Beispiel die Interpretation von Röntgenbildern. Wir haben dieses Wissen nicht in das Modell integriert, da wir keine Daten dafür haben. Für solche Anwendungsfälle müssen also Daten gesammelt und das Modell feinabgestimmt werden. Wir bieten jedoch Anweisungen zur Feinabstimmung in der Code-Veröffentlichung für SAM 3. Bei SAM 3D gibt es die genannten Handrekonstruktion. Es gibt außerdem Bemühungen, die Geschwindigkeit der SAM 3D-Modelle zu verbessern, damit auch sie schneller laufen können.
(emw)
Künstliche Intelligenz
Dell schließt unzählige Sicherheitslücken in Avamar, iDRAC und NetWorker
Die Entwickler von Dell haben in Avamar und NetWorker massenhaft Schwachstellen in Komponenten wie Apache Tomcat und Spring Security geschlossen, die die Backuplösungen nutzen. Die Server-Fernverwaltung iDRAC bekommt ebenfalls ein Sicherheitsupdate.
Weiterlesen nach der Anzeige
Verwundbare Backuplösungen
In drei Warnmeldungen listet Dell die nun geschlossenen Sicherheitslücken in Komponenten von Drittanbietern auf, die Avamar und NetWorker betreffen.
Darunter fallen Komponenten wie Apache HTTP Server, Expat, OpenSSL und Vim. Der Großteil der geschlossenen Lücken stammt aus dem Jahr 2025. Darunter sind auch „kritische“ Schwachstellen (etwa Samba CVE-2025-10230), über die Schadcode auf Systeme gelangen kann. Es wurden aber auch Lücken geschlossen, die schon über zehn Jahre alt sind (zum Beispiel Apache HttpClient CVE-2015-5262 „mittel“).
Weitere Gefahr
Server-Admins sollten iDRAC-Service-Module für Linux und Windows auf den aktuellen Stand bringen. Geschieht das nicht, können sich Angreifer mit niedrigen Nutzerrechten aufgrund von Fehlern bei der Zugriffskontrolle höhere Nutzerrechte verschaffen (CVE-2026-23856). In einer Warnmeldung versichern die Entwickler, das Sicherheitsproblem in der Ausgabe 5.4.1.1 gelöst zu haben. Alle vorigen Versionen sollen verwundbar sein.
Weiterlesen nach der Anzeige
(des)
Künstliche Intelligenz
Redis 8.6 beschleunigt Durchsatz um das Fünffache
Die In-Memory-Datenbank Redis ist in Version 8.6 erschienen. Das Update steigert den Durchsatz bei Caching-Workloads auf ARM-Prozessoren um mehr als das Fünffache gegenüber Redis 7.2. Auf einem 16-Kern-System in der AWS-Cloud mit einem Graviton4-Prozessor erreichte Redis 8.6 in Benchmarks bis zu 3,5 Millionen Operationen pro Sekunde.
Weiterlesen nach der Anzeige
Die Entwickler optimierten zahlreiche Komponenten: Sorted Sets verzeichnen eine Latenzreduktion von bis zu 35 Prozent, GET-Operationen bei kurzen Strings führt Redis 15 Prozent schneller durch. Beim Speicherverbrauch sinkt der RAM-Bedarf für Hashes um 16,7 Prozent, für Sorted Sets sogar um 30,5 Prozent. Diese Verbesserungen betreffen nicht nur ARM-Systeme – auf Intel- und AMD-Plattformen zeigen sich ähnliche Verbesserungen.
Für KI- und Machine-Learning-Anwendungen bringt Redis 8.6 beschleunigte Vektor-Operationen: Die Geschwindigkeit beim Einfügen von Vektoren steigt um 43 Prozent, Abfragen werden 58 Prozent schneller durchgeführt. Dies gilt besonders bei binärer und 8-Bit-Quantisierung auf x86-64-Systemen.
Idempotente Produktion verhindert Duplikate in Streams
Eine weitere zentrale Neuerung betrifft Redis Streams. Der XADD-Befehl unterstützt jetzt idempotente Produktion durch die Parameter IDMP und IDMPAUTO. Damit lassen sich Duplikate vermeiden, wenn Produzenten nach Netzwerkfehlern oder Abstürzen Nachrichten erneut senden. Jeder Produzent erhält eine eindeutige Producer-ID, jede Nachricht eine Idempotency-ID – entweder manuell vergeben oder automatisch aus dem Nachrichteninhalt generiert.
Administratoren können die Haltedauer dieser IDs über XCFGSET STREAM IDMP-DURATION steuern und die maximale Anzahl pro Producer mit IDMP-MAXSIZE begrenzen. Die idempotente Produktion ist besonders wichtig bei Systemen mit mehreren Consumer-Groups: Stürzt etwa der Producer bei einer Essensbestellung nach dem Senden ab, verhindert die Idempotenz, dass Küche, Lager und Lieferdienst die Bestellung doppelt verarbeiten. Eine Einschränkung gibt es jedoch: Die Kombination aus idempotenter Produktion und AOF-Persistierung ohne RDB-Preamble führt derzeit zu Problemen – ein Patch soll folgen.
Neue Eviction-Strategien für Write-Heavy-Workloads
Weiterlesen nach der Anzeige
Mit den LRM-Policies (Least Recently Modified) erweitert Redis 8.6 die Eviction-Strategien. Anders als die etablierten LRU-Policies (Least Recently Used) berücksichtigt LRM nicht den letzten Lesezugriff, sondern ausschließlich Schreiboperationen. Das ist vorteilhaft bei write-intensiven Anwendungen oder KI-Workloads, wo Lesezugriffe die Relevanz eines Eintrags nicht beeinflussen sollen. Verfügbar sind volatile-lrm für Keys mit TTL und allkeys-lrm für alle Schlüssel.
Cluster-Betreiber profitieren vom neuen HOTKEYS-Befehl. Er identifiziert CPU- oder Netzwerk-intensive Schlüssel pro Slot und ermöglicht gezielte Optimierungen. In Kombination mit der in Redis 8.4 eingeführten atomaren Slot-Migration lassen sich Hotspots im Cluster gezielt beseitigen. Die Analyse startet mit HOTKEYS START, wobei Metriken, Stichprobenrate und Dauer konfigurierbar sind.
TLS-Zertifikate zur Authentifizierung
Für mTLS-Umgebungen vereinfacht Redis 8.6 die Authentifizierung: Clients können sich automatisch über ihr TLS-Zertifikat anmelden, wenn der Common Name des Zertifikats einem ACL-Benutzer entspricht. Die Konfiguration erfolgt mit tls-auth-clients-user CN und ACL SETUSER . Damit entfällt die separate Passwort-Authentifizierung – das Zertifikat dient als einzige Credential.
Time-Series-Datenbanken unterstützt Redis 8.6 mit NaN-Werten (Not a Number) in TS.ADD und TS.MADD. Neue Aggregatoren wie COUNTNAN und COUNTALL behandeln fehlende Messwerte korrekt, während bestehende Aggregatoren NaN-Werte ignorieren.
Alle Informationen zum neuen Release finden sich im Blog des Projekts. Redis 8.6 ist als Open-Source-Software unter der AGPLv3-Lizenz verfügbar. Die Unified Distribution enthält alle Funktionen einschließlich RedisTimeSeries, RedisBloom und RedisJSON in einem Paket. Binaries stehen für Docker, Snap, Homebrew sowie als RPM- und Debian-Pakete bereit. Die Version haben die Entwickler auf Ubuntu 22.04/24.04, Rocky Linux, AlmaLinux, Debian und macOS getestet.
(fo)
Künstliche Intelligenz
Chrome 145 bringt JPEG XL zurück
Google hat Chrome 145 für Windows, macOS und Linux veröffentlicht. Die Version umfasst einige kleinere neue Features und schließt elf Sicherheitslücken, darunter drei mit hoher Priorität. Vor allem aber bringt die neue Version des Browsers den Support des Bildformats JPEG XL zurück, dem sich Google offiziell lange verweigert hatte.
Weiterlesen nach der Anzeige
JPEG XL: Von der Entfernung zur Rückkehr
Google hatte die Unterstützung für das Format Anfang 2023 in Chrome 110 entfernt – mit der Begründung, es gebe zu wenig Interesse im Ökosystem und unzureichende Vorteile gegenüber bestehenden Formaten. Die Entscheidung stieß auf massive Kritik: Über 1000 Upvotes im Chromium-Bug-Tracker protestierten gegen die Entfernung, die Free Software Foundation kritisierte die Entscheidung als Einengung von Nutzer-Wahlmöglichkeiten. Jon Sneyers, Mitentwickler von JPEG XL, vermutete einen internen Konflikt bei Google zwischen JPEG-XL-Befürwortern und Vertretern der konkurrierenden Google-Formate AVIF und WebP.
JPEG XL wurde als moderner Standard für Bildkompression entwickelt und basiert auf Googles PIK und Cloudinarys FUIF. Der Standard wurde im Dezember 2020 finalisiert und im Oktober 2021 als internationaler Standard verabschiedet. Das Format bietet höhere Kompressionsraten als JPEG, unterstützt verlustfreie Kompression und ist offen sowie lizenzgebührenfrei. Experimentell war JPEG XL bereits ab Chrome 91 mit einem Feature Flag verfügbar.
Die Neubewertung begann im November 2025, als das Chromium-Team die Wiederaufnahme ankündigte. Ausschlaggebend waren mehrere Faktoren: Apple hatte den JPEG-XL-Support in Safari implementiert, Mozilla seine neutrale Haltung aufgegeben und die PDF-Association das Format im Oktober 2025 als empfohlen in PDF-Spezifikationen aufgenommen. Technisch plant Chromium die Integration von „jxl-rs“, einem Rust-basierten JPEG-XL-Decoder. Google nutzt das Format bereits praktisch: Die Google Cloud Platform DICOM API verwendet JPEG XL für eine Reduktion der Dateigröße um 20 Prozent.
Neue Features in Chrome 145
Chrome 145 bringt außerdem diverse neue Funktionen. Column wrapping für Multicol ermöglicht vertikales Spaltenlayout und 2D-Spaltenlayout. Device Bound Session Credentials schützen Nutzer-Sessions besser. Die neue Origin API vereinfacht die Arbeit mit Origins. Bei CSS unterstützt der Browser nun das text-justify-Property für bessere Kontrolle über Textausrichtung bei Blocksatz sowie prozentuale Werte für letter-spacing und word-spacing für responsive Typografie.
Weitere Neuerungen umfassen eine optimierte Schattenberechnung bei hohen border-radius-Werten, neue Event-Handler wie onanimationcancel für CSS Animations und die focusVisible-Option zur Kontrolle über Fokusring-Anzeige. Das Customizable-select-Element verbessert das Listbox-Rendering, während Monochrome-Emoji im Forced-Colors-Modus die Darstellung verbessern.
Weiterlesen nach der Anzeige
Behobene Sicherheitslücken
Besonders kritisch sind drei als „High Severity“ eingestufte Schwachstellen. CVE-2026-2313 betrifft einen Use-after-free-Fehler in CSS, CVE-2026-2314 beschreibt einen Heap-Buffer-Overflow in den Codecs und CVE-2026-2315 eine fehlerhafte Implementierung in WebGPU. Alle drei Lücken lassen sich durch manipulierte HTML-Seiten ausnutzen und erreichen einen CVSS-Score von 8.8. Für die Meldung von CVE-2026-2313 zahlte Google 8000 US-Dollar an die Forscher Han Zheng, Wenhao Fang und Qinying Wang.
Die mittelschweren Sicherheitslücken umfassen unter anderem CVE-2026-2316, die UI-Spoofing in Frames ermöglicht, sowie CVE-2026-2317, die ein Cross-Origin-Datenleck in der Animation-Implementierung erlaubt. Eine Race-Condition in den DevTools (CVE-2026-2319) könnte Object-Corruption via bösartiger Erweiterungen ermöglichen. Insgesamt zahlte Google für die gemeldeten Schwachstellen Prämien zwischen 500 und 8000 US-Dollar.
Alle Informationen zur neuen Version 145 finden sich in den Release-Notes. Anwender sollten Chrome zeitnah aktualisieren, da die Sicherheitslücken remote über manipulierte Webseiten ausnutzbar sind. Chrome aktualisiert sich in der Regel automatisch, Nutzer können die Aktualisierung aber über „Einstellungen/Über Google Chrome“ manuell anstoßen.
(fo)
-
Entwicklung & Codevor 3 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 1 MonatSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Apps & Mobile Entwicklungvor 3 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Apps & Mobile Entwicklungvor 3 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Künstliche Intelligenzvor 3 MonatenWeiter billig Tanken und Heizen: Koalition will CO₂-Preis für 2027 nicht erhöhen
