Künstliche Intelligenz
Nextcloud schaltet den ADA-Turbo: Deutliche Performance-Verbesserungen kommen
Nextcloud hat mit der ADA-Engine (Accelerated Direct Access) eine grundlegend überarbeitete Datenzugriffsarchitektur vorgestellt. Die in PHP, Go und Rust implementierte Engine soll die Skalierbarkeit der freien Kollaborationsplattform auf ein neues Niveau heben. Die Neuentwicklung ist als Hommage an Ada Lovelace benannt, die erste Computerprogrammiererin der Geschichte.
Weiterlesen nach der Anzeige
Die ADA-Engine berechnet Zugriffsdaten und Berechtigungen vorab, speichert sie im Cache und ermöglicht direkten Dateizugriff. Zudem pusht sie Daten aktiv zu Clients, um die Navigation responsiver zu gestalten.
Konkrete Leistungssprünge in Nextcloud Hub 26 Winter
In Aktion können Anwender die neue ADA-Engine erstmals mit Nextcloud Hub 26 Winter erleben, das am 18. Februar 2026 erscheinen soll. Die neue Version trennt Previews aus dem File Cache und reduziert so die Größe der File-Cache-Tabelle um 56 Prozent. Diese Metadaten-Abstraktionsschicht ist oft die größte Datenbanktabelle in Nextcloud-Installationen. Previews erhalten eine eigene Tabelle mit Ablaufmechanismus für ungenutzte Dateien.
Authoritative Mount Points beschleunigen das Laden von Ordnern mit Shares um 30 Prozent, im Beispiel von Nextcloud von 1,9 auf 1,3 Sekunden. Das Lean File System Setup verbessert die Shared-Folder-Retrieval um 60 Prozent, von 1,39 auf 0,44 Sekunden. Direkte S3-Downloads reduzieren die Serverlast massiv und beschleunigen das Laden von Thumbnails um den Faktor 2 bis 10.
Snowflake-IDs und Sharding für große Installationen
Eine zentrale Innovation sind Snowflake-IDs, ursprünglich von Twitter entwickelt. Diese 64-Bit-Identifikatoren lassen sich dezentral ohne Datenbankabfragen generieren und enthalten einen Zeitstempel mit Millisekundenpräzision, eine Server-ID und ein CLI-Flag. Sie ermöglichen Sharding, also die Aufteilung von Tabellen nach Benutzer- oder Datei-IDs über mehrere Nodes hinweg, was Wartezeiten reduziert. Die Snowflake-IDs sind bereits im Preview-Provider und External Sharing im Einsatz.
Für Installationen mit Millionen Nutzern implementiert Nextcloud zudem das Generator-Pattern zum Streaming großer Listen. Statt komplette Listen in den Speicher zu laden, was zu Out-of-Memory-Fehlern führen kann, werden die Daten schrittweise verarbeitet. Eine neue Mount-Points-Tabelle ersetzt die bisherigen Per-User-Caches und ermöglicht direkte Provider-Queries. Die Architektur ist ideal für geclusterte und Cloud-native Deployments wie Kubernetes geeignet.
Weiterlesen nach der Anzeige
High-Performance-Backends für Files und Talk
Die in Rust und Go entwickelten High-Performance-Backends erhalten ebenfalls Updates. Das HPB Files 2.0 reduziert die PROPFIND-Anfragen für Updates um 80 Prozent durch gestaffelte Benachrichtigungen bei Multi-User-Änderungen und detailliertere Informationen für selective Sync. Das HPB Talk 2.0 führt Chat-Relay ein und senkt die Datenbanklast für große Räume und Anrufe. Bei mehr als 100 Teilnehmern sinken die Chat-bezogenen Anfragen um bis zu 80 Prozent.
Direkte S3-Downloads sind bereits im aktualisierten Desktop-Client implementiert. Clients laden dabei Token-geschützt direkt aus S3-kompatiblen Speichern und umgehen den Application-Server. Für die Web-Oberfläche und Previews folgen entsprechende Funktionen in späteren Releases. Die Speicherabstraktion bleibt dabei erhalten und unterstützt weiterhin POSIX, S3, IBM, FTP, WebDAV, Samba, NFS und SharePoint.
Sicherheit und Open-Source-Charakter bleiben erhalten
Trotz der tiefgreifenden Änderungen bleiben alle Sicherheitsfeatures erhalten oder werden verbessert: Server- und End-to-End-Verschlüsselung, ACLs, Passwort- und Ablaufmechanismen sowie Video-Verifikation. Auch KI-gestützte Erkennung verdächtiger Logins, Brute-Force-Schutz, Rate-Limiting, Audit-Logging, Erkennung sensibler Dateien und Smart Locking funktionieren weiterhin. Die ADA-Engine sorgt für konsistente Berechtigungen über alle Features hinweg, von Files über Talk bis zu Tasks. Detaillierte Informationen zu allen Änderungen finden sich im Nextcloud-Blog.
Und natürlich bleibt der Open-Source-Charakter von Nextcloud unangetastet, es handelt sich nicht um ein kommerzielles Pro-Feature. Die erste Beta von Nextcloud Hub 26 Winter ist seit Januar 2026 verfügbar. Nextcloud verspricht, dass weitere Anpassungen in kommenden Releases folgen, wobei die größten Auswirkungen bei großen Installationen zu erwarten sind. Geografisch verteilte Speicherlösungen sind mit ADA technisch machbar, erfordern aber noch erheblichen Entwicklungsaufwand.
(fo)
Künstliche Intelligenz
Mozilla cq: Stack Overflow für KI-Agenten
Mozilla AI hat mit cq ein Open-Source-Projekt vorgestellt, das als gemeinsame Wissensbasis für KI-Coding-Agenten dienen soll. Der Name leitet sich vom Dialog (colloquy) ab, genauer gesagt einem strukturierten Austausch von Ideen. Das erklärte Ziel: Agenten sollen nicht länger isoliert arbeiten und dabei wiederholt auf dieselben Fehler stoßen, sondern voneinander lernen können.
Weiterlesen nach der Anzeige
Wie Peter Wilson in einem Blogeintrag bei Mozilla erklärt, arbeiten KI-Agenten aktuell stets unabhängig voneinander. Trifft ein Agent auf ein unbekanntes Problem – etwa eine API mit unerwartetem Verhalten oder eine fehlerhafte CI/CD-Konfiguration –, muss er es eigenständig lösen: Code schreiben, Fehler auslösen, diagnostizieren, von vorn beginnen. Stößt ein anderer Agent auf dasselbe Problem, wiederholt sich der gesamte Prozess. Das kostet Token und Rechenleistung.
Verschärft wird die Situation laut Mozilla dadurch, dass die Trainingsdaten der Modelle veralten. Gleichzeitig sind Plattformen wie Stack Overflow, die einst als zentrale Wissensquelle dienten und deren Inhalte in die Trainingsdaten der Modelle einflossen, von einem massiven Nutzerschwund betroffen. Konkret verweist Mozilla auf einen Rückgang von über 200.000 Fragen pro Monat auf dem Höhepunkt 2014 auf unter 4.000 im Dezember 2025.
So funktioniert cq
cq setzt auf einen dezentralen Wissensaustausch: Bevor ein Agent eine unbekannte Aufgabe angeht, fragt er die sogenannten „cq commons“ ab. Hat ein anderer Agent das Problem bereits gelöst, steht die Lösung sofort zur Verfügung. Lernt ein Agent etwas Neues, kann er dieses Wissen zurück in die Datenbank einspeisen. Andere Agenten bestätigen es durch praktische Nutzung oder markieren es als veraltet. Wissen soll so durch Anwendung Vertrauen aufbauen, nicht durch bloße Autorität.
Mozilla verweist in diesem Zusammenhang auf eine Vertrauenslücke: 84 Prozent der Entwickler nutzen demnach KI-Tools oder planen dies, doch 46 Prozent vertrauen der Genauigkeit der Ergebnisse nicht – ein Anstieg gegenüber 31 Prozent im Vorjahr. Wissen, das von mehreren Agenten in unterschiedlichen Codebasen bestätigt wurde, könne hier mehr Gewicht haben als die Einzelantwort eines Modells, so die Hoffnung von Mozilla.
Ein erster funktionsfähiger Prototyp von cq umfasst Plugins für die Coding-Agenten Claude Code und OpenCode. Hinzu kommen ein MCP-Server (Model Context Protocol) für den lokalen Wissensspeicher, eine Team-API zum Teilen innerhalb von Organisationen, eine Benutzeroberfläche für menschliche Überprüfung sowie Container zum Aufsetzen des Gesamtsystems. Die Entwicklung begann nach Angaben von Mozilla erst Anfang März, entsprechend handelt es sich offiziell um einen frühen Proof of Concept.
Weiterlesen nach der Anzeige
Technische Details zu cq finden sich auf der Projektseite auf GitHub.
Offener Standard statt Vendor-Lock-in
Mozilla legt cq ausdrücklich als herstellerunabhängiges Projekt aus. Nicht jeder nutze dieselben Coding-Agenten, und Entwicklern sollte kein bestimmtes Werkzeug vorgeschrieben werden, heißt es im Blogbeitrag. Der bisherige Ansatz, Wissen in Markdown-Dateien innerhalb von Repositories abzulegen, stoße an Grenzen. Stattdessen brauche es ein dynamisches System, das Vertrauen über die Zeit aufbaue.
Peter Wilson verweist explizit darauf, dass sich die Idee mit einem jüngst veröffentlichten Beitrag von KI-Forscher Andrew Ng deckt. Er hatte ebenfalls ein „Stack Overflow für KI-Coding-Agenten“ angeregt. Entsprechend sieht Mozilla darin eine Bestätigung des eigenen Ansatzes und ruft die Entwickler-Community auf, sich an der Gestaltung von cq zu beteiligen.
(fo)
Künstliche Intelligenz
VR Games Showcase März 2026: Alle neuen VR-Spiele und Ankündigungen
Künstliche Intelligenz
Kompaktes Smart-Teleskop ZWO Seestar S30 Pro im Test
Der chinesische Hersteller ZWO (Zhen Wang Optical) hat sein kompaktes Smart-Teleskop Seestar S30 Pro für Einsteiger und unerfahrene Nutzer konzipiert – trotz Pro im Namen. Im 1,8 Kilogramm leichten S30 Pro stecken zwei getrennte Kamerasysteme mit unterschiedlichen Aufgaben: eine Astrokamera für Deep‑Sky‑Aufnahmen und eine Weitwinkelkamera zur Himmelsorientierung und für Spezialmodi.
Die Hauptkamera sitzt hinter der eigentlichen Teleskop-Optik, ein 30‑mm‑Apochromat mit vier Linsen statt wie beim Vorgängermodell (Test) ein Triplet. Die zusätzliche Linse sorgt für ein flaches Bildfeld am Rand des Bildes, um die Abbildung des im Vergleich zum Vorgänger größeren 1/1,2-Zoll-Bildsensors zu verbessern.
Der Sony-IMX585-Sensor löst 3840 × 2160 Pixel auf und steckt in vielen Astrokameras, unter anderem im wesentlich teureren Vaonis Vespera II. Verglichen mit dem Vorgängermodell hat die Hauptkamera außerdem ein deutlich weiteres Bildfeld.
Das war die Leseprobe unseres heise-Plus-Artikels „Kompaktes Smart-Teleskop ZWO Seestar S30 Pro im Test“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
-
Künstliche Intelligenzvor 3 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 3 WochenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 1 MonatCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 1 Monat
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 3 MonatenAumovio: neue Displaykonzepte und Zentralrechner mit NXP‑Prozessor
-
Künstliche Intelligenzvor 3 MonatenÜber 220 m³ Fläche: Neuer Satellit von AST SpaceMobile ist noch größer
-
Künstliche Intelligenzvor 2 MonateneHealth: iOS‑App zeigt Störungen in der Telematikinfrastruktur
