Künstliche Intelligenz
Nextcloud schaltet den ADA-Turbo: Deutliche Performance-Verbesserungen kommen
Nextcloud hat mit der ADA-Engine (Accelerated Direct Access) eine grundlegend überarbeitete Datenzugriffsarchitektur vorgestellt. Die in PHP, Go und Rust implementierte Engine soll die Skalierbarkeit der freien Kollaborationsplattform auf ein neues Niveau heben. Die Neuentwicklung ist als Hommage an Ada Lovelace benannt, die erste Computerprogrammiererin der Geschichte.
Weiterlesen nach der Anzeige
Die ADA-Engine berechnet Zugriffsdaten und Berechtigungen vorab, speichert sie im Cache und ermöglicht direkten Dateizugriff. Zudem pusht sie Daten aktiv zu Clients, um die Navigation responsiver zu gestalten.
Konkrete Leistungssprünge in Nextcloud Hub 26 Winter
In Aktion können Anwender die neue ADA-Engine erstmals mit Nextcloud Hub 26 Winter erleben, das am 18. Februar 2026 erscheinen soll. Die neue Version trennt Previews aus dem File Cache und reduziert so die Größe der File-Cache-Tabelle um 56 Prozent. Diese Metadaten-Abstraktionsschicht ist oft die größte Datenbanktabelle in Nextcloud-Installationen. Previews erhalten eine eigene Tabelle mit Ablaufmechanismus für ungenutzte Dateien.
Authoritative Mount Points beschleunigen das Laden von Ordnern mit Shares um 30 Prozent, im Beispiel von Nextcloud von 1,9 auf 1,3 Sekunden. Das Lean File System Setup verbessert die Shared-Folder-Retrieval um 60 Prozent, von 1,39 auf 0,44 Sekunden. Direkte S3-Downloads reduzieren die Serverlast massiv und beschleunigen das Laden von Thumbnails um den Faktor 2 bis 10.
Snowflake-IDs und Sharding für große Installationen
Eine zentrale Innovation sind Snowflake-IDs, ursprünglich von Twitter entwickelt. Diese 64-Bit-Identifikatoren lassen sich dezentral ohne Datenbankabfragen generieren und enthalten einen Zeitstempel mit Millisekundenpräzision, eine Server-ID und ein CLI-Flag. Sie ermöglichen Sharding, also die Aufteilung von Tabellen nach Benutzer- oder Datei-IDs über mehrere Nodes hinweg, was Wartezeiten reduziert. Die Snowflake-IDs sind bereits im Preview-Provider und External Sharing im Einsatz.
Für Installationen mit Millionen Nutzern implementiert Nextcloud zudem das Generator-Pattern zum Streaming großer Listen. Statt komplette Listen in den Speicher zu laden, was zu Out-of-Memory-Fehlern führen kann, werden die Daten schrittweise verarbeitet. Eine neue Mount-Points-Tabelle ersetzt die bisherigen Per-User-Caches und ermöglicht direkte Provider-Queries. Die Architektur ist ideal für geclusterte und Cloud-native Deployments wie Kubernetes geeignet.
Weiterlesen nach der Anzeige
High-Performance-Backends für Files und Talk
Die in Rust und Go entwickelten High-Performance-Backends erhalten ebenfalls Updates. Das HPB Files 2.0 reduziert die PROPFIND-Anfragen für Updates um 80 Prozent durch gestaffelte Benachrichtigungen bei Multi-User-Änderungen und detailliertere Informationen für selective Sync. Das HPB Talk 2.0 führt Chat-Relay ein und senkt die Datenbanklast für große Räume und Anrufe. Bei mehr als 100 Teilnehmern sinken die Chat-bezogenen Anfragen um bis zu 80 Prozent.
Direkte S3-Downloads sind bereits im aktualisierten Desktop-Client implementiert. Clients laden dabei Token-geschützt direkt aus S3-kompatiblen Speichern und umgehen den Application-Server. Für die Web-Oberfläche und Previews folgen entsprechende Funktionen in späteren Releases. Die Speicherabstraktion bleibt dabei erhalten und unterstützt weiterhin POSIX, S3, IBM, FTP, WebDAV, Samba, NFS und SharePoint.
Sicherheit und Open-Source-Charakter bleiben erhalten
Trotz der tiefgreifenden Änderungen bleiben alle Sicherheitsfeatures erhalten oder werden verbessert: Server- und End-to-End-Verschlüsselung, ACLs, Passwort- und Ablaufmechanismen sowie Video-Verifikation. Auch KI-gestützte Erkennung verdächtiger Logins, Brute-Force-Schutz, Rate-Limiting, Audit-Logging, Erkennung sensibler Dateien und Smart Locking funktionieren weiterhin. Die ADA-Engine sorgt für konsistente Berechtigungen über alle Features hinweg, von Files über Talk bis zu Tasks. Detaillierte Informationen zu allen Änderungen finden sich im Nextcloud-Blog.
Und natürlich bleibt der Open-Source-Charakter von Nextcloud unangetastet, es handelt sich nicht um ein kommerzielles Pro-Feature. Die erste Beta von Nextcloud Hub 26 Winter ist seit Januar 2026 verfügbar. Nextcloud verspricht, dass weitere Anpassungen in kommenden Releases folgen, wobei die größten Auswirkungen bei großen Installationen zu erwarten sind. Geografisch verteilte Speicherlösungen sind mit ADA technisch machbar, erfordern aber noch erheblichen Entwicklungsaufwand.
(fo)
Künstliche Intelligenz
Software ist ein Werkzeug, kein Selbstzweck: Plädoyer für mehr Fachlichkeit
Wir entwickeln Software nicht, weil es so schön ist. Wir entwickeln sie, um fachliche Probleme zu lösen. Diese Unterscheidung klingt banal, aber sie geht in der täglichen Arbeit vieler Teams verloren. Ich beobachte seit Jahren, wie Diskussionen in Entwicklungsteams ablaufen: Es geht um Frameworks, um Architekturstile, um die neueste Technologie. Es geht darum, ob man besser auf Microservices oder auf einen Modulithen setzt, ob man dieses oder jenes Tool verwendet, ob die Code-Coverage hoch genug ist. Worüber erstaunlich selten gesprochen wird: das fachliche Problem, das die Software eigentlich lösen soll.
Weiterlesen nach der Anzeige

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.
Das ist kein Zufall und keine Nachlässigkeit. Es ist ein strukturelles Problem unserer Branche. Wir haben uns so sehr an technische Debatten gewöhnt, dass wir gar nicht mehr merken, wie weit wir uns von der eigentlichen Aufgabe entfernt haben. Dieser Artikel ist ein Versuch, das sichtbar zu machen – und ein Plädoyer dafür, den Blick wieder auf das Wesentliche zu richten.
Der Technologie-Tunnelblick
Warum reden wir lieber über Technologie als über Fachlichkeit? Die Antwort ist unbequem, aber nachvollziehbar: Technologie ist greifbar. Sie lässt sich vergleichen, messen, bewerten. Man kann Benchmarks lesen, Dokumentationen studieren, Tutorials durcharbeiten. All das passiert in einer Welt, die Entwicklerinnen und Entwickler kennen und kontrollieren.
Fachliche Probleme sind anders. Sie sind oft vage formuliert, widersprüchlich, und sie erfordern Gespräche mit Menschen, die eine andere Sprache sprechen – nicht im linguistischen Sinne, sondern im Sinne von Denkweisen und Prioritäten. Eine Fachexpertin interessiert sich nicht dafür, ob das System auf Kubernetes läuft. Sie will wissen, ob es ihre Arbeit erleichtert. Das sind verschiedene Welten, und die Brücke zwischen ihnen zu bauen, ist anstrengend.
Hinzu kommt ein strukturelles Problem: Die Branche belohnt technische Expertise stärker als Domänenwissen. Wer sich mit der neuesten Technologie auskennt, gilt als kompetent. Wer die Fachdomäne einer Versicherung oder eines Logistikunternehmens versteht, wird selten auf Konferenzen eingeladen. Das prägt, worauf Entwicklerinnen und Entwickler ihre Energie richten. Und so entstehen Teams, die technisch auf der Höhe der Zeit sind, aber nicht wirklich verstehen, welches Problem sie lösen.
Architekturstile als Glaubensfragen
Weiterlesen nach der Anzeige
Nirgends zeigt sich der Technologie-Tunnelblick deutlicher als in der Debatte um Architekturstile. Nehmen Sie die Diskussion um Microservices versus Monolith. In den 2010er-Jahren galt es fast als Naturgesetz, dass Microservices die bessere Wahl sind. Wer einen Monolithen baute, musste sich rechtfertigen. Wer Microservices einsetzte, galt als modern.
Aber was ist eigentlich die fachliche Begründung für Microservices? Im Kern geht es darum, Teile eines Systems unabhängig voneinander entwickeln, deployen und skalieren zu können. Das ist sinnvoll, wenn unterschiedliche Teams an verschiedenen Teilen arbeiten, wenn diese Teile unterschiedliche Lebenszyklen haben, wenn sie unterschiedlich stark genutzt werden. Es ist weniger sinnvoll, wenn ein kleines Team ein überschaubares System baut, bei dem alles zusammenhängt.
Trotzdem entscheiden sich Teams für Microservices, ohne diese Fragen zu stellen. Die Entscheidung fällt nicht auf Basis der Domäne, sondern auf Basis dessen, was gerade als Best Practice gilt. Das Ergebnis sind verteilte Systeme mit all ihrer Komplexität (Netzwerkkommunikation, Eventual-Consistency, Debugging über Servicegrenzen hinweg, …), ohne dass diese Komplexität durch einen fachlichen Nutzen gerechtfertigt wäre.
Die Architektur sollte aus der Domäne folgen, nicht umgekehrt. Wenn das fachliche Problem eine klare Trennung von Verantwortlichkeiten nahelegt, können Microservices die richtige Antwort sein. Wenn das Problem überschaubar ist und die Teile eng zusammenhängen, ist ein gut strukturierter Monolith oft die bessere Wahl. Aber diese Abwägung findet zu selten statt. Stattdessen wird der Architekturstil zur Glaubensfrage, losgelöst von der Realität des Problems.
Prinzipien ohne Kontext
Ähnlich verhält es sich mit Design-Prinzipien. DRY, SOLID, Clean-Code: Diese Begriffe kennt jede Entwicklerin und jeder Entwickler. Sie werden in Büchern gelehrt, in Code-Reviews eingefordert, in Vorstellungsgesprächen abgefragt. Aber sie werden oft so behandelt, als wären sie universelle Gesetze, die immer und überall gelten.
Nehmen Sie DRY (Don’t Repeat Yourself). Das Prinzip besagt, dass jede Information im System nur einmal repräsentiert sein sollte. Das klingt einleuchtend. Duplikation führt zu Inkonsistenzen, erschwert Änderungen, erhöht die Fehleranfälligkeit. Soweit die Theorie.
In der Praxis führt die dogmatische Anwendung von DRY oft zu einem anderen Problem: falschen Abstraktionen. Zwei Stellen im Code sehen ähnlich aus, also werden sie zusammengefasst. Aber allzu oft sehen sie nur zufällig ähnlich aus, fachlich haben sie nichts miteinander zu tun. Doch nun sind sie gekoppelt, und wenn sich eine Stelle ändern muss, muss die Abstraktion angepasst werden, die auch die andere Stelle betrifft. Die vermeintliche Vereinfachung wird zur Komplexitätsfalle.
Die Frage, ob Duplikation akzeptabel ist, lässt sich nicht ohne fachlichen Kontext beantworten. Wenn zwei Codestellen dasselbe fachliche Konzept repräsentieren, sollten sie zusammengeführt werden. Wenn sie verschiedene Konzepte repräsentieren, die nur zufällig gleich implementiert sind, sollten sie getrennt bleiben. Aber diese Unterscheidung erfordert ein Verständnis der Domäne – und genau das fehlt oft.
Dasselbe gilt für SOLID, für Clean-Code-Regeln, für jedes Prinzip. Sie sind Heuristiken, keine Gesetze. Ihr Nutzen hängt vom Kontext ab. Eine Klasse mit mehr als 200 Zeilen ist nicht automatisch schlecht. Eine Methode mit drei Parametern ist nicht automatisch besser als eine mit fünf. Es kommt darauf an, was die Klasse oder Methode tut, welches fachliche Konzept sie repräsentiert, wie sie verwendet wird. Wer Prinzipien ohne Kontext anwendet, optimiert für technische Metriken statt für fachliche Klarheit.
Falscher Maßstab für Qualität
Apropos Metriken: Auch bei der Qualitätsmessung zeigt sich der Technologie-Tunnelblick. Test-Coverage ist das prominenteste Beispiel. Eine hohe Coverage gilt als Zeichen guter Qualität. Teams setzen sich Ziele: 80 Prozent, 90 Prozent, manchmal 100 Prozent. Tools visualisieren die Abdeckung, Dashboards zeigen Trends, Code-Reviews fordern Tests für jede neue Zeile.
Aber was misst Test-Coverage eigentlich? Sie misst, wie viel Code von Tests ausgeführt wird. Sie misst nicht, ob die richtigen Dinge getestet werden. Sie misst nicht, ob die Tests sinnvolle Szenarien abdecken. Und sie misst schon gar nicht, ob die Software das fachliche Problem löst.
Es ist möglich, 100 Prozent Coverage zu erreichen und trotzdem eine Software zu haben, die am Bedarf vorbeigeht. Die Tests prüfen, dass der Code macht, was er macht, aber niemand hat jemals geprüft, ob das, was er macht, auch das Richtige ist. Die Anforderungen waren missverstanden, die Domäne war nicht durchdrungen, die Gespräche mit den Fachexpertinnen und Fachexperten haben nicht stattgefunden. Der Code ist technisch einwandfrei und fachlich wertlos.
Ähnlich verhält es sich mit statischen Analysen, Linting-Regeln, Komplexitätsmetriken. Sie alle messen technische Eigenschaften des Codes. Sie können helfen, bestimmte Probleme zu vermeiden. Aber sie können nicht messen, was wirklich zählt: ob die Software das richtige Problem auf die richtige Weise löst. Wer sich auf diese Metriken verlässt, verwechselt technische Sauberkeit mit fachlicher Qualität.
Die Fachlichkeit zurückholen
Wie lässt sich der Fokus verschieben? Es gibt Ansätze, die dabei helfen können: Domain-Driven Design (DDD), Event-Storming, Domain-Storytelling & Co. Sie alle haben gemeinsam, dass sie die Fachlichkeit in den Mittelpunkt stellen. Sie fordern, dass Entwicklerinnen und Entwickler mit Fachexpertinnen und Fachexperten sprechen, dass der Code die Sprache der Domäne spricht, dass Architekturentscheidungen aus dem fachlichen Kontext abgeleitet werden.
Aber hier lauert eine Falle: Auch diese Ansätze können zum Selbstzweck werden. Ich habe kürzlich darüber geschrieben, wie Domain-Driven Design dieses Schicksal ereilt hat. Die Kernbeobachtung: DDD wurde akademisiert. Was als einfache Idee begann („verstehe die Domäne und sprich die Sprache des Business“) ist zu einem Katalog von Patterns geworden, über den Entwicklerinnen und Entwickler diskutieren, statt mit Fachexpertinnen und Fachexperten zu reden.
Das ist bezeichnend. Selbst ein Ansatz, der explizit den Fachfokus propagiert, wurde von uns als Branche in etwas Technisches verwandelt. Wir diskutieren, ob etwas ein Aggregat oder eine Entity ist, statt zu fragen, wie die Fachleute das Konzept nennen. Wir zeichnen Bounded-Context-Diagramme, statt die Grenzen aus der Domäne abzuleiten. Wir lernen die Patterns auswendig, statt die Domäne zu verstehen. Der Sog der Technologie ist so stark, dass er selbst Ansätze vereinnahmt, die gegen ihn gerichtet sind.
Die Lösung liegt nicht in neuen Methoden oder besseren Tools. Sie liegt in einer Haltungsänderung. Wir müssen akzeptieren, dass die schwierige Arbeit, also die Gespräche mit Fachexpertinnen und Fachexperten, das Ringen um Verständnis, das Aushalten von Unsicherheit, nicht durch Technik ersetzt werden kann. Wir müssen den Mut aufbringen, weniger über Frameworks zu reden und mehr über Probleme. Wir müssen uns eingestehen, dass technische Eleganz kein Wert an sich ist, wenn sie nicht im Dienst der Fachlichkeit steht.
Software als Werkzeug, nicht als Kunstwerk
Softwareentwicklung ist angewandte Problemlösung. Wir werden nicht dafür bezahlt, schönen Code zu schreiben. Wir werden dafür bezahlt, Probleme zu lösen. Das klingt banal, aber es hat weitreichende Konsequenzen.
Es bedeutet, dass die beste Architektur nicht die eleganteste ist, sondern die, die das fachliche Problem am besten adressiert. Es bedeutet, dass Prinzipien und Patterns Werkzeuge sind, keine Ziele. Es bedeutet, dass technische Schulden manchmal akzeptabel sind, wenn sie die schnellere Lösung eines dringenden fachlichen Problems ermöglichen. Es bedeutet, dass wir unseren Erfolg nicht an Coverage-Zahlen oder Clean-Code-Metriken messen sollten, sondern daran, ob die Software ihren Zweck erfüllt.
Das erfordert ein Umdenken. Es erfordert, dass wir unsere Komfortzone verlassen und uns auf das einlassen, was unbequem ist: die Kommunikation mit Menschen, die anders denken als wir. Es erfordert Demut, also die Einsicht, dass wir als Entwicklerinnen und Entwickler nicht die Expertinnen und Experten für die Domäne sind, auch wenn wir gerne so tun. Es erfordert Pragmatismus, also die Bereitschaft, technisch suboptimale Lösungen zu akzeptieren, wenn sie fachlich besser passen.
Ich plädiere nicht dafür, technische Qualität zu ignorieren. Guter Code ist wichtig. Saubere Architektur ist wichtig. Tests sind wichtig. Aber all das ist Mittel zum Zweck, nicht Selbstzweck. Wenn wir das vergessen, bauen wir technisch ausgefeilte Systeme, die niemand benötigt. Wir optimieren für Metriken, die nichts aussagen. Wir führen Debatten, die nichts bringen.
Die Frage, die wir uns in jedem Projekt, bei jeder Entscheidung stellen sollten, ist einfach: Hilft das, das fachliche Problem besser zu lösen? Wenn ja, machen wir weiter. Wenn nein, sollten wir innehalten und uns fragen, ob wir gerade der Technologie dienen oder der Fachlichkeit. Die Antwort darauf bestimmt, ob wir Softwareentwicklung als Handwerk betreiben oder als Selbstzweck.
(rme)
Künstliche Intelligenz
Roblox-Erfolg: Immer mehr Top-Entwickler verdienen Millionen
Die Ökonomie der Metaverse-Plattform Roblox wächst: Laut aktuellen Unternehmenszahlen setzten Roblox-Creator im vergangenen Jahr rund 1,5 Milliarden US-Dollar um. Damit wurde erstmals die Milliarden-Marke innerhalb eines Jahres geknackt, was einem Anstieg von über 62 Prozent gegenüber dem Vorjahr entspricht.
Weiterlesen nach der Anzeige
Die 1000 erfolgreichsten Entwickler verdienten 2025 im Schnitt je 1,3 Millionen US-Dollar, womit sie das Vorjahresergebnis um über 50 Prozent übertrafen. Erzielt wird dieser Umsatz durch den Verkauf virtueller Gegenstände und besonderer Spielerlebnisse. Diesen Topverdienern stehen Millionen von aktiven Entwicklern gegenüber, für die Roblox primär ein Hobby ohne nennenswerte Monetarisierung bleibt.
Die Roblox-Nutzerschaft, die aus rund 144 Millionen täglich aktiven Nutzern besteht, setzt sich laut internen Zahlen zu 73 Prozent aus Minderjährigen zusammen, wobei mehr als ein Drittel unter 13 Jahren alt ist.
Diese Statistik basiert auf Daten, die Roblox seit Anfang Januar 2026 erhebt. Zu diesem Zeitpunkt führte das Unternehmen eine verpflichtende Altersverifikation für die Nutzung der Chat-Funktion ein. Mit dieser Maßnahme reagierte Roblox auf eine US-Klage, in der den Plattformbetreibern vorgeworfen wird, ihre junge Nutzerbasis nicht ausreichend vor Kinderschändern zu schützen.
Foto-Tricks und geschminkte Bärte
Laut Roblox haben mittlerweile mehr als 45 Prozent der täglich aktiven Nutzer eine Altersüberprüfung abgeschlossen. Für diese gibt es zwei Möglichkeiten: einen Gesichtsscan mittels Selfiekamera oder alternativ die Vorlage eines amtlichen Ausweisdokuments.
Nach Einführung dieses Systems tauchten Berichte über Schummeleien auf, nach denen Kinder das System etwa durch geschminkte Bärte oder das Vorhalten von Fotos älterer Personen überlisten konnten. Parallel dazu sollen technische Fehlklassifikationen dazu geführt haben, dass volljährige Nutzer fälschlich als Minderjährige eingestuft werden. Das ist deshalb ärgerlich, weil Nutzer basierend auf dieser Einordnung in Altersgruppen eingeteilt werden.
Weiterlesen nach der Anzeige
Als Reaktion auf Schummeleien und Fehler führt Roblox jetzt fortlaufende Altersüberprüfungen ein. Demnach wird das Nutzerverhalten künftig regelmäßig bewertet. Das System nutzt dabei mehrere Signale, um festzustellen, ob jemand deutlich älter oder jünger ist als im Profil angegeben. Wird eine Nichtübereinstimmung erkannt, wird der Benutzer aufgefordert, eine weitere Altersüberprüfung durchzuführen.
(tobe)
Künstliche Intelligenz
Smarte Thermostate von Aqara, Bosch, Homematic IP, SwitchBot, Tado, TP-Link
Billiger heizen, komfortabler heizen, oder idealerweise beides: Das gelingt mit smarter Heiztechnik. Dazu gehören nicht nur smarte Thermostate, sondern auch weitere digitale Gehilfen, wie die c’t-Redakteure Urs Mansmann und Stefan Porteck im Podcast diskutieren.
Weiterlesen nach der Anzeige

Den wöchentlichen c’t-Podcast c’t uplink gibt es …
Urs berichtet von monatlichen Verbrauchsübersichten, die manche Vermieter ihren Mietern erstellen müssen – was nur kaum jemand weiß. Urs erklärt, unter welchen Bedingungen man Anspruch auf diese Abrechnungen hat und was fernauslesbare Heizkostenverteiler damit zu tun haben.
Dann geht es natürlich auch um smarte Thermostate. Wir vergleichen sechs aktuelle Modelle, beschreiben Einbau, Nutzen sowie Funkinfrastrukturen und erklären, warum Matter enttäuscht. Wir diskutieren, unter welchen Bedingungen Geofencing, Fenstersensoren und Raumthermostate funktionieren. Und wir tauschen Erfahrungen und Tipps aus.
Die Systeme und Apps stoßen an ihre Grenzen, wenn man Thermostate und Sensoren verschiedener Hersteller mischen oder aufwendige Regeln nutzen möchte. Stefans Lösung: die Smart-Home-Plattform Home Assistant. Er beschreibt, wie man smarte Thermostate integriert, sie mit beliebigen Sensoren kombiniert und die Regeln implementiert.
Zwischendurch weisen wir auf einen neuen YouTube-Kanal von heise hin: c’t Phasenlage. Dort stellen wir Energiethemen wie Photovoltaik, Solarakkus, dynamische Stromtarife, Wärmepumpen und Smart Home miteinander verzahnt dar. Der Kanal richtet sich an technikinteressierte Einsteiger und Experten und bringt – wenn Host Jörg Wirtgen es hinkriegt – alle 14 Tage ein Video:
Zu Gast im Studio: Urs Mansmann, Stefan Porteck
Host: Jörg Wirtgen
Produktion: Tobias Reimer
Weiterlesen nach der Anzeige
► Die c’t-Artikel zum Thema (Paywall):
Warum sich Smart-Home-Technik beim Heizen lohnt
Sechs smarte Heizkörperthermostate im Test
Smarte Thermostate mit Home Assistant ausreizen[Link auf
Ohne Cloud: Heizungen von Bosch, Buderus und Junkers überwachen und steuern[Link auf
Geld sparen mit monatlicher Verbrauchsübersicht für Heizung und Warmwasser
In unserem WhatsApp-Kanal sortieren Torsten und Jan aus der Chefredaktion das Geschehen in der IT-Welt, fassen das Wichtigste zusammen und werfen einen Blick auf das, was unsere Kollegen gerade so vorbereiten.
► c’t Magazin
► c’t auf Mastodon
► c’t auf Instagram
► c’t auf Facebook
► c’t auf Bluesky
► c’t auf Threads
► c’t auf Papier: überall, wo es Zeitschriften gibt!
(jow)
-
Entwicklung & Codevor 3 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 1 MonatSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Apps & Mobile Entwicklungvor 2 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Apps & Mobile Entwicklungvor 2 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Künstliche Intelligenzvor 3 MonatenWeiter billig Tanken und Heizen: Koalition will CO₂-Preis für 2027 nicht erhöhen
