Connect with us

Künstliche Intelligenz

Speicherdauer von Bonitätsdaten – Bundesgerichtshof hebt Urteil gegen Schufa auf


Wie lange darf die Schufa wissen, dass jemand früher Rechnungen nicht fristgerecht bezahlt hat? Damit muss sich erneut das Oberlandesgericht Köln (OLG) befassen, nachdem der Bundesgerichtshof ein früheres Urteil des OLG aufgehoben hat. Entgegen der Auffassung des OLG kommt es nämlich auf die Quelle dieser Information an, sowie gegebenenfalls auf „besondere Umstände“. Das Erkenntnis des BGH ist ein Etappensieg für den Bonitätsdienst Schufa.

Weiterlesen nach der Anzeige

Kläger ist eine Person, die in den Jahren 2019, 2020 und 2021 jeweils eine zu Recht bestehende Schuld nicht fristgerecht bezahlt hat: zwei Vollstreckungsbescheide und eine mehrfach gemahnte Rechnung. Die Gläubiger meldeten das der Schufa. Der Schuldner beglich die Rechnungen schließlich mit bis zu 21 Monaten Verspätung. Dennoch speicherte die Schufa die gemeldeten Daten weiter; anfragenden Unternehmen teilte sie mit, dass sie die Gefahr eines Zahlungsausfalls als „sehr kritisch“ einstufe.

Die betroffene Person wollte das nicht hinnehmen. Auf eine erfolglose Abmahnung folgte eine Klage auf Schadenersatz. Diese scheiterte zwar beim Landgericht Bonn (Az. 20 O 10/24), doch in der Berufung sprach das OLG Köln 500 Euro Schadenersatz zu (Az. 15 U 249/24).

Es verwies auf eine Vorlageentscheidung des EuGH im Fall C26/22: Werden Daten aus den Insolvenzbekanntmachungen gelöscht, müssen auch Auskunfteien ihre Kopien solcher Daten löschen. Andernfalls laufe die Löschregelung ins Leere.

In diesem Fall geht es zwar nicht um Insolvenzbekanntmachungen, sondern um einfache Schulden. Doch die Systematik sei die gleiche. Weil das öffentliche Schuldnerverzeichnis solche Einträge nach Bezahlung löschen würde, müsse auch die Schufa Angaben zu schlechter Zahlungsmoral nach Bezahlung sofort löschen. Da sie das nicht getan hat, sei sie schadenersatzpflichtig.

Weiterlesen nach der Anzeige

Dagegen erhob die Schufa Revision an den BGH. Wie schon beim OLG brachte sie vor, dass sie die konkreten Daten aus keinem öffentlichen Verzeichnis, sondern direkt von den Gläubigern erhalten habe. Diese Unterscheidung überzeugt den BGH-Senat I. „Die Erwägung (des EUGH), dass die für die ursprüngliche Datenspeicherung geltende Löschungsfrist nicht durch eine längere Speicherung an anderer Stelle konterkariert werden soll, greift daher im Streitfall nicht”, fasst die Pressemitteilung des Gerichtshofes zusammen. Er hebt das OLG-Urteil auf und schickt den Fall dorthin zurück.

Es hängt also von der Datenquelle ab. Informationen aus öffentlichen Verzeichnissen müssen Wirtschaftsauskunfteien löschen, sobald die Daten aus den Verzeichnissen gelöscht sind. Bleibt die Frage, wie lange die Schufa Daten speichern darf, die sie aus anderen Quellen erhält. Das beantwortet der BGH nicht konkret, er gibt dem OLG aber einen Wink mit dem Zaunpfahl.

Dem BGH-Senat erscheint es „möglich, bestimmte Speicherungsfristen als Ergebnis einer typisierten Abwägung festzulegen, soweit dabei die Besonderheiten des Einzelfalls hinreichend berücksichtigt werden.” Und dazu, so die BGH-Richter, habe der Hessische Beauftragte für Datenschutz und Informationsfreiheit neue Verhaltensregeln für die deutschen Wirtschaftsauskunfteien herausgegeben, die seit Jahresanfang gelten. Deren Bestimmungen lobt der BGH-Senat als „grundsätzlich angemessenen Interessenausgleich”.

Demnach dürfen personenbezogene Daten zu ausgeglichenen Forderungen drei Jahre gespeichert werden. Weil es ja vorkommen kann, dass auch gute Schuldner einmal eine Rechnung übersehen, gibt es eine Einzelfallregelung: Handelt es sich nur um eine einzelne unbezahlte Forderung, und wird ihre Bezahlung binnen 100 Tagen gemeldet, halbiert sich die Speicherfrist auf 18 Monate, sofern sonst keine Informationen aus dem Schuldnerverzeichnis oder aus Insolvenzbekanntmachungen vorliegen.

Ganz reicht aber auch diese Regelung dem BGH nicht: Betroffenen muss zusätzlich möglich sein, „besondere Umstände” vorzubringen. Geht daraus ein „wesentlich überdurchschnittliches” Löschinteresse hervor, könne dies „ausnahmsweise” bewirken, dass „eine noch kürzere Speicherungsdauer” angemessen ist. War die Speicherung zumindest für einen Teil des Zeitraums rechtswidrig, kann das Anspruch auf Schadenersatz auslösen (BGH I ZR 97/25, der Volltext liegt noch nicht vor).

Das OLG Köln muss sich nun damit befassen, ob und gegebenenfalls wann der Kläger „besondere Umstände” vorgebracht hat, die eine ausnahmsweise kürzere Speicherdauer bedingen. Andernfalls wird die Schufa wohl keinen Schadenersatz leisten müssen.

Das freut die Firma naturgemäß. Die Entscheidung habe jedoch Bedeutung über den Einzelfall hinaus, zumal der BGH die Verhaltensregeln bestätigt habe. Außerdem helfe die Datenspeicherung anderen Verbrauchern, betont dioe Schufa: „Stünden diese Daten zum Prüfen der Bonität nicht zur Verfügung, würde das für die Verbraucherinnen und Verbraucher zu weniger Krediten und höheren Zinsen bei deren Aufnahme führen.“


(ds)



Source link

Künstliche Intelligenz

Warme Töne im Winter: Die Bilder der Woche 6


Diese Woche kommt etwas Feuer in die sonst winterlichen Motive. Ein Fuchs im Schnee, der statt einer Tarnung alle Blicke auf sich zieht, eine Bergkette mit warm beleuchtetem Wolkendach oder gleich zwei knallrote Sonnenschirme, die nur einen schmalen Blick auf Rapunzel-Türme im Hintergrund erlauben. Wir laden Sie ein, durch unsere Favoriten zu stöbern. Es wird wieder bunter!

Weiterlesen nach der Anzeige


Das Titelbild der Ausgabe 01 2026 des Foto-Magazins c't Fotografie

Das Titelbild der Ausgabe 01 2026 des Foto-Magazins c't Fotografie


Die Berge von Mordor

Die Berge von Mordor

(Bild: dave-derbis)

Cadini di Misurina: Zerklüftete Gipfel ragen scharf in den Himmel, während warmes Abendlicht auf die kühlen Felsflächen fällt. Die tief hängenden Wolken glühen in Orange und Rosa. Der Himmel öffnet sich nur stellenweise und lenkt den Blick auf die Bergspitzen. Die Komposition lebt dabei von klaren Ebenen. Die dunklen Felsen als Basis, die gezackte Bergkette in der Bildmitte und die Wolken am oberen Rand. Die Landschaft erinnert an eine Fantasiewelt, in der die Natur wild und ungezähmt erscheint.


Fuchs im Garten

Fuchs im Garten

Fuchs im Garten

(Bild: DiSe.fotografie)

Ein Rotfuchs steht im Schnee, den Kopf gesenkt, den Blick konzentriert, die Ohren aufgestellt. Sein dichtes Winterfell leuchtet warm vor dem hellen Untergrund. Die Farben setzen einen starken Kontrast zwischen Rotbraun und Weiß. Der Betrachter ist hier sehr nah am Tier, wodurch dessen Präsenz verstärkt wird. Der Hintergrund verschwimmt weich und lenkt den Fokus auf Kopf, Augen und Körperhaltung.

Weiterlesen nach der Anzeige


Winterlandschaft

Winterlandschaft

Winterlandschaft

(Bild: dg9ncc)

Südlicher Steigerwald: Ein minimalistisches Bild, das gleichermaßen streng wie poetisch wirkt. Auf einem sanft gewellten Feld steht ein einzelner Baum. Die Landschaft erscheint zurückgenommen und ruhig. Dunst liegt in der Luft. Die tief stehende Wintersonne weicht die sonst harten Übergänge zwischen Hell und Dunkel auf. Die Komposition setzt auf klare Flächen, die durch horizontale Schichten gegliedert werden, und der leicht aus der Mitte versetzte Baum wird zum Ruhepol.


Rote Sonnenschirme

Rote Sonnenschirme

Abschirmdienst

(Bild: der Onkel Werner)

Rote Schirmflächen spannen sich diagonal über das Bild und lassen so nur einen schmalen Durchblick frei. Dazwischen tauchen die hellen, fast spielerisch wirkenden Zinnen mehrerer Türme auf. Das kräftige Rot dominiert das Bild und bildet einen starken Kontrast zum Himmel und zum hellen Mauerwerk. Die Komposition lebt von klaren Linien und Überlagerungen. Die Schirme schneiden den Raum in geometrische Flächen, während die Türme nur fragmentarisch erscheinen. Das Bild spielt mit Verbergen und Zeigen – und genau das weckt die Neugier.

NIKON D3300 | 17 mm | ISO 100 | f/6.3


Xiling Schlucht

Xiling Schlucht

Xiling Schlucht

(Bild: Thomas Becher)

Durch die Langzeitbelichtung wirkt das Wasser geglättet und das Bild strahlt eine Ruhe aus. Die Felsen bilden feste Ankerpunkte im Vordergrund und der Bach lenkt den Blick in die Tiefe.

Der Fotograf erklärt: „Das Foto entstand auf einer Reise durch China. Die Xiling Schlucht führt vom Jangtsekiang in die Berge hinein. Ich hatte mein Stativ dabei und konnte so etwas länger belichten. Aufgenommen mit einer Nikon Z5 und einem Nikkor 24–120/f4.“

Nikon Z5 | 80 mm | ISO 100 | f/8.0 | 2,5 s


Zwerg im Schnee

Zwerg im Schnee

Snow White and …

(Bild: Klicker3D)

Nahezu unberührter Schnee füllt das Bild und zieht sanfte weiße Wellen. Aus dem Schnee ragt lediglich die rote Zipfelmütze eines Gartenzwergs. Die Bildkomposition setzt konsequent auf Minimalismus. Die große weiße Fläche lenkt den Blick sofort auf den kleinen Farbkontrast, und die ruhigen Linien verleihen dem Motiv Balance sowie eine gewisse Tiefe. So entsteht ein leiser, humorvoller Wintermoment – reduziert, ruhig und mit einem Augenzwinkern.


Wasserspiele

Wasserspiele

Wasserspiele

(Bild: metapix)

Vertikal durch das Bild ziehen sich bunte Flächen und dunkle Linien. Die Farben Rot, Blau, Gelb und Weiß scheinen darin zu fließen. Erst auf den zweiten Blick wird deutlich, dass es sich um Spiegelungen im Wasser handelt. Die Architektur löst sich in Wellen auf. Die Komposition lebt vom Rhythmus, der durch die Wasserbewegung entsteht und so Dynamik erzeugt. Das Foto verwandelt die Wirklichkeit in eine Abstraktion, indem das Wasser zur Leinwand für Farbe und Bewegung wird.


(hoh)



Source link

Weiterlesen

Künstliche Intelligenz

Der Kameramarkt wächst, die Giganten schwächeln – die Fotonews der Woche 6/2026


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Manchmal fühlt sich die Fotobranche an wie ein Patient, dem seit Jahren von allen Seiten der baldige Exitus prophezeit wird. „Das Smartphone hat gewonnen“, „Niemand kauft mehr Kameras“, „Alles viel zu teuer“ – die Grabreden waren längst geschrieben. Und dann, mitten in der Trauerfeier, blinzelt der Patient kurz, setzt sich auf und fragt, ob noch Kuchen da ist. Genau das ist diese Woche passiert: Die neuesten Zahlen des Branchenverbands CIPA sind da und sie malen ein Bild, das viele nicht mehr für möglich gehalten hätten.

Weiterlesen nach der Anzeige


Das Titelbild der Ausgabe 01 2026 des Foto-Magazins c't Fotografie

Das Titelbild der Ausgabe 01 2026 des Foto-Magazins c't Fotografie

Die wichtigste Nachricht zuerst: Die weltweiten Kamera-Auslieferungen sind im Jahr 2025 zum zweiten Mal in Folge gestiegen. Das gab es zuletzt 2007, in einer Zeit, als das erste iPhone das Licht der Welt erblickte und „spiegellos“ noch nach einem Vampirproblem klang. Nach Jahren des stetigen Niedergangs ist das mehr als nur ein Hoffnungsschimmer – es ist ein handfester Trend.

Besonders faszinierend ist, wer die Treiber dieses Wachstums sind. Überraschung Nummer eins: Kompaktkameras! Ja, richtig gelesen. Die kleinen Knipsen mit fest verbautem Objektiv, die als erstes Opfer des Smartphone-Siegeszugs galten, erlebten einen Anstieg der Auslieferungen um satte 30 Prozent. Offenbar gibt es eine wachsende Zahl von Menschen, die bewusst zum dedizierten Fotoapparat greifen wollen, ohne gleich das ganze Arsenal an Wechselobjektiven mitzuschleppen.

Überraschung Nummer zwei: Kameras mit kleineren Sensoren (APS-C und Micro Four Thirds) haben zugelegt, während der heilige Gral des Vollformats bei den Auslieferungen sowohl bei Kameras als auch bei Objektiven leicht nachgab. Das jahrelange Mantra „Vollformat oder nichts“ bekommt Risse. Hersteller wie Fujifilm, die konsequent auf APS-C setzen, dürften sich bestätigt fühlen. Es scheint, als ob viele Fotografen erkennen, dass ein leichteres System mit exzellenten Objektiven oft mehr wert ist als die letzten fünf Prozent Bildqualität, die man sich mit kiloschwerem Glas erkauft.

c’t Fotografie Zoom In abonnieren

Ihr Newsletter mit exklusiven Foto-Tipps, spannenden News, Profi-Einblicken und Inspirationen – jeden Samstag neu.

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.

Weiterlesen nach der Anzeige

Angesichts dieser positiven Marktdaten sollte man meinen, bei den Branchenführern herrscht eitel Sonnenschein. Ein Blick in Sonys Quartalsbericht für das dritte Quartal des Geschäftsjahres 2025 (das am 31. Dezember 2025 endete) zeigt jedoch ein differenzierteres Bild. Die Sparte „Entertainment, Technology & Services“, in der die Kameras beheimatet sind, musste einen Rückgang sowohl beim Umsatz als auch beim Gewinn hinnehmen.

Doch bevor Sony-Fans jetzt die Taschentücher zücken: Der Bericht merkt explizit an, dass die Nachfrage nach Systemkameras weltweit stark ist und sich die neue Vollformatkamera Alpha 7 V hervorragend verkauft. Das Problem liegt also woanders. Viel spannender ist jedoch ein Blick auf die Sparte „Imaging & Sensing Solutions“. Hier, wo Sony seine Bildsensoren herstellt und gefühlt an die ganze Welt – inklusive der Smartphone-Konkurrenz – verkauft, explodieren die Zahlen. Umsatz und Gewinn erreichten Rekordwerte.

Mein Kommentar dazu: Das ist das schmutzige kleine Geheimnis von Sony. Während wir über die Vorzüge der neuesten Alpha-Kamera debattieren, verdient der Konzern eine goldene Nase damit, die Sensoren für die Smartphones zu liefern, die angeblich die Kameras verdrängen. Eine genialere Geschäftsstrategie kann man sich kaum ausdenken. Sony spielt auf beiden Seiten des Feldes und gewinnt immer.

Weniger rosig sieht es im gelben Lager aus. Nikons Quartalszahlen sind, um es freundlich auszudrücken, ernüchternd. Sowohl Umsatz als auch Gewinn im Kamerageschäft sind im Jahresvergleich gesunken. Noch besorgniserregender ist, dass Nikon seine Gewinnprognose für das Gesamtjahr drastisch nach unten korrigiert hat. Auch die prognostizierten Verkaufszahlen für Kameras und Objektive wurden reduziert.

Als Gründe nennt das Unternehmen den harten Wettbewerb, hohe Werbeausgaben, Zölle und – ganz entscheidend – eine Verschiebung im Produktmix hin zu günstigeren Modellen. Autsch. Das bedeutet: Nikon verkauft zwar Kameras, aber nicht die, mit denen sich richtig Geld verdienen lässt. Während der Gesamtmarkt wächst, scheint Nikon Schwierigkeiten zu haben, davon nennenswert zu profitieren. Zwar wird die neue digitale Kinokamera, die ZR, als Verkaufsschlager erwähnt, doch das reicht offenbar nicht, um die schwächelnden Margen im Fotobereich auszugleichen. Es zeigt sich, dass es in diesem umkämpften Markt nicht nur darum geht, gute Kameras zu bauen, sondern sie auch mit Gewinn zu verkaufen.

Was lernen wir also aus dieser Woche? Der Kameramarkt ist lebendiger und dynamischer als je zuvor. Die alten Gewissheiten bröckeln, neue Trends entstehen, und selbst die größten Namen müssen sich mächtig strecken, um am Ball zu bleiben. Für uns Fotografen sind das eigentlich gute Nachrichten: Mehr Wettbewerb, mehr Auswahl und die Erkenntnis, dass eine gute Kamera nicht zwingend einen Vollformatsensor und einen hohen fünfstelligen Preis haben muss.


(tho)



Source link

Weiterlesen

Künstliche Intelligenz

Software ist ein Werkzeug, kein Selbstzweck: Plädoyer für mehr Fachlichkeit


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Wir entwickeln Software nicht, weil es so schön ist. Wir entwickeln sie, um fachliche Probleme zu lösen. Diese Unterscheidung klingt banal, aber sie geht in der täglichen Arbeit vieler Teams verloren. Ich beobachte seit Jahren, wie Diskussionen in Entwicklungsteams ablaufen: Es geht um Frameworks, um Architekturstile, um die neueste Technologie. Es geht darum, ob man besser auf Microservices oder auf einen Modulithen setzt, ob man dieses oder jenes Tool verwendet, ob die Code-Coverage hoch genug ist. Worüber erstaunlich selten gesprochen wird: das fachliche Problem, das die Software eigentlich lösen soll.

Weiterlesen nach der Anzeige


the next big thing – Golo Roden

the next big thing – Golo Roden

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.

Das ist kein Zufall und keine Nachlässigkeit. Es ist ein strukturelles Problem unserer Branche. Wir haben uns so sehr an technische Debatten gewöhnt, dass wir gar nicht mehr merken, wie weit wir uns von der eigentlichen Aufgabe entfernt haben. Dieser Artikel ist ein Versuch, das sichtbar zu machen – und ein Plädoyer dafür, den Blick wieder auf das Wesentliche zu richten.

Warum reden wir lieber über Technologie als über Fachlichkeit? Die Antwort ist unbequem, aber nachvollziehbar: Technologie ist greifbar. Sie lässt sich vergleichen, messen, bewerten. Man kann Benchmarks lesen, Dokumentationen studieren, Tutorials durcharbeiten. All das passiert in einer Welt, die Entwicklerinnen und Entwickler kennen und kontrollieren.

Fachliche Probleme sind anders. Sie sind oft vage formuliert, widersprüchlich, und sie erfordern Gespräche mit Menschen, die eine andere Sprache sprechen – nicht im linguistischen Sinne, sondern im Sinne von Denkweisen und Prioritäten. Eine Fachexpertin interessiert sich nicht dafür, ob das System auf Kubernetes läuft. Sie will wissen, ob es ihre Arbeit erleichtert. Das sind verschiedene Welten, und die Brücke zwischen ihnen zu bauen, ist anstrengend.

Hinzu kommt ein strukturelles Problem: Die Branche belohnt technische Expertise stärker als Domänenwissen. Wer sich mit der neuesten Technologie auskennt, gilt als kompetent. Wer die Fachdomäne einer Versicherung oder eines Logistikunternehmens versteht, wird selten auf Konferenzen eingeladen. Das prägt, worauf Entwicklerinnen und Entwickler ihre Energie richten. Und so entstehen Teams, die technisch auf der Höhe der Zeit sind, aber nicht wirklich verstehen, welches Problem sie lösen.

Weiterlesen nach der Anzeige

Nirgends zeigt sich der Technologie-Tunnelblick deutlicher als in der Debatte um Architekturstile. Nehmen Sie die Diskussion um Microservices versus Monolith. In den 2010er-Jahren galt es fast als Naturgesetz, dass Microservices die bessere Wahl sind. Wer einen Monolithen baute, musste sich rechtfertigen. Wer Microservices einsetzte, galt als modern.

Aber was ist eigentlich die fachliche Begründung für Microservices? Im Kern geht es darum, Teile eines Systems unabhängig voneinander entwickeln, deployen und skalieren zu können. Das ist sinnvoll, wenn unterschiedliche Teams an verschiedenen Teilen arbeiten, wenn diese Teile unterschiedliche Lebenszyklen haben, wenn sie unterschiedlich stark genutzt werden. Es ist weniger sinnvoll, wenn ein kleines Team ein überschaubares System baut, bei dem alles zusammenhängt.

Trotzdem entscheiden sich Teams für Microservices, ohne diese Fragen zu stellen. Die Entscheidung fällt nicht auf Basis der Domäne, sondern auf Basis dessen, was gerade als Best Practice gilt. Das Ergebnis sind verteilte Systeme mit all ihrer Komplexität (Netzwerkkommunikation, Eventual-Consistency, Debugging über Servicegrenzen hinweg, …), ohne dass diese Komplexität durch einen fachlichen Nutzen gerechtfertigt wäre.

Die Architektur sollte aus der Domäne folgen, nicht umgekehrt. Wenn das fachliche Problem eine klare Trennung von Verantwortlichkeiten nahelegt, können Microservices die richtige Antwort sein. Wenn das Problem überschaubar ist und die Teile eng zusammenhängen, ist ein gut strukturierter Monolith oft die bessere Wahl. Aber diese Abwägung findet zu selten statt. Stattdessen wird der Architekturstil zur Glaubensfrage, losgelöst von der Realität des Problems.

Ähnlich verhält es sich mit Design-Prinzipien. DRY, SOLID, Clean-Code: Diese Begriffe kennt jede Entwicklerin und jeder Entwickler. Sie werden in Büchern gelehrt, in Code-Reviews eingefordert, in Vorstellungsgesprächen abgefragt. Aber sie werden oft so behandelt, als wären sie universelle Gesetze, die immer und überall gelten.

Nehmen Sie DRY (Don’t Repeat Yourself). Das Prinzip besagt, dass jede Information im System nur einmal repräsentiert sein sollte. Das klingt einleuchtend. Duplikation führt zu Inkonsistenzen, erschwert Änderungen, erhöht die Fehleranfälligkeit. Soweit die Theorie.

In der Praxis führt die dogmatische Anwendung von DRY oft zu einem anderen Problem: falschen Abstraktionen. Zwei Stellen im Code sehen ähnlich aus, also werden sie zusammengefasst. Aber allzu oft sehen sie nur zufällig ähnlich aus, fachlich haben sie nichts miteinander zu tun. Doch nun sind sie gekoppelt, und wenn sich eine Stelle ändern muss, muss die Abstraktion angepasst werden, die auch die andere Stelle betrifft. Die vermeintliche Vereinfachung wird zur Komplexitätsfalle.

Die Frage, ob Duplikation akzeptabel ist, lässt sich nicht ohne fachlichen Kontext beantworten. Wenn zwei Codestellen dasselbe fachliche Konzept repräsentieren, sollten sie zusammengeführt werden. Wenn sie verschiedene Konzepte repräsentieren, die nur zufällig gleich implementiert sind, sollten sie getrennt bleiben. Aber diese Unterscheidung erfordert ein Verständnis der Domäne – und genau das fehlt oft.

Dasselbe gilt für SOLID, für Clean-Code-Regeln, für jedes Prinzip. Sie sind Heuristiken, keine Gesetze. Ihr Nutzen hängt vom Kontext ab. Eine Klasse mit mehr als 200 Zeilen ist nicht automatisch schlecht. Eine Methode mit drei Parametern ist nicht automatisch besser als eine mit fünf. Es kommt darauf an, was die Klasse oder Methode tut, welches fachliche Konzept sie repräsentiert, wie sie verwendet wird. Wer Prinzipien ohne Kontext anwendet, optimiert für technische Metriken statt für fachliche Klarheit.

Apropos Metriken: Auch bei der Qualitätsmessung zeigt sich der Technologie-Tunnelblick. Test-Coverage ist das prominenteste Beispiel. Eine hohe Coverage gilt als Zeichen guter Qualität. Teams setzen sich Ziele: 80 Prozent, 90 Prozent, manchmal 100 Prozent. Tools visualisieren die Abdeckung, Dashboards zeigen Trends, Code-Reviews fordern Tests für jede neue Zeile.

Aber was misst Test-Coverage eigentlich? Sie misst, wie viel Code von Tests ausgeführt wird. Sie misst nicht, ob die richtigen Dinge getestet werden. Sie misst nicht, ob die Tests sinnvolle Szenarien abdecken. Und sie misst schon gar nicht, ob die Software das fachliche Problem löst.

Es ist möglich, 100 Prozent Coverage zu erreichen und trotzdem eine Software zu haben, die am Bedarf vorbeigeht. Die Tests prüfen, dass der Code macht, was er macht, aber niemand hat jemals geprüft, ob das, was er macht, auch das Richtige ist. Die Anforderungen waren missverstanden, die Domäne war nicht durchdrungen, die Gespräche mit den Fachexpertinnen und Fachexperten haben nicht stattgefunden. Der Code ist technisch einwandfrei und fachlich wertlos.

Ähnlich verhält es sich mit statischen Analysen, Linting-Regeln, Komplexitätsmetriken. Sie alle messen technische Eigenschaften des Codes. Sie können helfen, bestimmte Probleme zu vermeiden. Aber sie können nicht messen, was wirklich zählt: ob die Software das richtige Problem auf die richtige Weise löst. Wer sich auf diese Metriken verlässt, verwechselt technische Sauberkeit mit fachlicher Qualität.

Wie lässt sich der Fokus verschieben? Es gibt Ansätze, die dabei helfen können: Domain-Driven Design (DDD), Event-Storming, Domain-Storytelling & Co. Sie alle haben gemeinsam, dass sie die Fachlichkeit in den Mittelpunkt stellen. Sie fordern, dass Entwicklerinnen und Entwickler mit Fachexpertinnen und Fachexperten sprechen, dass der Code die Sprache der Domäne spricht, dass Architekturentscheidungen aus dem fachlichen Kontext abgeleitet werden.

Aber hier lauert eine Falle: Auch diese Ansätze können zum Selbstzweck werden. Ich habe kürzlich darüber geschrieben, wie Domain-Driven Design dieses Schicksal ereilt hat. Die Kernbeobachtung: DDD wurde akademisiert. Was als einfache Idee begann („verstehe die Domäne und sprich die Sprache des Business“) ist zu einem Katalog von Patterns geworden, über den Entwicklerinnen und Entwickler diskutieren, statt mit Fachexpertinnen und Fachexperten zu reden.

Das ist bezeichnend. Selbst ein Ansatz, der explizit den Fachfokus propagiert, wurde von uns als Branche in etwas Technisches verwandelt. Wir diskutieren, ob etwas ein Aggregat oder eine Entity ist, statt zu fragen, wie die Fachleute das Konzept nennen. Wir zeichnen Bounded-Context-Diagramme, statt die Grenzen aus der Domäne abzuleiten. Wir lernen die Patterns auswendig, statt die Domäne zu verstehen. Der Sog der Technologie ist so stark, dass er selbst Ansätze vereinnahmt, die gegen ihn gerichtet sind.

Die Lösung liegt nicht in neuen Methoden oder besseren Tools. Sie liegt in einer Haltungsänderung. Wir müssen akzeptieren, dass die schwierige Arbeit, also die Gespräche mit Fachexpertinnen und Fachexperten, das Ringen um Verständnis, das Aushalten von Unsicherheit, nicht durch Technik ersetzt werden kann. Wir müssen den Mut aufbringen, weniger über Frameworks zu reden und mehr über Probleme. Wir müssen uns eingestehen, dass technische Eleganz kein Wert an sich ist, wenn sie nicht im Dienst der Fachlichkeit steht.

Softwareentwicklung ist angewandte Problemlösung. Wir werden nicht dafür bezahlt, schönen Code zu schreiben. Wir werden dafür bezahlt, Probleme zu lösen. Das klingt banal, aber es hat weitreichende Konsequenzen.

Es bedeutet, dass die beste Architektur nicht die eleganteste ist, sondern die, die das fachliche Problem am besten adressiert. Es bedeutet, dass Prinzipien und Patterns Werkzeuge sind, keine Ziele. Es bedeutet, dass technische Schulden manchmal akzeptabel sind, wenn sie die schnellere Lösung eines dringenden fachlichen Problems ermöglichen. Es bedeutet, dass wir unseren Erfolg nicht an Coverage-Zahlen oder Clean-Code-Metriken messen sollten, sondern daran, ob die Software ihren Zweck erfüllt.

Das erfordert ein Umdenken. Es erfordert, dass wir unsere Komfortzone verlassen und uns auf das einlassen, was unbequem ist: die Kommunikation mit Menschen, die anders denken als wir. Es erfordert Demut, also die Einsicht, dass wir als Entwicklerinnen und Entwickler nicht die Expertinnen und Experten für die Domäne sind, auch wenn wir gerne so tun. Es erfordert Pragmatismus, also die Bereitschaft, technisch suboptimale Lösungen zu akzeptieren, wenn sie fachlich besser passen.

Ich plädiere nicht dafür, technische Qualität zu ignorieren. Guter Code ist wichtig. Saubere Architektur ist wichtig. Tests sind wichtig. Aber all das ist Mittel zum Zweck, nicht Selbstzweck. Wenn wir das vergessen, bauen wir technisch ausgefeilte Systeme, die niemand benötigt. Wir optimieren für Metriken, die nichts aussagen. Wir führen Debatten, die nichts bringen.

Die Frage, die wir uns in jedem Projekt, bei jeder Entscheidung stellen sollten, ist einfach: Hilft das, das fachliche Problem besser zu lösen? Wenn ja, machen wir weiter. Wenn nein, sollten wir innehalten und uns fragen, ob wir gerade der Technologie dienen oder der Fachlichkeit. Die Antwort darauf bestimmt, ob wir Softwareentwicklung als Handwerk betreiben oder als Selbstzweck.


(rme)



Source link

Weiterlesen

Beliebt