Connect with us

Entwicklung & Code

software-architektur.tv: Hyperscaler-Exit mit Lucas Dohmen


Die neue Episode von software-architektur.tv widmet sich einem zentralen Thema des Cloud-Computings: der Migration einer Anwendung von einem Hyperscaler zu einem anderen Cloud-Anbieter. Lucas Dohmen und Eberhard Wolff gehen in ihrem Gespräch der Frage nach, wie ein Hyperscaler-Exit gelingen kann.

Weiterlesen nach der Anzeige

Anhand eines konkreten Fallbeispiels aus der Praxis skizziert Lucas Dohmen die Vorgehensweise. Gemeinsam mit dem Team von fejo.dk, einem der meistgenutzten Portale für Ferienhäuser in Dänemark, hat er die Anwendung von Amazon Web Services (AWS) in die Hetzner Cloud umgezogen. Lucas Dohmen detailliert im Verlauf des Gesprächs im Detail, wie sie dabei vorgegangen sind. Er zeigt die Vorteile auf, benennt aber auch die Herausforderungen, die sie lösen mussten, und beschreibt, wie ein solcher Weg typischerweise aussieht.

Die Ausstrahlung findet am Freitag, 20. Februar 2026, live ab 13 Uhr statt. Die Folge steht im Anschluss als Aufzeichnung bereit. Während des Livestreams können Interessierte Fragen via Twitch-Chat, YouTube-Chat oder anonym über das Formular auf der Videocast-Seite einbringen.

software-architektur.tv ist ein Videocast von Eberhard Wolff, Blogger sowie Podcaster auf iX und bekannter Softwarearchitekt, der als Head of Architecture bei SWAGLab arbeitet. Zum Team gehören außerdem Lisa Maria Schäfer (Socreatory) und Ralf D. Müller (DB Systel). Seit Juni 2020 sind über 250 Folgen entstanden, die unterschiedliche Bereiche der Softwarearchitektur beleuchten – mal mit Gästen, mal Wolff, Schäfer oder Müller solo. Seit mittlerweile mehr als zwei Jahren bindet iX (heise Developer) die über YouTube gestreamten Episoden im Online-Channel ein, sodass Zuschauer dem Videocast aus den Heise Medien heraus folgen können.

Weitere Informationen zu den Folgen finden sich auf der Videocast-Seite.


(map)



Source link

Entwicklung & Code

VS Code: Python Environments Extension allgemein verfügbar


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Wie Microsoft verkündet hat, ist die Python Environments Extension für Visual Studio Code nach einer einjährigen Preview-Phase allgemein verfügbar. Sie soll den Workflow im Umgang mit Python-Umgebungen konsistenter gestalten und der Fragmentierung über Tools wie venv, conda, poetry und pipenv hinweg entgegenwirken.

Weiterlesen nach der Anzeige

Innerhalb der nächsten Wochen sollen alle Python-Environment-Workflows automatisch zur neuen Extension wechseln. Wer sie bereits jetzt verwenden möchte, kann die Einstellung python.useEnvironmentsExtension setzen. Die Erweiterung funktioniert im Zusammenspiel mit der Python-Extension und soll kein weiteres Setup benötigen.

Die Python Environments Extension erkennt beim Öffnen einer Python-Datei automatisch Umgebungen aller gängigen Technologien im Ökosystem: venv, conda, pyenv, poetry, pipenv und System-Python-Installationen. Dahinter steht das Python Environment Tool (PET), ein Rust-basierter Scanner zum Auffinden von Umgebungen. Dieses überprüft den PATH, bekannte Installationsorte und konfigurierbare Suchpfade.

In der Python-Extension kam PET bisher schon zum Einsatz, bietet nun jedoch zusätzlich ein dediziertes User-Interface zum Erstellen, Löschen, Wechseln und Verwalten von Umgebungen.


Ein Blick auf die neue Python Environments Extension

Ein Blick auf die neue Python Environments Extension

Ein Blick auf die neue Python Environments Extension

(Bild: Microsoft)

Sofern der Paketmanager uv installiert ist, nutzt die Python Environments Extension ihn automatisch, um venv-Umgebungen zu erstellen und Pakete zu installieren. Das soll insbesondere in großen Projekten deutlich schneller gelingen als mit Standard-Tools und ist per Default-Einstellung (python-envs.alwaysUseUv) aktiviert.

Weiterlesen nach der Anzeige

Um eine neue Umgebung zu erstellen, klicken Entwickler auf Quick Create (den +-Button in der Environment-Manager-Ansicht). Daraufhin erstellt die Extension eine neue Umgebung mit dem Standard-Manager, der neuesten Python-Version sowie Workspace Dependencies, die sie in den Dateien requirements.txt oder pyproject.toml auffindet. Eine benutzerdefinierte Erstellung ist mit Custom Create möglich, zugänglich via „Python: Create Environment“ in der Befehlspalette. Dann lassen sich die genannten Punkte manuell auswählen.

Zu den weiteren Features zählt, dass sich Umgebungen auf spezifische Ordner oder Dateien zuordnen lassen. Das soll gängige Probleme, unter anderem in Monorepos und im Umgang mit Multi-Version-Testing beheben. Wenn ein Projekt einer Umgebung zugewiesen ist, speichert die Extension den Environment-Manager-Typ, nicht aber hartkodierte Interpreter-Pfade. Dadurch ist die .vscode/settings.json-Datei über Geräte, Betriebssysteme und Teammitglieder hinweg portabel.

Darüber hinaus verwendet die Python-Extension nun die Python Environments API, um Multi-Project-Testing zu ermöglichen. Hinweise hierzu bietet die Anleitung auf GitHub.

Weitere Details hält der Blogeintrag zum Release der Python Environments Extension bereit. Sie ist im Visual Studio Marketplace zu finden, dort allerdings noch als Preview gekennzeichnet.


(mai)



Source link

Weiterlesen

Entwicklung & Code

Ist MySQL noch zu retten? Offener Brief an Oracle


Knapp 200 Entwickler, Anwender und Unternehmen aus dem MySQL-Ökosystem haben Oracle in einem offenen Brief aufgefordert, die künftige Governance der Open-Source-Datenbank zu überdenken. Das Schreiben wurde nach zwei MySQL Community Summits in San Francisco und Brüssel im Januar und Februar 2026 veröffentlicht. Federführend ist das auf MySQL-Services spezialisierte Unternehmen Percona, dessen Co-Founder Vadim Tkachenko für die Initiatoren spricht.

Weiterlesen nach der Anzeige

Im Kern kritisiert die Community mangelnde Transparenz, Ressourcenprobleme und fehlende Mitsprache bei der Weiterentwicklung von MySQL. „Die Entwicklung findet hinter verschlossenen Türen statt“, heißt es in einem begleitenden Blogbeitrag von Percona. Private Code-Drops ohne öffentliche Diskussion, intransparente Behandlung von Sicherheitslücken und ein im Herbst 2025 erfolgter Personalabbau von rund 50 Prozent hätten das Vertrauen erschüttert. Seit Monaten gibt es kaum noch Commits im öffentlichen mysql/mysql-server-Repository auf GitHub.

Besonders problematisch sei die fehlende Transparenz bei Sicherheitsbugfixes. Anwender könnten nicht verifizieren, ob bekannte Schwachstellen ihre Installationen betreffen. Zudem sei unklar, wie Oracle künftig Ressourcen für MySQL bereitstellen wolle, nachdem wichtige Entwickler das Unternehmen verlassen haben. Oracle hatte die Entwicklungsressourcen zunehmend in die proprietäre Cloud-Datenbank HeatWave verlagert. Auch Frederic Descamps, langjähriger MySQL Community Manager bei Oracle, kündigte seinen Wechsel zur MariaDB Foundation an.

Die Unterzeichner schlagen Oracle drei unterschiedliche Governance-Modelle vor. Beim ersten, zentralisierten Modell würde Oracle nach dem Vorbild der OpenELA-Initiative eine Foundation anführen, die operative Last aber auf Partner verteilen. Beim zweiten Modell würde Oracle als strategischer Partner in ein von der Industrie geführtes Konsortium eintreten. Das dritte, vollständig autonome Modell sähe eine unabhängige Organisation vor, die MySQL-Advocacy betreibt und überprüft, ob Oracle die Versprechen einhält.

Bis Ende März 2026 soll eine Entscheidung über das Governance-Modell fallen, im zweiten Quartal die rechtliche Struktur geschaffen und im dritten Quartal eine Foundation gelauncht werden. Peter Zaitsev, Mitgründer von Percona, betont die Notwendigkeit unabhängiger Kontrolle: „Wir brauchen jemanden, der mit einer Stimme sprechen und sagen kann: Oracle, das hast du nicht geliefert, und das ist nicht in Ordnung.“

Weiterlesen nach der Anzeige

Oracle reagierte bereits am 11. Februar 2026 mit einem Blogpost zur „Neuen Ära des Engagements mit der MySQL-Community“ auf die sich zuspitzende Kritik aus der MySQL-Community. Der Konzern kündigte unter der Führung von SVP Jason Wilcox eine Drei-Säulen-Strategie an: Innovation in der Community Edition, Erweiterung der Developer-Community und mehr Transparenz.

Konkret verspricht Oracle für MySQL 9.7 LTS (erwartet im April 2026) Vektorfunktionen für KI-Workloads, einen standardmäßig aktivierten Hypergraph Optimizer, vollständige JSON-Duality-Unterstützung mit DML sowie modernisierte Foreign-Key-Constraints. Zur Transparenz sollen öffentliche Diskussionen der Vorschläge, besseres Feedback zu abgelehnten Patches und die Veröffentlichung von Security-Bugs nach erfolgten Fixes gehören. Auch eine Roadmap zur geplanten Weiterentwicklung der Datenbank will Oracle veröffentlichen. Die Ankündigungen gehen damit auf zentrale Kritikpunkte des offenen Briefs ein.

Trotz der Oracle-Ankündigungen bleibt die Community skeptisch. „Wir brauchen Verifizierung durch Taten, nicht durch Worte“, heißt es im Percona-Blogpost. Vadim Tkachenko kritisiert: „Das Oracle-MySQL-Team ist derzeit im Chaos.“ Zentrale Fragen zu den nötigen Ressourcen seien unbeantwortet geblieben, eine Ernennung eines Vice President für die MySQL-Entwicklung stehe weiterhin aus.

Der offene Brief ist auch Ausdruck eines größeren Problems: MySQL verliert seit Jahren an Popularität gegenüber PostgreSQL, das zur Standardwahl für neue Projekte geworden ist. PostgreSQL verfügt über eine unabhängige, dezentrale Governance durch die PostgreSQL Global Development Group – genau das, was sich die MySQL-Community von Oracle erhofft. Die Unterzeichner argumentieren, dass eine unabhängige Foundation mit transparenten Entscheidungsprozessen MySQL wieder wettbewerbsfähiger machen und die Weiterentwicklung verbessern könnte.

Die historische Entwicklung von MySQL von der Gründung durch Michael Widenius und David Axmark 1995 über den Kauf durch Sun Microsystems 2008 bis zur Oracle-Übernahme 2009 zeigt: Governance-Fragen begleiten die Datenbank seit jeher. Bereits nach der Oracle-Übernahme entstand mit MariaDB ein Fork unter Führung des MySQL-Gründers Widenius. Ob Oracle diesmal zu substanziellen Zugeständnissen bereit ist oder ob eine neue Fragmentierung des MySQL-Ökosystems droht, wird sich in den kommenden Wochen zeigen.


(fo)



Source link

Weiterlesen

Entwicklung & Code

Warum T-förmiges Wissen in Zeiten von KI wichtiger wird denn je


Die Softwarebranche erlebt gerade einen Umbruch, der viele Entwicklerinnen und Entwickler verunsichert. Tools wie Claude Code, Codex, Copilot und andere KI-gestützte Assistenten übernehmen Aufgaben, die noch vor wenigen Jahren als Kernkompetenz galten. Code schreiben, Fehler finden, Dokumentation erstellen: All das erledigen diese Werkzeuge inzwischen in beeindruckender Qualität. Die Frage, welche Fähigkeiten in einer solchen Welt noch gefragt sind, beschäftigt Einsteigerinnen und Einsteiger ebenso wie erfahrene Fachkräfte.

Weiterlesen nach der Anzeige


the next big thing – Golo Roden

the next big thing – Golo Roden

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.

Doch diese aktuellen Diskussionen sind nur der jüngste Gipfel einer Entwicklung, die ich schon seit über zwanzig Jahren in der Branche beobachte, und meine Antwort auf diese Frage ist eindeutig (und seit jeher die gleiche): Der Schlüssel zu einer erfolgreichen Karriere in der Softwareentwicklung schlechthin war schon immer und ist weiterhin das sogenannte T-förmige Wissen. Doch was früher ein Vorteil war, wird heute zur Notwendigkeit. Wer in Zeiten von KI bestehen will, muss verstehen, was hinter den Werkzeugen steckt, die sie oder er täglich einsetzt. Oberflächliches Wissen, das gestern noch ausgereicht hat, um Aufgaben zu erledigen, genügt morgen nicht mehr.

Das Konzept des T-förmigen Wissens stammt ursprünglich aus dem Management und beschreibt ein Kompetenzprofil, das zwei Dimensionen vereint. Der vertikale Balken des T steht für tiefe Expertise in einem spezifischen Fachgebiet. Hier geht es um echte Meisterschaft, um ein Verständnis, das über die Oberfläche hinausreicht und auch die Randfälle, die Geschichte und die Designentscheidungen eines Themenfeldes umfasst. Der horizontale Balken repräsentiert ein breites Grundlagenwissen, das über die eigene Spezialisierung hinausreicht und es ermöglicht, Verbindungen herzustellen und in verschiedenen Kontexten handlungsfähig zu sein.

In der Softwareentwicklung bedeutet das konkret: Eine Entwicklerin oder ein Entwickler mit T-förmigem Profil beherrscht ein Themenfeld wirklich fundiert, sei es eine bestimmte Technologie, eine Architekturform oder einen methodischen Ansatz. Diese Person kann nicht nur Standardaufgaben lösen, sondern auch ungewöhnliche Probleme analysieren, Entscheidungen begründen und andere anleiten. Gleichzeitig verfügt sie über solides Wissen in angrenzenden Bereichen: Algorithmen, Datenstrukturen, Betriebssysteme, Netzwerke, Security und vieles mehr.

Das unterscheidet T-förmige Fachkräfte sowohl von reinen Spezialisten als auch von Generalisten. Spezialistinnen und Spezialisten kennen ihr Fachgebiet zwar in- und auswendig, können aber außerhalb davon kaum Zusammenhänge herstellen. Sie sind gefangen in ihrer Nische und hilflos, sobald ein Problem die Grenzen ihres Expertenwissens überschreitet. Generalisten wissen von allem ein wenig, erreichen aber nirgendwo eine Tiefe, die echten Mehrwert schafft. Sie können mitreden, aber keine schwierigen Probleme lösen. Das T-Profil kombiniert das Beste aus beiden Welten: tiefes Verständnis dort, wo es zählt, und genug Breite, um größere Zusammenhänge zu erkennen und interdisziplinär zu arbeiten.

Weiterlesen nach der Anzeige

In Stellenanzeigen und Diskussionen über Karrierechancen geht es oft um konkrete Technologien. Java oder C#? Python oder Go? React oder Angular? Diese Fragen führen regelmäßig zu leidenschaftlichen Debatten, doch sie lenken vom Wesentlichen ab. Sie suggerieren, dass die Wahl der richtigen Technologie über Erfolg und Misserfolg entscheidet. Das ist ein Irrtum.

Meine Erfahrung zeigt: Es ist nahezu irrelevant, welche Programmiersprache jemand als Erste wirklich beherrscht. Was zählt, ist die Tiefe des Verständnisses. Wer eine Sprache wirklich durchdrungen hat, wer ihre Paradigmen, ihre Stärken und Schwächen, ihre typischen Anwendungsmuster verstanden hat, kann andere Sprachen vergleichsweise schnell erlernen. Die Syntax mag sich unterscheiden, die zugrundeliegenden Konzepte bleiben oft ähnlich.

Objektorientierung funktioniert in Java, C#, Python und vielen anderen Sprachen nach denselben Grundprinzipien. Kapselung, Vererbung, Polymorphie: Diese Konzepte tragen verschiedene Namen und haben unterschiedliche syntaktische Ausprägungen, aber ihr Kern bleibt derselbe. Funktionale Konzepte wie Immutability, reine Funktionen oder Higher-Order-Functions finden sich in Haskell ebenso wie in JavaScript oder Kotlin. Wer diese Konzepte einmal verstanden hat, erkennt sie überall wieder. Der Wechsel von einer Sprache zur anderen wird dann zur Übersetzungsaufgabe, nicht zum Neulernen.

Die Programmiersprache ist ein Werkzeug, nicht das Ziel. Ein Handwerker, der sein Handwerk versteht, kann mit verschiedenen Werkzeugen arbeiten. Er muss nicht für jede Schraube einen neuen Beruf erlernen. Genauso verhält es sich in der Softwareentwicklung: Die Konzepte sind übertragbar, die konkrete Sprache ist austauschbar. Wer das begriffen hat, verliert die Angst vor neuen Technologien und gewinnt die Freiheit, das jeweils passende Werkzeug zu wählen.

Neben der tiefen Beherrschung einer Programmiersprache gibt es einen Kanon an Grundlagenwissen, der für jede Softwareentwicklerin und jeden Softwareentwickler unverzichtbar ist. Dieser Kanon bildet den horizontalen Balken des T. Dabei geht es nicht darum, in jedem dieser Bereiche zum Experten zu werden. Das wäre weder realistisch noch notwendig. Es geht darum, die verschiedenen Abstraktionsebenen zu verstehen und konzeptionell einordnen zu können. Wer die Schichten kennt, auf denen die eigene Arbeit aufbaut, trifft bessere Entscheidungen und erkennt Probleme früher.

Algorithmen und Datenstrukturen bilden das Fundament. Wer nicht versteht, warum eine Hash-Map schneller ist als eine lineare Suche, oder wann ein Baum einer Liste vorzuziehen ist, wird dauerhaft suboptimale Entscheidungen treffen. Das gilt unabhängig davon, ob man diese Strukturen selbst implementiert oder fertige Bibliotheken verwendet. Denn auch die Auswahl der richtigen Bibliothek erfordert dieses Verständnis. Eine falsche Datenstruktur kann den Unterschied zwischen einer responsiven Anwendung und einem trägen System ausmachen.

Eng damit verbunden ist die Laufzeitkomplexität. Die O-Notation mag auf den ersten Blick akademisch wirken, doch sie entscheidet im Alltag darüber, ob eine Anwendung performant läuft oder bei größeren Datenmengen in die Knie geht. Wer einmal erlebt hat, wie eine harmlos aussehende, verschachtelte Schleife einen Server lahmlegt, vergisst diese Lektion nicht mehr. Der Unterschied zwischen O(n) und O(n^2) ist bei kleinen Datenmengen vernachlässigbar, bei großen Datenmengen jedoch fatal.

Auf einer tieferen Ebene liegt das Verständnis von Speicherverwaltung. Stack und Heap, Referenzen und Werte, Garbage Collection und manuelles Memory-Management: Diese Konzepte bestimmen, wie Programme mit Ressourcen umgehen. Auch wer in einer Hochsprache mit automatischer Speicherverwaltung arbeitet, profitiert davon, die darunterliegende Mechanik zu verstehen. Memory-Leaks, Performanceprobleme und schwer zu findende Bugs haben ihre Ursache oft in mangelndem Verständnis dieser Grundlagen. Wer weiß, was unter der Haube passiert, debuggt effizienter und schreibt robusteren Code.

Security ist ein weiteres Feld, das niemand ausklammern sollte. Die häufigsten Sicherheitslücken basieren auf Fehlern, die mit grundlegendem Wissen vermeidbar wären: SQL-Injection, Cross-Site-Scripting, fehlerhafte Authentifizierung. Diese Angriffsvektoren sind seit Jahrzehnten bekannt, und dennoch tauchen sie immer wieder auf. Sicherheit ist keine Aufgabe für Spezialistinnen und Spezialisten allein, sondern muss von allen mitgedacht werden, die Code schreiben. Ein Grundverständnis von Bedrohungsmodellen und Abwehrstrategien gehört zum Handwerkszeug.

Schließlich gehört auch Architekturwissen zum unverzichtbaren Repertoire. Wie strukturiert man eine Anwendung so, dass sie wartbar, erweiterbar und testbar bleibt? Welche Muster und Prinzipien haben sich bewährt? Wann ist ein Monolith die richtige Wahl, wann eine verteilte Architektur? Diese Fragen lassen sich nur beantworten, wenn man verschiedene Ansätze kennt und ihre Vor- und Nachteile einschätzen kann. Architekturentscheidungen haben langfristige Konsequenzen und sind oft schwer zu revidieren. Wer sie fundiert trifft, spart später viel Aufwand.

Technisches Wissen allein macht allerdings noch keine erfolgreiche Karriere. Mindestens zwei weitere Faktoren wirken als Multiplikatoren und unterscheiden durchschnittliche von herausragenden Entwicklerinnen und Entwicklern. Ohne diese Faktoren bleibt technische Kompetenz abstrakt und entfaltet nicht ihr volles Potenzial.

Der erste Faktor ist Domänenwissen. Software existiert nicht im luftleeren Raum. Sie löst Probleme in konkreten Anwendungsfeldern: Finanzwesen, Gesundheitswesen, Logistik, E-Commerce oder unzähligen anderen Bereichen. Wer die Fachlichkeit der eigenen Domäne versteht, wer mit Anwenderinnen und Anwendern auf Augenhöhe sprechen kann, wer die Geschäftsprozesse kennt und ihre Tücken durchschaut, bringt einen Mehrwert ein, den rein technische Expertise nicht bieten kann.

Domänenwissen ermöglicht es, die richtigen Fragen zu stellen. Es schützt davor, technisch brillante Lösungen für die falschen Probleme zu bauen. Es hilft dabei, Anforderungen kritisch zu hinterfragen und Alternativen vorzuschlagen, die den eigentlichen Bedarf besser treffen. Wer versteht, warum ein Geschäftsprozess so funktioniert, wie er funktioniert, kann ihn intelligenter digitalisieren. Diese Fähigkeit wird umso wertvoller, je mehr die reine Code-Produktion automatisiert wird.

Der zweite Faktor ist Kommunikation. Softwareentwicklung ist Teamarbeit. Ideen müssen vermittelt, Entscheidungen begründet, Konflikte gelöst werden. Wer komplexe technische Sachverhalte verständlich erklären kann, wer zuhört und nachfragt, wer Feedback geben und annehmen kann, wird zum wertvollen Bindeglied zwischen Technik und Fachlichkeit. In einer Welt, in der KI immer mehr Routineaufgaben übernimmt, werden genau diese menschlichen Fähigkeiten wichtiger, nicht unwichtiger.

Kommunikationsfähigkeit ist keine Soft-Skill-Nebensache. Sie entscheidet darüber, ob gute Ideen umgesetzt werden oder in Meetings versanden. Sie bestimmt, ob ein Team effektiv zusammenarbeitet oder aneinander vorbei entwickelt. Die beste technische Lösung nützt wenig, wenn sie niemand versteht oder akzeptiert.

KI-gestützte Entwicklungswerkzeuge sind beeindruckend. Sie generieren funktionierenden Code aus natürlichsprachlichen Beschreibungen. Sie schlagen Vervollständigungen vor, die oft genau das treffen, was man ohnehin schreiben wollte. Sie finden Fehler, erklären komplexe Codepassagen und erstellen Dokumentation. Für Routineaufgaben sind sie bereits heute unverzichtbare Helfer.

Doch diese Fähigkeiten haben Grenzen, die sich bei genauerem Hinsehen offenbaren. KI-Tools sind gut darin, Muster zu erkennen und zu reproduzieren. Sie versagen dort, wo es um echtes Verständnis geht. Sie generieren Code, der syntaktisch korrekt ist, aber subtile logische Fehler enthält. Sie schlagen Lösungen vor, die funktionieren, aber nicht skalieren. Sie produzieren en passant Sicherheitslücken, weil sie den Kontext nicht verstehen. Ohne menschliche Überprüfung entsteht technische Schuld im Zeitraffer.

Hier zeigt sich der Wert von t-förmigem Wissen: Wer die Grundlagen versteht, kann KI-generierten Code bewerten. Wer Algorithmen kennt, erkennt ineffiziente Lösungen. Wer Security-Prinzipien verinnerlicht hat, sieht Sicherheitslücken, bevor sie zu Problemen werden. Wer Architekturerfahrung mitbringt, kann einschätzen, ob ein Vorschlag ins Gesamtbild passt oder nicht.

KI verschiebt die Anforderungen, aber sie eliminiert sie nicht. Routineaufgaben werden automatisiert, doch die Fähigkeit, diese Automatisierung sinnvoll einzusetzen, erfordert mehr Verständnis, nicht weniger. Der Programmierer der Zukunft wird weniger Zeit mit dem Schreiben von Boilerplate-Code verbringen, aber mehr Zeit mit dem Verstehen, Bewerten und Integrieren von Lösungen. Das erfordert fundiertes Wissen, das über Copy-Paste-Kompetenz hinausgeht.

Meine These ist klar: Wer nur einen einzelnen Aspekt aus der beschriebenen Kombination abdeckt, wird es in Zukunft schwer haben. Die Zeit der Spezialisten ohne Breite und der Generalisten ohne Tiefe neigt sich dem Ende zu.

Wer nur eine Programmiersprache kennt, aber weder Tiefe noch Breite mitbringt, ist austauschbar. Die Syntax einer Sprache beherrscht jedes KI-Tool aus dem Stegreif. Das Verständnis der dahinterliegenden Konzepte nicht. Wer Java schreiben kann, aber nicht erklären kann, warum ein bestimmtes Pattern in einem bestimmten Kontext sinnvoll ist, verliert gegenüber einer KI, die dasselbe schneller produziert.

Wer nur Grundlagenwissen hat, ohne es praktisch anwenden zu können, bleibt theoretisch. Wissen, das nie zur Anwendung kommt, verliert seinen Wert. Die Fähigkeit, Theorie in funktionierende Lösungen zu übersetzen, macht den Unterschied zwischen akademischem Interesse und beruflicher Kompetenz.

Wer nur Domänenwissen mitbringt, ohne technisches Verständnis, kann zwar Anforderungen formulieren, aber nicht einschätzen, was realistisch umsetzbar ist. Die Brücke zwischen Fachlichkeit und Technik kann nur schlagen, wer beide Seiten versteht. Andernfalls entstehen Spezifikationen, die an der Realität vorbeigehen.

Wer nur kommunizieren kann, aber weder technisch noch fachlich fundiert ist, wird schnell als oberflächlich wahrgenommen. Kommunikation ohne Substanz erzeugt keinen Mehrwert. Sie führt zu Meetings ohne Ergebnisse und Präsentationen ohne Tiefgang.

Die Zukunft gehört denen, die diese Fähigkeiten kombinieren. Das bedeutet nicht, dass jede Einzelperson in allem exzellent sein muss. Es bedeutet, dass ein solides Fundament in allen Bereichen notwendig ist, ergänzt durch tiefe Expertise in mindestens einem davon. Diese Kombination macht den Unterschied zwischen ersetz- und unverzichtbar.

T-förmiges Wissen ist kein Zustand, den man einmal erreicht und dann für immer hält. Technologien verändern sich. Domänen entwickeln sich weiter. Was heute tiefe Expertise darstellt, kann in zehn Jahren Basiswissen sein. Was heute als Grundlage gilt, wird möglicherweise durch neue Paradigmen abgelöst. Die einzige Konstante in unserer Branche ist der Wandel.

Der eigentliche Karrierehebel ist deshalb nicht das Wissen selbst, sondern die Fähigkeit, kontinuierlich zu lernen. Wer gelernt hat zu lernen, wer weiß, wie man sich neue Themenfelder erschließt, wer die Disziplin aufbringt, regelmäßig in die eigene Weiterbildung zu investieren, kann sich immer wieder neu aufstellen. Diese Fähigkeit ist wichtiger als jedes konkrete Wissen, denn sie ermöglicht es, konkretes Wissen immer wieder zu erneuern.

Diese Lernfähigkeit ist selbst eine Fähigkeit, die man entwickeln kann. Sie umfasst das Wissen darum, wie man effektiv lernt, welche Ressourcen zuverlässig sind, wie man Wichtiges von Unwichtigem unterscheidet. Sie erfordert die Bereitschaft, sich immer wieder auf Anfängerniveau zu begeben, Fehler zu machen und daraus zu lernen. Das ist unbequem, aber unvermeidlich.

KI-Tools können bei diesem Lernprozess unterstützen. Sie können Konzepte erklären, Beispiele generieren, Fragen beantworten. Doch die Entscheidung, was man lernt und warum, bleibt beim Menschen. Die Integration neuen Wissens in das eigene Verständnisgebäude ist eine kognitive Leistung, die keine KI abnehmen kann. Lernen bleibt Arbeit, auch wenn die Werkzeuge besser werden.

Wer heute in T-förmiges Wissen investiert, tut also mehr, als nur aktuelle Kompetenzlücken zu schließen. Sie oder er entwickelt die Grundlage für lebenslanges Lernen in einer Branche, deren einzige Konstante der Wandel ist. Und genau das macht den Unterschied zwischen einer Karriere, die von technologischen Umbrüchen bedroht wird, und einer, die von ihnen profitiert.


(rme)



Source link

Weiterlesen

Beliebt