Entwicklung & Code
KI macht Entwickler ersetzbar: Wer künftig gebraucht wird – und wer nicht
Dieses Thema richtet sich an zwei ganz unterschiedliche Zielgruppen: zum einen an Sie, wenn Sie Entwicklerin oder Entwickler sind, weil es darüber entscheidet, ob Sie mittel- bis langfristig Ihren Arbeitsplatz behalten. Zum anderen jedoch auch an Sie, wenn Sie Unternehmerin, Unternehmer oder eine Führungskraft sind, weil ich Ihnen in diesem Beitrag erklären werde, wie Sie Ihr Unternehmen und Ihre Teams künftig deutlich effizienter aufstellen können.
Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.
Der perfekte neue Entwickler // deutsch
Das klingt dramatisch? Das ist es auch. Denn was sich in den letzten Monaten bei künstlicher Intelligenz entwickelt hat, wird die Softwareentwicklung wesentlich radikaler verändern, als die meisten derzeit ahnen. Bevor Sie nun denken: „Das ist doch nur der nächste Hype“, überlegen Sie bitte, wie es damals mit dem Internet war. Oder mit mobilen Apps. Oder mit der Cloud. Alle, die das damals ignoriert haben, gibt es heute praktisch nicht mehr. Diese Unternehmen haben den Anschluss verpasst. Genau dasselbe geschieht jetzt mit KI – nur in deutlich stärkerer Form.
Softwareentwicklung verändert sich radikal
Warum formuliere ich das so drastisch? Ganz einfach: Wir sind gerade dabei, die Art und Weise, wie wir Software entwickeln, vollständig umzubauen. Die meisten haben das bislang jedoch noch gar nicht richtig bemerkt.
Ein Beispiel: GitHub hat vor Kurzem etwas vorgestellt, das für viele Entwicklerinnen und Entwickler – ebenso wie für viele Unternehmen – ein absoluter Gamechanger ist. Sie können dort nun ein Issue nicht mehr nur einer Person zuweisen, sondern auch direkt an die GitHub-eigene KI namens Copilot. Copilot nimmt sich dann dieses Issue, arbeitet komplett eigenständig im Hintergrund und meldet sich nach 10 bis 30 Minuten mit einem fertigen Pull Request zurück. Darin befindet sich der neue Code, inklusive angepasster und erweiterter Tests, ebenso wie die aktualisierte Dokumentation. Alles sogar gelintet, formatiert und lauffähig. Einfach so.
Überlegen Sie sich das einmal: Früher hätten Sie eine solche Aufgabe vielleicht einer Junior-Entwicklerin oder einem Junior-Entwickler gegeben. Diese Person hätte dann zwei Tage daran gearbeitet, anschließend hätte es einen Review gegeben, danach Anpassungen – das Ganze wäre in mehreren Iterationen abgelaufen. Heute erledigt Copilot das innerhalb von 20 Minuten. Copilot wird dabei weder müde noch krank, Copilot möchte keinen Urlaub und so weiter.
KI ist keine Zukunftsmusik, sondern Realität
Das ist keine Zukunftsmusik. Diese Technologie funktioniert bereits heute. Vor allem aber: Sie funktioniert erschreckend gut. Wir bei the native web haben Copilot in den vergangenen Wochen intensiv getestet und ausprobiert. Selbstverständlich liegt die KI manchmal daneben und produziert Code, der, gelinde gesagt, etwas merkwürdig ist. Mitunter versteht die KI auch noch nicht vollständig, was genau der Business Case ist. Doch das wird sich zukünftig kontinuierlich verbessern. In spätestens zwei Jahren wird diese KI-gestützte Arbeitsweise vermutlich der Standard sein. Dann stellt sich die Frage: Sind Sie darauf vorbereitet? Denn wie gesagt: Das ist kein Buzzword und kein Spielzeug. Das ist die neue Realität. Diese verändert gerade still und leise, wie Softwareentwicklung funktioniert – und zwar sehr viel radikaler, als die meisten ahnen.
Was bedeutet das nun konkret für Sie als Entwicklerin oder als Entwickler? Es ist ganz einfach: Wer lediglich Code schreibt, ohne wirklich zu verstehen, was sie oder er im Detail eigentlich macht, wer keine Weitsicht besitzt, keine Konsequenzen abschätzen kann und keine Architektur und keine Strategien entwickelt, wird durch die KI ersetzt. Und das geschieht nicht irgendwann, sondern demnächst. Der Grund liegt darin, dass es schneller, günstiger und präziser ist, die Aufgabe direkt der KI zu übergeben, statt sie erst Ihnen erklären zu müssen.
Was das für Entwickler bedeutet
Anders gesagt: Wenn Sie sich nicht weiterentwickeln, werden Sie über kurz oder lang schlichtweg nicht mehr gebraucht. Denn das ist das eigentliche Problem: Möchten Sie wirklich in einer Rolle arbeiten, in der eine KI Entscheidungen für Sie trifft, die Sie später nicht mehr nachvollziehen können? Oder in der Sie noch nicht einmal einschätzen können, ob das generierte Ergebnis robust und langfristig tragfähig ist? Deshalb noch einmal: Wenn Sie nicht lernen, KI sinnvoll einzusetzen, wird Sie KI irgendwann ersetzen.
Übrigens: Genau darüber haben wir vor zwei Wochen bereits gesprochen. Damals ging es um einen Entwickler, der Code abgeliefert hat, den er selbst nicht verstanden hat, weil er lediglich eins zu eins übernommen hat, was ihm die KI vorgeschlagen hatte.
Was das für Unternehmen bedeutet
Für Sie als Unternehmerin oder Unternehmer bedeutet das gleichzeitig: Sie können Ihre Projekte künftig theoretisch wesentlich schneller und günstiger realisieren. Sie können Ihr Unternehmen deutlich effizienter aufstellen – und sie müssen das sogar, denn die Konkurrenz schläft nicht. Dazu ist jedoch erforderlich, dass Sie Ihre Teams richtig aufstellen, dass Sie die richtigen Personen fördern, dass Sie die Strukturen schaffen, die es ermöglichen, KI sinnvoll einzusetzen.
Genau an diesem Punkt liegt das Problem: Viele Unternehmen laufen derzeit KI nämlich lediglich als Buzzword hinterher. Weil es gerade schick klingt und weil es jeder irgendwie in seinem Pitchdeck haben möchte. Was wir immer wieder feststellen: Kaum jemand hat bislang wirklich verstanden, worauf es in diesem Zusammenhang ankommt. Kaum ein Unternehmen erkennt, welche Prozesse sie anpassen müssten, wen sie in ihren Teams weiterentwickeln sollten und welche Skills in Zukunft wirklich entscheidend sein werden. Genau das wird für viele Unternehmen über kurz oder lang extrem teuer werden.
Die essenziellen Fähigkeiten für die Zukunft
Damit das alles für Sie möglichst eine gute Zukunft hat, benötigen Sie vor allem zwei Dinge.
Erstens: Entwicklerinnen und Entwickler müssen in der Tiefe verstehen, was sie tagtäglich machen. Unternehmen brauchen Menschen, die nicht nur Code schreiben, sondern die in der Lage sind, Architektur, Fachlichkeit und auch Konsequenzen zu durchdenken. Die dazu fähig sind, einen Vorschlag von Copilot zu überprüfen und nicht nur formal abzunicken, sondern tatsächlich zu entscheiden, ob das eine passende und adäquate Lösung ist – unter Berücksichtigung all der Aspekte, die langfristig in der Softwareentwicklung relevant sind.
Zweitens (und das ist vielleicht noch viel wichtiger) benötigen Sie die Fähigkeit, exakt mit natürlicher Sprache umzugehen: KI ist sprachgesteuert. Wer ungenau beschreibt, erhält ungenaue Ergebnisse. Wir sehen das immer wieder: Gute Prompts zu schreiben, ist eine Kunst. Viele Teams kommunizieren jedoch viel zu schwammig. Das fällt in Meetings oft nicht einmal auf, weil man dort – zumindest manchmal – merkt, dass man aneinander vorbeiredet oder gerade implizite Annahmen trifft. Wenn Sie allerdings nicht in der Lage sind, präzise zu formulieren, was Sie eigentlich haben möchten, und Sie das dann in entsprechend ungenauer Form einer KI vorgeben, dann erkennen Sie rasch: Das Ergebnis ist ebenso schwammig. Ganz gemäß dem alten Motto: Garbage in, Garbage out.
Das bedeutet: Gute Prompts erfordern präzises Denken, eine saubere Sprache und vor allem Klarheit im Kopf. Man könnte auch sagen: Prompts sind das neue Programmieren. Genau das, also gute Prompts zu formulieren, beherrschen die allermeisten jedoch nicht wirklich. Weil sie nie gelernt haben, möglichst exakt mit natürlicher Sprache umzugehen. Das betrifft den Fachbereich ebenso wie die Entwicklung. Doch das wird in Zukunft essenziell sein.
(rme)
Entwicklung & Code
KI-Überblick 1: Was hinter dem Begriff „Künstliche Intelligenz“ wirklich steckt
Kaum ein Begriff wird derzeit so häufig verwendet wie „Künstliche Intelligenz“. Ob in Nachrichten, Marketingbroschüren oder Strategiepapieren – „KI“ soll Unternehmen effizienter, Produkte smarter und ganze Branchen zukunftsfähig machen. Allerdings bleibt oft unklar, was damit konkret gemeint ist. Viele Personen verbinden den Begriff mit futuristischen Vorstellungen von Maschinen, die denken oder gar fühlen können. In der Realität beschreibt „Künstliche Intelligenz“ jedoch ein breites Spektrum an Verfahren und Technologien, die weit weniger mystisch sind.
Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.
Diese neunteilige Blogserie widmet sich unterschiedlichen Aspekten von KI. Im ersten Beitrag möchte ich den Begriff KI systematisch aufdröseln, seine Entwicklung nachzeichnen und eine erste Einordnung geben, die die Grundlage für die weiteren Folgen der Serie bildet.
KI, ML, DL – was bedeutet das eigentlich?
Wenn von „KI“ gesprochen wird, ist häufig eine ganze Familie von Verfahren gemeint. Die gebräuchlichsten Abkürzungen sind dabei:
- KI (Künstliche Intelligenz) ist ein Oberbegriff, der alle Ansätze umfasst, Maschinen so zu gestalten, dass sie Aufgaben übernehmen können, die gemeinhin als „intelligent“ gelten. Dazu zählen etwa Sprache verstehen, Probleme lösen, lernen und planen.
- ML (Machine Learning) ist ein Teilbereich der KI, der sich darauf fokussiert, dass Maschinen auf Basis von Daten Muster erkennen und daraus Vorhersagen oder Entscheidungen ableiten.
- DL (Deep Learning) ist wiederum ein Teilbereich des Machine Learning, der komplexe neuronale Netze verwendet, um besonders tiefgehende Muster in Daten zu erkennen.
Maschinelles Lernen und Deep Learning sind also Unterkategorien der Künstlichen Intelligenz. In vielen Diskussionen werden diese Begriffe jedoch unscharf verwendet, was Missverständnisse begünstigt.
Von Expertensystemen zu lernenden Maschinen
Historisch begann die Forschung an Künstlicher Intelligenz nicht mit maschinellem Lernen, sondern mit sogenannten symbolischen Ansätzen. In den 1950er- und 1960er-Jahren entstanden Programme, die Wissen in Form von Regeln und Fakten speicherten. Daraus entwickelten sich später Expertensysteme, die etwa in der medizinischen Diagnose oder technischen Fehleranalyse eingesetzt wurden. Diese Systeme arbeiteten mit klar formulierten Wenn-Dann-Regeln. Ihr Vorteil war, dass ihre Entscheidungen transparent und nachvollziehbar waren. Ihr Nachteil bestand darin, dass sie nicht selbstständig lernen konnten und bei unvollständigem oder unscharfem Wissen schnell an ihre Grenzen stießen.
In den 1980er- und 1990er-Jahren rückte deshalb das maschinelle Lernen stärker in den Vordergrund. Statt einer Maschine explizit zu sagen, wie sie zu entscheiden hat, begann man, ihr Daten zu geben, aus denen sie selbst Regeln ableiten konnte. Damit wurden Systeme möglich, die flexibler auf neue Situationen reagieren konnten.
Ein einfaches Beispiel ist die Spam-Erkennung in E-Mails. Während ein Expertensystem vielleicht nur nach festen Schlüsselwörtern sucht, lernt ein Spam-Filter auf Basis vieler Beispiele von Spam- und Nicht-Spam-Nachrichten, typische Muster zu erkennen. Das erlaubt es, auch neue Formen von Spam zu identifizieren, ohne dass jemand manuell Regeln dafür hinterlegen muss.
Warum „Künstliche Intelligenz“ oft in die Irre führt
Der Begriff „Künstliche Intelligenz“ weckt häufig leicht falsche Assoziationen. Menschen neigen dazu, Maschinen Eigenschaften zuzuschreiben, die diese gar nicht besitzen. Ein Chatbot, der in flüssigen Sätzen antwortet, wirkt schnell so, als „wüsste“ er etwas. Tatsächlich basiert er jedoch lediglich auf komplexen statistischen Modellen, die aus unzähligen Beispielen gelernt haben, welche Wortfolgen wahrscheinlich aufeinanderfolgen.
Auch Programme, die Brettspiele meistern oder Bilder erkennen, verfügen nicht über ein Verständnis im menschlichen Sinne. Sie optimieren ihre Entscheidungen auf der Basis von Mustern in den Daten, ohne dass sie deren Bedeutung begreifen. Daher sprechen manche Fachleute lieber von „statistischer Mustererkennung“ statt von Intelligenz. Das mag sperrig klingen, trifft jedoch den Kern wesentlich besser.
Warum der Hype trotzdem berechtigt ist
Trotz dieser Einschränkungen hat Künstliche Intelligenz in den vergangenen Jahren beeindruckende Fortschritte gemacht. Rechnerische Ressourcen, größere Datenmengen und neue Algorithmen haben dazu geführt, dass Maschinen heute Aufgaben bewältigen können, die vor wenigen Jahren noch als Domäne des Menschen galten. Sprachmodelle wie GPT-4 formulieren Texte, Bildgeneratoren erschaffen fotorealistische Szenen und Algorithmen analysieren in Sekunden medizinische Aufnahmen.
Diese Erfolge beruhen jedoch nicht auf Magie, sondern auf systematischen Verfahren. Wenn Sie verstehen, was hinter Begriffen wie „Machine Learning“ und „Deep Learning“ steckt, können Sie besser einschätzen, was KI-Systeme tatsächlich leisten können – und wo ihre Grenzen liegen. Genau das soll diese Serie leisten.
Wohin die Reise geht
In den folgenden Beiträgen werden wir die verschiedenen Teilgebiete schrittweise vertiefen. Wir werden uns ansehen, wie Maschinen lernen, was neuronale Netze auszeichnet und warum Deep Learning „deep“ ist. Zudem werden wir beleuchten, wie Transformer-Architekturen die Sprachverarbeitung revolutioniert haben und was Large Language Models von früheren Ansätzen unterscheidet.
Das Ziel ist, dass Sie am Ende dieser Serie nicht nur einzelne Schlagworte einordnen können, sondern ein Gesamtverständnis dafür entwickeln, wie die verschiedenen Konzepte zusammenhängen. Damit können Sie fundierter entscheiden, ob und wie Künstliche Intelligenz für Ihre Projekte oder Ihr Unternehmen sinnvoll sein könnte.
Ergänzend zu dieser Serie seien an dieser Stelle die Blogposts von Michael Stal über den Aufbau von Neuronalen Netzen empfohlen.
(rme)
Entwicklung & Code
JetBrains Rider 2025.2: KI-Coding-Agent Junie läuft schneller und nutzt MCP
Das Softwareunternehmen JetBrains hat seine .NET- und Spieleentwicklungs-IDE Rider mit Version 2025.2 ausgestattet, ebenso wie die Visual-Studio-Erweiterung ReSharper und die .NET-Tools. In Rider steht damit eine schnellere Version des KI-Coding-Agenten Junie als Beta bereit, während ReSharper nun unter anderem den Out-of-Process-Modus ermöglicht.
(Bild: coffeemill/123rf.com)
Verbesserte Klassen in .NET 10.0, Native AOT mit Entity Framework Core 10.0 und mehr: Darüber informiert die Online-Konferenz betterCode() .NET 10.0 am 18. November 2025. Nachgelagert gibt es sechs ganztägige Workshops zu Themen wie C# 14.0, KI-Einsatz und Web-APIs.
Coding mit KI für .NET-Developer
Im neuen Release soll der KI-Coding-Agent Junie um bis zu 30 Prozent schneller sein, mit Remote-Entwicklung umgehen können und dank Model Context Protocol (MCP) ein tiefergehendes Kontextbewusstsein besitzen. Darüber hinaus können Entwickler im Early-Access-Programm Junie mit GitHub verbinden, um Pull Requests zu verwalten, ohne die IDE öffnen zu müssen.
Junie ist laut JetBrains für komplexe Entwicklungsaufgaben geeignet. Der „Ask“-Modus erlaubt High-Level-Brainstorming, der „Code“-Modus ist für die Hands-on-Implementierung zuständig. Dabei kann Junie Code schreiben und refaktorieren, Dateien generieren und Tests ausführen. Die Entwicklerinnen und Entwickler sollen dabei jedoch die Kontrolle behalten.
Details zu diesen und weiteren Änderungen in Rider 2025.2 hält der JetBrains-Blog bereit.
ReSharper erlaubt Out-of-Process Mode
Eines der Highlights in ReSharper 2025.2 ist der Out-of-Process-(OOP)-Modus. Das bedeutet, ReSharper kann in einem von Visual Studio separaten Prozess laufen, was die Stabilität erhöhen und den Weg für zukünftige Performanceverbesserungen ebnen soll.
Entwicklerinnen und Entwickler wechseln zum OOP-Modus, indem sie in ReSharper Options | Environment | Products & Features aufrufen und dort die Option „Run ReSharper in separate process“ aktivieren. Ein Klick auf den Button Save and restart übernimmt die Änderung.
Zudem soll ReSharper merkliche Performanceverbesserungen bringen, unter anderem beim Rename
– und Inline-Refactoring sowie bei der Razor/Blazor-Verarbeitung. Auch Support für die neuesten Features der Sprachversion C# 14.0, die Microsoft voraussichtlich im November 2025 veröffentlichen wird, ist nun enthalten.
Weitere Informationen zu den Updates in ReSharper sowie in den .NET-Tools dotTrace, dotMemory und dotCover in Version 2025.2 bietet der JetBrains-Blog.
(mai)
Entwicklung & Code
Firebird: DoS-Schwachstellen in Datenbank, möglicherweise unbefugte Zugriffe
In der relationalen SQL-Datenbank Firebird haben die Entwickler zwei Sicherheitslücken geschlossen. Die ermöglichten Angreifern, Server mit manipulierten Anfragen lahmzulegen – oder unter Umständen sogar unbefugten Zugriff auf eigentlich verschlüsselte Daten.
Die schwerwiegendere Schwachstelle betrifft den Pool externer Verbindungen (ExtConnPool). Ist der aktiv, werden darin gespeicherte Verbindungen nicht erneut überprüft, ob die bei ihrer Erstellung verwendeten CryptCallback-APIs tatsächlich noch vorhanden und geeignet sind. Dadurch können Zugriffe auf verschlüsselte Datenbanken erfolgen, wenn externe SQL-Anweisungen ausgeführt werden, auf die später mit Attachments zugegriffen wird, denen ein Schlüssel zur Datenbank fehlt. Bei derartigen verketteten Execute-Statements kann zudem ein Segfault auftreten, auch auf unverschlüsselten Datenbanken, und damit die Serverprozesse lahmlegen (Denial of Service). Die Schwachstelle hat den CVE-Eintrag CVE-2025-24975 / EUVD-2025-25030 mit einem CVSS-Wert von 7.1 und der Risikoeinschätzung „hoch“ erhalten.
Davon ist FIrebirdSQL bis einschließlich 5.0.3 sowie 4.0.7 betroffen. Die Fehler korrigieren die Schnappschüsse 6.0.0.609, 5.0.2.1610 sowie 4.0.6.3183 und jeweils neuere.
Zweite Sicherheitslücke in Firebird
Vor den Versionen 5.0.3, 4.0.6 und 3.0.13 können beim Verarbeiten von XDR-Nachrichten NULL-Pointer-Derefenzierungen auftreten, also bereits freigegebene Ressourcen erneut freigegeben werden. Das mündet in einem Prozess-Absturz, also einem Denial-of-Service (CVE-2025-54989 / EUVD-2025-25032, CVSS 5.3, Risiko „mittel„).
IT-Verantwortliche sollten sicherstellen, die Firebird-Versionen auf die aktualisierten Stände zu bringen. Auf Github stehen die aktualisierten Quellcodes dafür bereit. Etwa die fehlerkorrigierte Fassung 5.0.3 ist seit Mitte Juli für diverse Betriebssysteme verfügbar. Die CVE-Einträge zu dem damit geschlossenen Sicherheitslücken wurden jedoch erst jetzt veröffentlicht.
(dmk)
-
Datenschutz & Sicherheitvor 2 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
Apps & Mobile Entwicklungvor 2 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Online Marketing & SEOvor 2 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Digital Business & Startupsvor 2 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
UX/UI & Webdesignvor 2 Monaten
Philip Bürli › PAGE online
-
Digital Business & Startupsvor 2 Monaten
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier
-
Social Mediavor 2 Monaten
Aktuelle Trends, Studien und Statistiken
-
Apps & Mobile Entwicklungvor 2 Monaten
Patentstreit: Western Digital muss 1 US-Dollar Schadenersatz zahlen