Entwicklung & Code
JetBrains Rider 2025.2: KI-Coding-Agent Junie läuft schneller und nutzt MCP
Das Softwareunternehmen JetBrains hat seine .NET- und Spieleentwicklungs-IDE Rider mit Version 2025.2 ausgestattet, ebenso wie die Visual-Studio-Erweiterung ReSharper und die .NET-Tools. In Rider steht damit eine schnellere Version des KI-Coding-Agenten Junie als Beta bereit, während ReSharper nun unter anderem den Out-of-Process-Modus ermöglicht.
(Bild: coffeemill/123rf.com)
Verbesserte Klassen in .NET 10.0, Native AOT mit Entity Framework Core 10.0 und mehr: Darüber informiert die Online-Konferenz betterCode() .NET 10.0 am 18. November 2025. Nachgelagert gibt es sechs ganztägige Workshops zu Themen wie C# 14.0, KI-Einsatz und Web-APIs.
Coding mit KI für .NET-Developer
Im neuen Release soll der KI-Coding-Agent Junie um bis zu 30 Prozent schneller sein, mit Remote-Entwicklung umgehen können und dank Model Context Protocol (MCP) ein tiefergehendes Kontextbewusstsein besitzen. Darüber hinaus können Entwickler im Early-Access-Programm Junie mit GitHub verbinden, um Pull Requests zu verwalten, ohne die IDE öffnen zu müssen.
Junie ist laut JetBrains für komplexe Entwicklungsaufgaben geeignet. Der „Ask“-Modus erlaubt High-Level-Brainstorming, der „Code“-Modus ist für die Hands-on-Implementierung zuständig. Dabei kann Junie Code schreiben und refaktorieren, Dateien generieren und Tests ausführen. Die Entwicklerinnen und Entwickler sollen dabei jedoch die Kontrolle behalten.
Details zu diesen und weiteren Änderungen in Rider 2025.2 hält der JetBrains-Blog bereit.
ReSharper erlaubt Out-of-Process Mode
Eines der Highlights in ReSharper 2025.2 ist der Out-of-Process-(OOP)-Modus. Das bedeutet, ReSharper kann in einem von Visual Studio separaten Prozess laufen, was die Stabilität erhöhen und den Weg für zukünftige Performanceverbesserungen ebnen soll.
Entwicklerinnen und Entwickler wechseln zum OOP-Modus, indem sie in ReSharper Options | Environment | Products & Features aufrufen und dort die Option „Run ReSharper in separate process“ aktivieren. Ein Klick auf den Button Save and restart übernimmt die Änderung.
Zudem soll ReSharper merkliche Performanceverbesserungen bringen, unter anderem beim Rename
– und Inline-Refactoring sowie bei der Razor/Blazor-Verarbeitung. Auch Support für die neuesten Features der Sprachversion C# 14.0, die Microsoft voraussichtlich im November 2025 veröffentlichen wird, ist nun enthalten.
Weitere Informationen zu den Updates in ReSharper sowie in den .NET-Tools dotTrace, dotMemory und dotCover in Version 2025.2 bietet der JetBrains-Blog.
(mai)
Entwicklung & Code
KI-Überblick 1: Was hinter dem Begriff „Künstliche Intelligenz“ wirklich steckt
Kaum ein Begriff wird derzeit so häufig verwendet wie „Künstliche Intelligenz“. Ob in Nachrichten, Marketingbroschüren oder Strategiepapieren – „KI“ soll Unternehmen effizienter, Produkte smarter und ganze Branchen zukunftsfähig machen. Allerdings bleibt oft unklar, was damit konkret gemeint ist. Viele Personen verbinden den Begriff mit futuristischen Vorstellungen von Maschinen, die denken oder gar fühlen können. In der Realität beschreibt „Künstliche Intelligenz“ jedoch ein breites Spektrum an Verfahren und Technologien, die weit weniger mystisch sind.
Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.
Diese neunteilige Blogserie widmet sich unterschiedlichen Aspekten von KI. Im ersten Beitrag möchte ich den Begriff KI systematisch aufdröseln, seine Entwicklung nachzeichnen und eine erste Einordnung geben, die die Grundlage für die weiteren Folgen der Serie bildet.
KI, ML, DL – was bedeutet das eigentlich?
Wenn von „KI“ gesprochen wird, ist häufig eine ganze Familie von Verfahren gemeint. Die gebräuchlichsten Abkürzungen sind dabei:
- KI (Künstliche Intelligenz) ist ein Oberbegriff, der alle Ansätze umfasst, Maschinen so zu gestalten, dass sie Aufgaben übernehmen können, die gemeinhin als „intelligent“ gelten. Dazu zählen etwa Sprache verstehen, Probleme lösen, lernen und planen.
- ML (Machine Learning) ist ein Teilbereich der KI, der sich darauf fokussiert, dass Maschinen auf Basis von Daten Muster erkennen und daraus Vorhersagen oder Entscheidungen ableiten.
- DL (Deep Learning) ist wiederum ein Teilbereich des Machine Learning, der komplexe neuronale Netze verwendet, um besonders tiefgehende Muster in Daten zu erkennen.
Maschinelles Lernen und Deep Learning sind also Unterkategorien der Künstlichen Intelligenz. In vielen Diskussionen werden diese Begriffe jedoch unscharf verwendet, was Missverständnisse begünstigt.
Von Expertensystemen zu lernenden Maschinen
Historisch begann die Forschung an Künstlicher Intelligenz nicht mit maschinellem Lernen, sondern mit sogenannten symbolischen Ansätzen. In den 1950er- und 1960er-Jahren entstanden Programme, die Wissen in Form von Regeln und Fakten speicherten. Daraus entwickelten sich später Expertensysteme, die etwa in der medizinischen Diagnose oder technischen Fehleranalyse eingesetzt wurden. Diese Systeme arbeiteten mit klar formulierten Wenn-Dann-Regeln. Ihr Vorteil war, dass ihre Entscheidungen transparent und nachvollziehbar waren. Ihr Nachteil bestand darin, dass sie nicht selbstständig lernen konnten und bei unvollständigem oder unscharfem Wissen schnell an ihre Grenzen stießen.
In den 1980er- und 1990er-Jahren rückte deshalb das maschinelle Lernen stärker in den Vordergrund. Statt einer Maschine explizit zu sagen, wie sie zu entscheiden hat, begann man, ihr Daten zu geben, aus denen sie selbst Regeln ableiten konnte. Damit wurden Systeme möglich, die flexibler auf neue Situationen reagieren konnten.
Ein einfaches Beispiel ist die Spam-Erkennung in E-Mails. Während ein Expertensystem vielleicht nur nach festen Schlüsselwörtern sucht, lernt ein Spam-Filter auf Basis vieler Beispiele von Spam- und Nicht-Spam-Nachrichten, typische Muster zu erkennen. Das erlaubt es, auch neue Formen von Spam zu identifizieren, ohne dass jemand manuell Regeln dafür hinterlegen muss.
Warum „Künstliche Intelligenz“ oft in die Irre führt
Der Begriff „Künstliche Intelligenz“ weckt häufig leicht falsche Assoziationen. Menschen neigen dazu, Maschinen Eigenschaften zuzuschreiben, die diese gar nicht besitzen. Ein Chatbot, der in flüssigen Sätzen antwortet, wirkt schnell so, als „wüsste“ er etwas. Tatsächlich basiert er jedoch lediglich auf komplexen statistischen Modellen, die aus unzähligen Beispielen gelernt haben, welche Wortfolgen wahrscheinlich aufeinanderfolgen.
Auch Programme, die Brettspiele meistern oder Bilder erkennen, verfügen nicht über ein Verständnis im menschlichen Sinne. Sie optimieren ihre Entscheidungen auf der Basis von Mustern in den Daten, ohne dass sie deren Bedeutung begreifen. Daher sprechen manche Fachleute lieber von „statistischer Mustererkennung“ statt von Intelligenz. Das mag sperrig klingen, trifft jedoch den Kern wesentlich besser.
Warum der Hype trotzdem berechtigt ist
Trotz dieser Einschränkungen hat Künstliche Intelligenz in den vergangenen Jahren beeindruckende Fortschritte gemacht. Rechnerische Ressourcen, größere Datenmengen und neue Algorithmen haben dazu geführt, dass Maschinen heute Aufgaben bewältigen können, die vor wenigen Jahren noch als Domäne des Menschen galten. Sprachmodelle wie GPT-4 formulieren Texte, Bildgeneratoren erschaffen fotorealistische Szenen und Algorithmen analysieren in Sekunden medizinische Aufnahmen.
Diese Erfolge beruhen jedoch nicht auf Magie, sondern auf systematischen Verfahren. Wenn Sie verstehen, was hinter Begriffen wie „Machine Learning“ und „Deep Learning“ steckt, können Sie besser einschätzen, was KI-Systeme tatsächlich leisten können – und wo ihre Grenzen liegen. Genau das soll diese Serie leisten.
Wohin die Reise geht
In den folgenden Beiträgen werden wir die verschiedenen Teilgebiete schrittweise vertiefen. Wir werden uns ansehen, wie Maschinen lernen, was neuronale Netze auszeichnet und warum Deep Learning „deep“ ist. Zudem werden wir beleuchten, wie Transformer-Architekturen die Sprachverarbeitung revolutioniert haben und was Large Language Models von früheren Ansätzen unterscheidet.
Das Ziel ist, dass Sie am Ende dieser Serie nicht nur einzelne Schlagworte einordnen können, sondern ein Gesamtverständnis dafür entwickeln, wie die verschiedenen Konzepte zusammenhängen. Damit können Sie fundierter entscheiden, ob und wie Künstliche Intelligenz für Ihre Projekte oder Ihr Unternehmen sinnvoll sein könnte.
Ergänzend zu dieser Serie seien an dieser Stelle die Blogposts von Michael Stal über den Aufbau von Neuronalen Netzen empfohlen.
(rme)
Entwicklung & Code
Firebird: DoS-Schwachstellen in Datenbank, möglicherweise unbefugte Zugriffe
In der relationalen SQL-Datenbank Firebird haben die Entwickler zwei Sicherheitslücken geschlossen. Die ermöglichten Angreifern, Server mit manipulierten Anfragen lahmzulegen – oder unter Umständen sogar unbefugten Zugriff auf eigentlich verschlüsselte Daten.
Die schwerwiegendere Schwachstelle betrifft den Pool externer Verbindungen (ExtConnPool). Ist der aktiv, werden darin gespeicherte Verbindungen nicht erneut überprüft, ob die bei ihrer Erstellung verwendeten CryptCallback-APIs tatsächlich noch vorhanden und geeignet sind. Dadurch können Zugriffe auf verschlüsselte Datenbanken erfolgen, wenn externe SQL-Anweisungen ausgeführt werden, auf die später mit Attachments zugegriffen wird, denen ein Schlüssel zur Datenbank fehlt. Bei derartigen verketteten Execute-Statements kann zudem ein Segfault auftreten, auch auf unverschlüsselten Datenbanken, und damit die Serverprozesse lahmlegen (Denial of Service). Die Schwachstelle hat den CVE-Eintrag CVE-2025-24975 / EUVD-2025-25030 mit einem CVSS-Wert von 7.1 und der Risikoeinschätzung „hoch“ erhalten.
Davon ist FIrebirdSQL bis einschließlich 5.0.3 sowie 4.0.7 betroffen. Die Fehler korrigieren die Schnappschüsse 6.0.0.609, 5.0.2.1610 sowie 4.0.6.3183 und jeweils neuere.
Zweite Sicherheitslücke in Firebird
Vor den Versionen 5.0.3, 4.0.6 und 3.0.13 können beim Verarbeiten von XDR-Nachrichten NULL-Pointer-Derefenzierungen auftreten, also bereits freigegebene Ressourcen erneut freigegeben werden. Das mündet in einem Prozess-Absturz, also einem Denial-of-Service (CVE-2025-54989 / EUVD-2025-25032, CVSS 5.3, Risiko „mittel„).
IT-Verantwortliche sollten sicherstellen, die Firebird-Versionen auf die aktualisierten Stände zu bringen. Auf Github stehen die aktualisierten Quellcodes dafür bereit. Etwa die fehlerkorrigierte Fassung 5.0.3 ist seit Mitte Juli für diverse Betriebssysteme verfügbar. Die CVE-Einträge zu dem damit geschlossenen Sicherheitslücken wurden jedoch erst jetzt veröffentlicht.
(dmk)
Entwicklung & Code
KI Navigator #12: Ist das Kunst oder kann das KI-Bild weg?
Willkommen zur zwölften Ausgabe der KI-Navigator-Kolumne der DOAG KI Community!
Verena Barth setzt sich als Expertin und Speakerin im Bereich Explainable AI (XAI) leidenschaftlich für ethische KI und die Verständlichkeit von komplexen ML-Systemen ein, um eine nachvollziehbare und gewissenhafte Anwendung zu ermöglichen. In industriellen ML-Projekten war sie als IT-Consultant im Bereich Data Science und MLOps tätig, bevor sie 2024 “Business Buddy AI” mitgründete, das personalisiertes Business Coaching mithilfe von affektiver KI skalierbar anbietet.
Neulich zeigte mein Bruder mir eine Illustration eines Sonnenuntergangs am Strand, die angeblich komplett von einer Maschine gemacht wurde. Ein interessanter Stil, eine surreale Landschaft, leuchtende Farben, fantastische Details. Mein erster Impuls: Staunen. Mein zweiter: Skepsis.
Kann KI Kunst? Ein heißes Thema, zu dem ich meinen metaphorischen Senf dazugeben möchte – nicht als neutrale Beobachterin, sondern als jemand, der mitten im Spannungsfeld steht: Ich bin KI-Expertin und Künstlerin.
In Gesprächen mit Kunstschaffenden weltweit begegnen mir immer wieder dieselben Ängste bezüglich KI: kopiert, ausgebeutet und ersetzt zu werden. Was folgt, ist meine persönliche Sicht – subjektiv, ehrlich und frei von akademischem Kunst- oder Philosophieballast.
Was ist Kunst – und wer darf sie machen?
Laut Wikipedia ist Kunst ein kulturelles Ausdrucksmittel des Menschen, das Ergebnisse kreativer Prozesse in Form von Werken hervorbringt, die nicht primär durch Funktionalität, sondern durch Ausdruck, Gestaltung und Bedeutung geprägt sind. Tatsächlich war ich überrascht, wie oft und explizit darauf hingewiesen wird, dass sie aus einer menschlichen Tätigkeit/Arbeit resultiert. Das dient nicht der Differenzierung zwischen Mensch und KI (die auch ein Produkt menschlicher Arbeit ist), sondern zur Natur (natürlich – künstlich).
(Bild: DOAG)
Die Konferenz KI Navigator zeigt am 19. und 20. November in Nürnberg die konkrete Anwendung von KI in den Bereichen IT, Wirtschaft und Gesellschaft. Die von DOAG, heise conferences und de’ge’pol ausgerichtete Veranstaltung bietet gut 100 Sessions in sechs Tracks. Bis zum 1. Oktober sind Tickets zum vergünstigten Frühbucherpreis von 990 Euro (zzgl. MwSt.) verfügbar.
Hier beziehe ich mich auf den enger gefassten Begriff von Kunst im Sinne der sogenannten schönen Künste, primär die Bildende Kunst, nicht auf die Kunst als Handwerk, Technik, Wissen oder bloße Fertigkeit.
Die Kunst wandelt sich mit der Zeit. Sie spiegelt Gesellschaft, Geschichte und Identität, reagiert auf Umbrüche, stellt Fragen und erfindet sich immer wieder neu. Wenn Kunst ein sich ständig veränderndes kulturelles Ausdrucksmittel ist und mit der Zeit geht, warum sollte sie dann nicht auch durch neue Werkzeuge oder gar neue Akteure entstehen? Die zentrale Frage, die sich mir und vielen anderen stellt: Darf etwas als Kunst gelten, das kein fühlender Mensch erschaffen hat?
Zwischen Impulsgeber und Identitätsdiebstahl
Natürlich kann man KI als weiteres kreatives Tool wie Photoshop oder die Kamera sehen. Künstlerinnen oder Künstler geben Prompts ein, wählen aus, verfeinern. Doch generative KI geht weiter: Sie schlägt selbst vor – gelernt von Millionen Bildern und Stilen, ohne Rücksicht auf Grenzen zwischen Inspiration und (urheberrechtsverletzender) Kopie.
Neulich habe ich mit einer Kundin ChatGPT zur Ideenfindung und für das Generieren von Referenzbildern verwendet. Dabei habe ich überraschend inspirierende Impulse erhalten. Ersetzt hat mich das in diesem Fall zwar nicht, aber es hat mir gezeigt, wie viel Zeitersparnis KI bei konzeptioneller Arbeit bringen kann, etwa bei der Suche nach Referenzbildern mit korrekter Perspektive oder gewünschter Lichtführung.
Wenn KI Routineaufgaben und Generisches übernimmt, bleibt mehr Raum für das Echte, Spontane, Spaßige, Unvollkommene – das, was keine Maschine nachbilden kann. Trotzdem habe ich Hemmungen, ihr meine eigenen Werke anzuvertrauen. Ich fürchte, meinen Stil zu verlieren – das, was mich ausmacht. Theoretisch könnte jemand mithilfe weniger Bilder ein Werk in meinem Stil erzeugen, ohne dass ich es je erfahre oder dafür (zumindest mit Anerkennung) entlohnt werde. Ein kostengünstiges, effizientes, aber leeres Echo meiner Arbeit.
Es fehlt das Erlebnis, das Ringen mit der Idee, die Emotionen – das Menschliche. Reicht technische Raffinesse und cleveres Kombinieren, oder braucht es für echte Kunst einen fühlenden Menschen als Schöpfer?
Kann KI fühlen – und muss sie das überhaupt?
Um einen großen Aufschrei zu vermeiden: KI kann nicht fühlen, aber sie imitiert meisterhaft. Für viele lebt Kunst vom Ausdruck, dem Prozess, dem Kontext und der Intention der Kunstschaffenden – nicht nur von Form und Ästhetik. Deshalb beeinflusst der Name der Künstlerin oder des Künstlers den Preis eines Werks oft mehr als die Ausdruckskraft des Bildes. In dieser Hinsicht bleiben KI-Werke oberflächlich und letztlich auch gefühllos.
Allerdings ist diese Ansicht auch das, was Kunst teilweise elitär macht und viele meiner nicht kunstaffinen Freunde abstößt: Weil sie glauben, es gäbe die eine richtige Deutung oder Interpretation, weil abstrakte Werke oft unzugänglich wirken und weil Kunst zu oft in komplizierten Worten statt in echten Gefühlen vermittelt wird.
Auch wenn die Einschätzung eines Bildes mit Kenntnis der Künstlerbiografie vielleicht anders ausfallen würde, darf man dennoch seine eigene Wahrnehmung ernst nehmen und sich einfach fragen: „Was sehe ich? Was fühle ich? Und warum?“
Persönliches Fazit: Kann KI Kunst?
Was KI kann, liegt nicht nur in ihr, sondern auch in dem, was wir in ihr sehen – oder sehen wollen.
Wenn wir Kunst allein als Ergebnis eines kreativen Prozesses betrachten – als Werk mit Ausdruck, Form und Wirkung – dann kann KI Kunst erzeugen. Beeindruckend, effizient und manchmal sogar berührend. Doch sobald wir Kunst als bewusste, intentionale Handlung verstehen – als Ausdruck von Erfahrung, Identität, Haltung – stoßen wir an eine Grenze: KI bietet kein Wollen, kein Fühlen, kein echtes Bewusstsein.
Und trotzdem kann sie Bedeutung erzeugen. Nicht aus sich selbst heraus, sondern durch den Menschen, der mit ihr interagiert. Sie kann nicht begreifen, aber berühren. Keine Absicht haben, aber inspirieren.
Vielleicht liegt genau darin die neue Rolle der Kunst: Nicht in der Frage, ob etwas Kunst ist, sondern im menschlichen Blick darauf, in dem, was wir daraus machen. In Zeiten von KI liegt die Kunst vielleicht nicht mehr nur im bewussten Produzieren, sondern im bewussten Konsumieren: im Erkennen, im Reagieren, im In-Beziehung-Treten. Der Mensch als fühlender, bedeutungsgebender und denkender Bezugspunkt bleibt dann immer noch das Subjekt der Kunst – nicht die Maschine.
(rme)
-
Datenschutz & Sicherheitvor 2 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
Apps & Mobile Entwicklungvor 2 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Online Marketing & SEOvor 2 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Digital Business & Startupsvor 2 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
UX/UI & Webdesignvor 2 Monaten
Philip Bürli › PAGE online
-
Digital Business & Startupsvor 2 Monaten
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier
-
Social Mediavor 2 Monaten
Aktuelle Trends, Studien und Statistiken
-
Apps & Mobile Entwicklungvor 2 Monaten
Patentstreit: Western Digital muss 1 US-Dollar Schadenersatz zahlen