Connect with us

Entwicklung & Code

KI-Überblick 2: Wie Maschinen lernen – Methoden des Machine Learning


Maschinelles Lernen ist der mit Abstand bedeutendste Teilbereich der modernen Künstlichen Intelligenz. Praktisch alle heute erfolgreichen KI-Anwendungen basieren darauf: Texte zu generieren, Bilder zu analysieren, Sprache zu verstehen, Vorhersagen zu treffen – all das gelingt, weil Maschinen aus Daten lernen.

Doch wie funktioniert dieses Lernen eigentlich? Was bedeutet es, wenn ein System „trainiert“ wird? Und warum ist maschinelles Lernen keine Blackbox, sondern ein strukturiertes Vorgehen?


the next big thing – Golo Roden

the next big thing – Golo Roden

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.

In diesem Beitrag gebe ich einen konzeptuellen Überblick über maschinelles Lernen. Ich zeige, welche Arten des Lernens es gibt, was sie unterscheidet und welche grundlegenden Ideen dahinterstehen.

Der entscheidende Unterschied zwischen klassischer Programmierung und maschinellem Lernen ist einfach: Bei traditioneller Software legen Entwicklerinnen und Entwickler explizite Regeln fest, nach denen ein Programm arbeitet. Beim maschinellen Lernen hingegen geben sie einem System Daten – und lassen es selbstständig Muster erkennen und Regeln ableiten.

Ein typisches Beispiel ist die automatische Bilderkennung. Statt einem Programm mühsam beizubringen, dass Katzen in Bildern meist Ohren, Schnurrhaare und eine bestimmte Fellstruktur haben, zeigt man ihm einfach viele Bilder von Katzen und Nicht-Katzen. Das System lernt dabei, welche Merkmale typisch sind – auf Basis statistischer Zusammenhänge in den Daten.

Diese Fähigkeit zur Generalisierung ist die zentrale Stärke maschinellen Lernens. Gut trainierte Modelle können nicht nur bekannte Beispiele richtig einordnen, sondern auch mit neuen, ähnlichen Situationen umgehen.

Im maschinellen Lernen unterscheidet man grob drei grundlegende Paradigmen: überwachtes Lernen, unüberwachtes Lernen und bestärkendes Lernen. Sie unterscheiden sich darin, ob und wie Feedback gegeben wird.

Beim überwachten Lernen erhält das Modell zu jedem Trainingsbeispiel eine Zielvorgabe – etwa die richtige Klassifikation eines Bildes oder den erwarteten Ausgabewert bei einer Regressionsaufgabe. Das Modell versucht dann, diese Zielvorgaben zu reproduzieren.

Beispiele:

  • Erkennen, ob eine E-Mail Spam ist oder nicht,
  • Vorhersage von Immobilienpreisen anhand von Standort und Ausstattung,
  • Diagnostik in der Medizin auf Basis von Bilddaten.

Das Modell wird so lange angepasst, bis es auf den Trainingsdaten möglichst wenig Fehler macht. Es lernt, die Beziehung zwischen Eingaben und Ausgaben zu modellieren.

Beim unüberwachten Lernen gibt es keine Zielvorgaben. Stattdessen versucht das System, Strukturen in den Daten zu erkennen – etwa Gruppen, Muster oder Ausreißer.

Beispiele:

  • Kundensegmentierung im Marketing,
  • Erkennung von Anomalien in Produktionsdaten,
  • Thematische Clusterung von Texten.

Ein verbreiteter Ansatz ist das Clustering, bei dem Datenpunkte in Gruppen mit ähnlichen Eigenschaften eingeteilt werden. Auch Dimensionsreduktion, also das Vereinfachen komplexer Datenräume, gehört in diesen Bereich.

Bestärkendes Lernen funktioniert grundlegend anders: Hier lernt ein Agent durch Interaktion mit einer Umgebung. Er erhält Belohnungen oder Bestrafungen, je nachdem, wie gut seine Aktionen in einer Situation waren, und passt sein Verhalten entsprechend an.

Beispiele:

  • Spielende KI (beispielsweise AlphaGo oder Schachprogramme),
  • Steuerung von Robotern,
  • Optimierung von Prozessen, zum Beispiel in der Logistik.

Im Gegensatz zu den anderen Lernarten geht es hier nicht um das Erkennen von Mustern, sondern um das Erlernen von Handlungsstrategien, die langfristig zu möglichst hoher Belohnung führen.

Unabhängig von der Art des Lernens basiert maschinelles Lernen immer auf der Idee, dass ein Modell aus einer Vielzahl möglicher Erklärungsansätze (dem sogenannten Hypothesenraum) eine möglichst gute Hypothese findet, die mit den beobachteten Daten übereinstimmt. Diese Hypothese kann zum Beispiel eine Regressionsfunktion, ein Entscheidungsbaum oder ein neuronales Netz sein.

Das Ziel besteht darin, nicht nur die Trainingsdaten zu erklären, sondern auch bei neuen, bisher unbekannten Daten eine möglichst gute Leistung zu erbringen. Diese Fähigkeit zur Verallgemeinerung ist zentral – und genau hier liegt die Herausforderung: Lässt man das Modell zu stark an die Trainingsdaten anpassen, besteht die Gefahr des Overfitting. Dann merkt sich das System Details und Zufälligkeiten, statt die dahinterliegenden Muster zu erfassen.

Trotz der beeindruckenden Erfolge maschinell lernender Systeme darf man nicht vergessen, dass es sich dabei um strukturierte Optimierungsverfahren handelt. Die Lernprozesse sind formal beschreibbar, nachvollziehbar und – bis auf Details in komplexen Modellen – durchaus analysierbar. Die Vorstellung, dass maschinelles Lernen eine Blackbox sei, ist nur dann berechtigt, wenn man auf die genaue Parametrisierung einzelner Modelle abstellt. Das Prinzip ist jedoch alles andere als magisch.

Umso wichtiger ist es, die Grundidee zu verstehen: Maschinelles Lernen bedeutet, aus Beispielen zu lernen, um Entscheidungen auf neue Situationen zu übertragen. Damit dies zuverlässig funktioniert, braucht es geeignete Daten, durchdachte Modellarchitekturen und eine sorgfältige Evaluation.

In der nächsten Folge werden wir uns näher mit neuronalen Netzen befassen – der Modellklasse, die das Deep Learning geprägt und viele der jüngsten Durchbrüche in der KI ermöglicht hat. Wir klären, was hinter Begriffen wie Neuron, Schicht und Aktivierungsfunktion steckt – und warum man mit einfachen Bausteinen erstaunlich komplexe Strukturen modellieren kann.


(rme)



Source link

Entwicklung & Code

Visual Studio Code 1.105 erweitert KI-Chat um vollqualifizierte Tool-Namen


Mit der September-2025-Version von Visual Studio Code führt Microsoft eine Reihe von Neuerungen ein, darunter erweiterte Chat-Funktionen und vollqualifizierte Tool-Namen sowie einen MCP-Marktplatz. Entwicklerinnen und Entwickler erhalten zudem neue Möglichkeiten zur KI-gestützten Konfliktlösung und verbesserte Authentifizierungsoptionen.

Das Chat-System von Visual Studio Code 1.105 führt vollqualifizierte Tool-Namen ein, um Konflikte zwischen integrierten Tools und solchen von MCP-Servern oder Extensions zu vermeiden. Die Namen der Tools verweisen nun unmittelbar auf den MCP-Server, die Erweiterung oder die Werkzeugsammlung, zu der sie gehören. Statt codebase verwenden Entwickler nun search/codebase, statt list_issues nutzen sie github/github-mcp-server/list_issues. Laut Microsoft hilft dies auch beim Auffinden fehlender Extensions oder MCP-Server.


Eine Code Action unterstützt bei der Migration zu den qualifizierten Tool-Namen

Eine Code Action unterstützt bei der Migration zu den qualifizierten Tool-Namen

Eine Code Action unterstützt bei der Migration zu den qualifizierten Tool-Namen.

(Bild: Microsoft)

Für benutzerdefinierte Modelle hat Microsoft die Edit-Tools verbessert und einen Lernmechanismus zur Auswahl optimaler Tool-Sets eingeführt. Bei OpenAI-kompatiblen Modellen lässt sich die Liste der Edit-Tools über die Einstellung github.copilot.chat.customOAIModels konfigurieren. Die Unterstützung für verschachtelte AGENTS.md-Dateien in Unterordnern des Arbeitsbereichs ist als experimentelle Funktion verfügbar. Dies ermöglicht spezifischere Kontexte und Anweisungen für verschiedene Codebereiche, etwa unterschiedliche Vorgaben für Frontend- und Backend-Code. Die Funktion lässt sich über die Einstellung chat.useNestedAgentsMdFiles aktivieren.

Benachrichtigungen des Betriebssystems informieren nun über eingehende Chat-Antworten, wenn das VS Code-Fenster nicht im Fokus steht. Die Benachrichtigung enthält eine Vorschau der Antwort und bringt bei Auswahl den Chat-Input in den Fokus. Das Verhalten steuert die Einstellung chat.notifyWindowOnResponseReceived. In Visual Studio Code 1.105 stehen zudem neue LLMs zur Verfügung: GPT-5-Codex von OpenAI, optimiert für agentisches Coding, und Claude Sonnet 4.5 von Anthropic für Coding und Real-World-Agenten. Die Auswahl erfolgt über den Modell-Picker im Chat.

Die neue Version des kostenlosen Code-Editors stellt erstmals einen MCP-Marktplatz in der Extensions-Ansicht bereit, der das Durchsuchen und Installieren von MCP-Servern direkt im Editor ermöglicht. Der Marktplatz nutzt die GitHub MCP Registry als Datenquelle. Entwickler können MCP-Server über den @mcp-Filter, die Dropdown-Auswahl „MCP Servers“ oder die direkte Namenssuche finden. Die Funktion ist standardmäßig deaktiviert und lässt sich über chat.mcp.gallery.enabled aktivieren. Laut Microsoft befindet sich das Feature noch in der Vorschau-Phase – etwaige Unzulänglichkeiten beim Verwenden seien daher nicht auszuschließen.

Beim Senden von Chat-Nachrichten starten MCP-Server nun automatisch. VS Code vermeidet in diesem Fall störende Dialoge und zeigt stattdessen Indikatoren im Chat an, wenn ein Server Aufmerksamkeit benötigt. Die Einstellung chat.mcp.autostart steuert das Verhalten.

Verbessert hat das VS-Code-Entwicklungsteam zudem die Darstellung von MCP-Ressourcen aus Tools: Der Editor fügt standardmäßig eine Vorschau des Ressourceninhalts hinzu und gibt Anweisungen zum Abrufen vollständiger Inhalte, was die Modell-Performance bei der Tool-Nutzung steigern soll. Darüber hinaus wurden einige MCP-Spezifikations-Updates implementiert: SEP-973 ermöglicht benutzerdefinierten Icons für Server, Ressourcen und Tools. SEP-1034 erlaubt Standard-Werte bei der Elicitation-Nutzung.

Visual Studio Code 1.105 führt KI-gestützte Lösung von Merge-Konflikten ein. Bei Dateien mit Git-Merge-Konflikt-Markierungen erscheint eine neue Aktion in der unteren rechten Editor-Ecke, die den Chat öffnet und einen agentischen Ablauf mit Merge-Base und Änderungen beider Branches als Kontext startet.

Das runTests-Tool im Chat unterstützt nun Test-Code-Coverage-Berichte an den Agenten, was die Generierung und Verifikation von Tests ermöglicht, die den gesamten Code abdecken. Für lang laufende Tasks zeigt VS Code OS-Benachrichtigungen bei Abschluss an, wenn das Fenster nicht im Fokus steht. Die Einstellung task.notifyWindowOnTaskCompletion steuert dieses Verhalten.

Alle weiteren Informationen zu Visual Studio Code 1.105 lassen sich dem Ankündigungsbeitrag entnehmen.

Lesen Sie auch

Nicht nur den Sourcecode-Editor selbst, sondern auch die Python-Erweiterungen hat Microsoft mit einem Update versehen. Im Oktober-Release (während bei Visual Studio Code der Vormonat namensgebend ist, richtet sich die Python-Erweiterung nach dem aktuellen) widmet sich das Entwicklungsteam insbesondere den Verbesserungen der Erweiterung Python Environments. Das Update verspricht unter anderem verbesserte Leistung und Zuverlässigkeit bei der Arbeit mit Conda-Umgebungen – Code lässt sich nun direkt ohne conda run starten. Auch gelegentlich auftretende Abstürze beim Ausführen von Python-Dateien, die input() verwenden, wurden korrigiert. Die Erweiterung aktualisiert nun auch automatisch die Umgebungsmanager beim Erweitern von Baumknoten, sodass die Umgebungsliste ohne weitere Maßnahmen auf dem neuesten Stand bleibt.

Weitere Informationen zu den Updates für Python in VS Code liefert ein Beitrag auf Microsofts Entwicklerblog.


(map)



Source link

Weiterlesen

Entwicklung & Code

So exakt, wie die Bahn pünktlich ist: Ansprüche deutscher Firmen an KI-Systeme


76 Prozent der Datenverantwortlichen aus deutschen Unternehmen haben im vergangenen Jahr geschäftliche Probleme oder Krisen durch KI-Halluzinationen oder ungenaue KI-Antworten erlebt. Dabei haben 56 Prozent ein gekauftes KI-Agenten-System wegen mangelhafter Performance aufgegeben. 78 Prozent glauben sogar, dass die Chefetage im Unternehmen die Genauigkeit der KI-Systeme überschätzen würde. In allen drei Bereichen liegen deutsche Unternehmen damit deutlich über dem internationalen Durchschnitt – der liegt bei 59 Prozent bei den Geschäftsproblemen, bei 45 Prozent bei den mangelhaften Systemen und 68 Prozent bei der CEO-Einschätzung der Genauigkeit.

Das geht aus einer Umfrage unter dem Titel Global AI Confessions des US-amerikanischen Marktforschungsunternehmens The Harris Poll hervor. Auftraggeber der Befragung ist Dataiku, ein Anbieter einer Plattform für KI- und ML-Dienste. In 812 Online-Interviews beantworteten 203 Datenverantwortliche aus den USA, 103 aus Deutschland, 103 aus Japan, 102 aus Großbritannien, 101 aus Frankreich, 100 aus den Vereinigten Arabischen Emiraten, 50 aus Singapur und 50 aus Südkorea die Fragen der Marktforscher. Alle Teilnehmer arbeiten für große Unternehmen mit einem Jahresumsatz von mehr als 1 Milliarde US-Dollar oder den regionalen Äquivalenten. Die Umfrageteilnehmer sind auf Vice-President-, Director-, Managing Director- oder C-Suite-Ebene in Daten-, Analytics- oder KI-relevanten Funktionen tätig.

Von den deutschen Befragten verlangten nur vier Prozent eine Genauigkeit der Systeme von 95 bis 100 Prozent, international waren es 15 Prozent. 53 Prozent der Deutschen gaben sich mit weniger als 80 Prozent Genauigkeit bei KI-gestützten Entscheidungen zufrieden, bei einem internationalen Durchschnitt von 38 Prozent. Die Marktforscher sehen hier eine Verbindung zur deutschen Höchstrate der Projekte, die an geringer Qualität scheitern.

Knapp 60 Prozent der Befragten gaben weiterhin an, nur auf eine Katastrophe durch KI-Halluzinationen in geschäftskritischen Workflows zu warten. Ebenso viele fürchten finanzielle Risiken durch unkontrollierte API- und Service-Kosten durch KI-Agenten. Dabei verlangen nur 17 Prozent der deutschen Datenverantwortlichen eine vollständige End-to-End-Nachvollziehbarkeit von Multi-Agent-Workflows (global: 20 Prozent). 34 Prozent der Teilnehmer aus Deutschland gaben an, dass ihre Teams weniger als die Hälfte der KI-Entscheidungen im Sinne aktueller regulatorischer Auflagen nachverfolgen könnte. 58 Prozent hätten sogar KI-Agenten-Deployments wegen mangelnder Erklärbarkeit verzögert oder blockiert. Nur fünf Prozent der Gesamtzahl der international Befragten gab an, die Entscheidungen ihrer KI-Systeme zu 100 Prozent erfassen zu können.

Von den Deutschen befürchten 63 Prozent, dass Kunden Schäden durch ihre KI-Agenten entstehen könnten, während sogar 69 Prozent glauben, dass KI-Systeme ihren Mitarbeitern schaden könnten. Mögliche Security-Bedenken bespricht die Umfrage nicht weiter im Detail – erst kürzlich kam heraus, dass selbst der Branchenführer OpenAI nicht imstande ist, persönliche Daten aus E-Mails seiner Nutzer vor Angreifern zu schützen und die Kenntnis eines entsprechenden Exploits monatelang verschwieg.

In der Pressemitteilung zur Umfrage spricht Dataiku von einer „Kluft zwischen C-Suite-Erwartungen und technischer Realität“. Diese sei in Deutschland besonders ausgeprägt: Fast 80 Prozent der Datenverantwortlichen sei überzeugt, dass ihre Chefetage die Genauigkeit der KI-Systeme überschätzen würde. International lag dieser Eindruck bei 68 Prozent. 82 Prozent der Deutschen gaben an, dass die Geschäftsführung die Zeit und Schwierigkeiten, KI-Systeme zur Produktionsreife zu bringen, unterschätzt. Von den Befragten erwarten etwa 70 Prozent, dass ein CEO bis Ende 2026 aufgrund einer gescheiterten KI-Strategie oder einer KI-induzierten Krise entlassen wird. Im globalen Durchschnitt erwarten dies 56 Prozent der Befragten.

Eine ähnliche Umfrage unter CEOs aus dem März 2025 ergab, dass unter 100 deutschen CEOs ebenfalls knapp 70 Prozent mit Entlassungen wegen KI-Projekten rechnet. Aus der CEO-Umfrage ging außerdem hervor, dass 95 Prozent der deutschen Geschäftsführer den Eindruck haben, KI-Agenten könnten bei Geschäftsentscheidungen einen gleichwertigen oder besseren Rat geben als ein menschliches Vorstandsmitglied. 76 Prozent der Datenverantwortlichen teilen die Auffassung, dass KI-generierten Geschäftsempfehlungen in ihren Unternehmen mehr Gewicht zukommt als denen von menschlichen Mitarbeitenden. Auch hier ist Deutschland Umfrageführer, wobei der Durchschnitt bei 69 Prozent liegt.

Die Umfragen unter den CEOs und den Datenverantwortlichen finden sich hier und hier. Der Zugriff erfordert die Angabe einer E-Mail-Adresse.


(pst)



Source link

Weiterlesen

Entwicklung & Code

Uno Platform 6.3 bringt Preview-Support für .NET 10.0 und Visual Studio 2026


Uno Platform 6.3 ist mit Preview-Support für .NET 10.0 erschienen. Das quelloffene Cross-Platform-GUI-Framework für .NET bereitet sich nicht nur auf das für November geplante .NET-Release vor, sondern bietet auch schon Kompatibilität mit Visual Studio 2026.

In Uno Platform besteht nun neben dem Support für die aktuelle, stabile Version .NET 9.0 auch Preview-Support für .NET 10.0 Release Candidate 1. Am 11. November 2025 soll laut Microsoft das finale Release mit Long-Term Support erscheinen. Im Wizard der Uno Platform lässt sich .NET 10.0 direkt als Zielframework auswählen:


Uno Platform 6.3 bietet .NET 10.0 im Wizard zur Auswahl an.

Uno Platform 6.3 bietet .NET 10.0 im Wizard zur Auswahl an.

Uno Platform 6.3 bietet .NET 10.0 im Wizard zur Auswahl an.

(Bild: Uno Platform)

Dabei ist zu beachten, dass das Zusammenspiel mit .NET 10.0 als Ziel derzeit nicht für die Produktion geeignet ist. Stabile Produktionsapps sollen bis zum offiziellen .NET-10.0-Release bei .NET 9.0 verbleiben. Für die Migration auf Version 10.0 bietet das Uno-Platform-Team einen Migrationsguide an.


betterCode() .NET 10.0

betterCode() .NET 10.0

(Bild: coffeemill/123rf.com)

Verbesserte Klassen in .NET 10.0, Native AOT mit Entity Framework Core 10.0 und mehr: Darüber informieren .NET-Profis auf der Online-Konferenz betterCode() .NET 10.0 am 18. November 2025. Nachgelagert gibt es sechs ganztägige Workshops zu Themen wie C# 14.0, künstliche Intelligenz und Web-APIs.

Der Support für .NET 8.0 ist unterdessen entfallen. Dabei handelt es sich um das derzeit aktuelle LTS-Release mit Support bis November 2026. Jedoch hat .NET MAUI 8.0 bereits im Mai 2025 sein End-of-Life-Datum erreicht, weshalb Uno Platform sich von dieser .NET-Version abwendet.

Visual Studio 2026, die nächste Hauptversion von Microsofts Entwicklungsumgebung, ist in einem Insider-Programm verfügbar. Auch Uno Platform bereitet sich auf die neue Version vor und ist mit ihren Updates kompatibel, darunter das neue .slnx-Format als verständlicherem Ersatz für .sln-Dateien. Dabei ist Uno Platform 6.3 auch weiterhin mit Visual Studio 2022 kompatibel, sodass Uno-Platform-User beide Versionen im Einsatz haben können. Ebenso wie der Support für .NET 10.0 ist auch jener für Visual Studio 2026 als Preview gekennzeichnet.

Weitere neue Features in Uno Platform 6.3 gibt es unter anderem für den visuellen Designer Hot Design, der im kostenpflichtigen Uno Platform Studio enthalten ist. Auch sollen grafiklastige Apps mit WebAssembly nun glatter funktionieren und die TabView über verschiedene Zielplattformen hinweg konsistenter und verlässlicher sein.

Alle weiteren Details zu Uno Platform 6.3 hält der Blogeintrag zur Ankündigung bereit.


(mai)



Source link

Weiterlesen

Beliebt