Entwicklung & Code
Jenseits des Hypes: Wie Künstliche Intelligenz wirklich funktioniert
In diesem Artikel erkläre ich Ihnen innerhalb weniger Absätze einen KI-Algorithmus, den Sie danach von Grund auf verstanden haben. Dabei nutze ich keine Vereinfachung und keine Abstraktion. Und ich bin mir sicher: Wenn Sie diesen Artikel gelesen haben, werden Sie einen wichtigen Baustein der Künstlichen Intelligenz durchschauen. Und nicht nur das. Sie werden nämlich auch erkennen, warum viele der Prinzipien, die wir hier im Kleinen sehen, genauso für die großen, komplexen Systeme gelten, über die heute alle reden. Es geht dabei nicht um ChatGPT oder neuronale Netze. Es geht nicht um Sprachmodelle oder um Bilderkennung, sondern wir schauen uns stattdessen einen Algorithmus an, der so einfach ist, dass er in wenigen Schritten erklärt ist. Und gleichzeitig so tiefgehend, dass er die zentralen Ideen moderner KI in sich trägt. Und dieser Algorithmus heißt k-Means.
Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.
Das klingt unscheinbar, gar unspektakulär, ist aber ein perfektes Beispiel dafür, wie Künstliche Intelligenz tatsächlich arbeitet. Und warum gerade k-Means? Ganz einfach: Weil er in einer klaren und leicht nachvollziehbaren Form zeigt, worum es bei KI im Kern geht: Muster in Daten finden, Strukturen erkennen, die man auf den ersten Blick nicht sieht, und Entscheidungen treffen, die nicht eindeutig richtig oder falsch sind, sondern die auf Wahrscheinlichkeiten und Annäherungen beruhen. Und genau das ist es, was KI im Großen auch macht, nur eben mit sehr viel mehr Daten, sehr viel mehr Dimensionen und sehr viel mehr Rechenleistung.
Vielleicht denken Sie jetzt:
„Ja gut, aber so ein kleiner Algorithmus, was soll mir das denn bringen?“
Die Antwort ist: tatsächlich sehr viel. Denn wenn Sie einmal verstanden haben, wie k-Means funktioniert, dann werden Sie viele Eigenheiten von KI und von anderen Algorithmen wiedererkennen, die sonst wie Magie wirken: Warum Ergebnisse manchmal unterschiedlich ausfallen, warum die Wahl der Kriterien ausschlaggebend ist und warum Datenqualität über Erfolg oder Misserfolg entscheidet.
Ballungszentren finden
Stellen Sie sich eine Landkarte vor. Auf dieser Landkarte sind sehr viele Punkte eingezeichnet, und jeder Punkt steht für einen einzelnen Menschen, der irgendwo lebt. Manche Punkte liegen weit auseinander, manche hingegen dichter zusammen, und an manchen Stellen sammeln sich so viele Punkte, dass man sofort erkennt: Dort liegt ein Ballungsraum, dort ist eine Stadt oder eine Siedlung. Und die Aufgabe, die wir jetzt lösen wollen, klingt einfach: Wir wollen diese Ballungszentren finden (also die Orte, an denen sich viele Menschen häufen) – und zwar automatisiert. Genau hier kommt k-Means ins Spiel. Der Algorithmus macht nämlich genau das: Er sucht Gruppen in Daten, sogenannte Cluster.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.
KI verstehen in 10 Minuten // deutsch
Wie funktioniert das? Stellen Sie sich vor, wir setzen am Anfang wahllos ein paar Marker auf die Landkarte. Die Anzahl dieser Marker nennen wir k. Also k Marker für k Cluster (da kommt übrigens der erste Teil des Namens des Algorithmus her, deshalb heißt er „k-Means“). Diese Marker platzieren wir zunächst, wie gesagt, zufällig irgendwo. Das bedeutet, am Anfang haben sie noch nichts mit den tatsächlichen Ballungszentren zu tun, sondern sie stehen sozusagen einfach nur irgendwo in der Gegend herum.
Doch jetzt passiert der erste Schritt: Jeder Einwohner, also jeder Punkt auf unserer Karte, sucht sich den Marker aus, der ihr oder ihm am nächsten liegt. Und damit entstehen Gruppen: Jeder Punkt gehört nun zu genau einem Marker. Im zweiten Schritt bewegen wir dann jeden Marker in die Mitte seiner Gruppe. Das heißt, wir schauen uns alle Punkte an, die dem Marker zugeordnet sind, und verschieben ihn dorthin, wo der Durchschnitt liegt. Im Englischen heißt Durchschnitt übrigens mean bzw. im Plural means, und damit wissen Sie jetzt auch, wo der zweite Namensbestandteil des Algorithmus herkommt.
Dann wiederholen wir das Ganze: Jeder Punkt prüft wieder neu, welcher Marker ihm am nächsten liegt, und manche Punkte wechseln anschließend die Gruppe. Die Marker werden dann erneut in die Mitte ihrer jeweiligen Gruppe verschoben. Dieses Vorgehen wiederholt sich dann so lange, bis sich irgendwann nichts mehr ändert. Dann liegt das Ergebnis vor: Die Marker liegen genau dort, wo sich die Ballungszentren befinden.
Viele KI-Algorithmen arbeiten nicht deterministisch
Das Spannende ist: Dieses Verfahren funktioniert erstaunlich gut, obwohl wir am Anfang zufällige Startpunkte gewählt haben. Aber (und das ist wichtig): Diese Zufälligkeit hat natürlich einen gewissen Einfluss. Denn je nachdem, wo die Marker am Anfang stehen, können sich die Ergebnisse am Ende durchaus unterscheiden. Manchmal landen sie in sehr ähnlichen Positionen, manchmal aber auch in deutlich unterschiedlichen.
Genau hier liegt die erste wichtige Erkenntnis: KI ist nicht immer deterministisch. Gleiche Daten können zu unterschiedlichen Ergebnissen führen, und zwar einfach nur deshalb, weil die Startbedingungen anders waren. Das bedeutet: Zufall spielt eine Rolle und ist ein Faktor, der sich in sehr vielen Bereichen der KI wiederfindet. Wenn man das einmal verstanden hat, dann begreift man, dass KI nicht mit absoluten Wahrheiten arbeitet, sondern mit Wahrscheinlichkeiten und Annäherungen.
Ein komplexeres Beispiel
Nun können wir das Ganze aber noch ein bisschen komplexer machen: Stellen Sie sich vor, wir hätten keine Landkarte mit Einwohnern, sondern ein Whiteboard, auf das wir alle unseren persönlichen Lieblingssong schreiben. Irgendwohin, wo gerade Platz ist. Jeder Song ist wieder ein Datenpunkt. Und unsere Aufgabe lautet wieder: Wir wollen Gruppen bilden. Wir wollen herausfinden, welche Songs sich ähneln und welche sich unterscheiden. Doch nun wird es spannend, denn anders als bei der Landkarte gibt es hier keine natürliche räumliche Position. Wenn ich einen Song auf dem Whiteboard ganz links hinschreibe und einen anderen ganz rechts, dann sagt das über ihre Ähnlichkeit überhaupt nichts aus. Der Abstand auf dem Whiteboard hat keinerlei Bedeutung.
Das heißt, wir müssen Kriterien definieren, nach denen wir die Songs vergleichen wollen. Genau das macht k-Means, oder besser gesagt: Das müssen wir vorher festlegen, damit k-Means überhaupt etwas Sinnvolles machen kann. Welche Kriterien könnten das bei Musik nun sein? Da wäre zum Beispiel das Tempo, gemessen in Beats pro Minute (also BPM). Ein anderer Faktor wäre vielleicht die durchschnittliche Lautstärke, gemessen in Dezibel. Oder die Klangfarbe, also welche Instrumente dominieren. Oder ob es Gesang gibt oder nicht. Sie können sich leicht vorstellen, dass es noch zahlreiche andere Faktoren gibt, die man in Betracht ziehen könnte.
Das Interessante ist nun: Je nachdem, welche Kriterien wir wählen, entstehen völlig unterschiedliche Cluster. Wenn wir nur auf das Tempo schauen, dann landen ein schneller Techno-Track und ein klassisches Stück im Presto-Tempo plötzlich im selben Cluster, obwohl sie musikalisch nicht allzu viel miteinander gemeinsam haben. Wenn wir dagegen aber nach Lautstärke gehen, dann stehen vielleicht eine ruhige Jazz-Ballade und ein Ambient-Track nebeneinander. Und wenn wir den Gesang als Kriterium nehmen, dann tauchen auf einmal eine Arie aus einer Oper und ein Rocksong in derselben Gruppe auf.
Damit kommen wir zur zweiten Erkenntnis: Die Ergebnisse hängen immer davon ab, welche Merkmale wir auswählen. Daten sind nicht einfach „die Wahrheit“. Sie sind vielmehr eine Sammlung von Eigenschaften, die wir interpretieren und gewichten müssen. Erst durch unsere Entscheidung, welche Dimensionen wir betrachten, bekommt das Clustering eine Bedeutung. Dieser Punkt zeigt sich bei komplexeren Daten noch weitaus stärker. Denn wenn wir über Sprachmodelle oder über Bilderkennung sprechen, dann geht es nicht mehr nur um zwei Aspekte wie beispielsweise Tempo und Lautstärke, sondern um hunderte oder gar tausende Merkmale, die man gar nicht mehr intuitiv erfassen kann. Aber das Prinzip bleibt dasselbe: Was am Ende herauskommt, hängt davon ab, wie wir die Daten beschreiben.
Einheiten, Skalen & Co.
Wenn wir noch kurz bei den Songs bleiben, dann wird noch ein weiteres Problem sichtbar: Manche Eigenschaften lassen sich nämlich problemlos messen, sind aber überhaupt nicht vergleichbar. Nehmen Sie zum Beispiel die Länge eines Songs in Sekunden und das Tempo in Beats pro Minute. Beides sind Zahlen, beide (vermutlich) dreistellig, aber die Bedeutung ist völlig verschieden. Ein Song mit 240 Sekunden Dauer ist nicht vergleichbar mit einem Song, der 240 Beats pro Minute hat. Trotzdem würde ein Algorithmus diese Werte ohne weitere Anpassung unter Umständen einfach nebeneinanderlegen, und schon entsteht ein schiefes Bild.
Das Gleiche gilt auch für Skalen. Das Tempo in BPM ist eine lineare Skala: 90 BPM sind 30 BPM schneller als 60 BPM, und 120 BPM sind nochmal 30 BPM schneller als 90 BPM. Der Unterschied bleibt immer gleich. Bei Lautstärke in Dezibel ist das aber ganz anders. Auch dort ist der Unterschied zwischen 60 dB und 90 dB rein rechnerisch 30 dB. Aber in Wirklichkeit bedeutet dieser Unterschied eine gewaltige Vervielfachung der Lautstärke, denn hier haben wir es mit einer logarithmischen Skala zu tun. Und wenn wir nun Werte dieser Skalen direkt vergleichen, dann hat das Ergebnis keinerlei Aussagekraft.
Deshalb müssen Daten üblicherweise zunächst normalisiert werden, das heißt, damit die Daten überhaupt sinnvoll verarbeitet werden können, müssen sie in vergleichbare Größenordnungen gebracht werden. Man sorgt also dafür, dass kein einzelnes Kriterium nur deshalb dominiert, weil es in einem größeren Zahlenbereich liegt. Ohne Normalisierung könnte zum Beispiel die Länge eines Songs alle anderen Eigenschaften überdecken, weil die Sekundenwerte oft größer sind als das Tempo oder die Lautstärke.
Hinzu kommt noch eine weitere Herausforderung, nämlich kategoriale Werte. Stellen Sie sich vor, wir wollen berücksichtigen, ob ein Song Gesang enthält oder nicht. Das ist ein Ja-Nein-Kriterium, das man leicht als Null und Eins kodieren kann. Aber sobald es mehr als zwei Werte gibt, etwa beim Genre, wird es schwieriger. Denn dann muss man sehr sorgfältig darauf achten, wie Abstände zwischen den Werten interpretiert werden, damit der Algorithmus daraus keine falschen Schlüsse zieht.
Damit sind wir bei der dritten Erkenntnis: Ergebnisse hängen nicht nur von der Wahl der Kriterien ab, sondern genauso stark von deren Skalierung, Normalisierung und Aufbereitung. Wenn die Daten unsauber sind oder die Skalen nicht vergleichbar, dann kann kein Algorithmus der Welt ein sinnvolles Ergebnis liefern.
Datenqualität ist essenziell
Aus diesen Gründen ist Datenqualität für mich persönlich ein so wichtiges Thema. Sie ist nicht irgendwelches schmückendes Beiwerk, sondern sie ist die Grundlage. Ohne gute Datenvorbereitung bleibt jede noch so komplexe KI ein reines Glücksspiel. Deswegen erwähne ich auch immer wieder, dass Event-Sourcing eine hervorragende Basis für KI sein kann, weil es saubere und nachvollziehbare Daten von Anfang an bereitstellt.
Wenn wir an dieser Stelle einmal kurz innehalten, dann sehen wir: Selbst ein so einfacher Algorithmus wie k-Means zeigt bereits eine ganze Menge an Prinzipien, die auch in komplexeren KI-Systemen gelten:
- Zufall beeinflusst die Ergebnisse.
- Die Auswahl der Kriterien bestimmt, was wir überhaupt messen.
- Die Skalierung, die Normalisierung und nicht zuletzt auch die Qualität der Daten entscheiden darüber, ob das Ergebnis sinnvoll oder völlig verzerrt ist.
Wenn wir das auf größere Systeme übertragen (also neuronale Netze, Sprachmodelle, Bilderkennung und so weiter), dann wird sofort klar, warum diese Verfahren so schwer zu durchschauen sind. Es gibt nicht mehr nur drei oder vier Kriterien wie Tempo, Lautstärke oder Songlänge, sondern plötzlich hunderte, tausende, manchmal Millionen von Dimensionen. Und jede Dimension beeinflusst das Ergebnis, aber niemand kann noch nachvollziehen, welche genau in welchem Maß ausschlaggebend ist.
Die Komplexität explodiert
Mit anderen Worten: Die Grundidee bleibt gleich, aber die Komplexität explodiert. Bei k-Means im zwei- oder dreidimensionalen Raum können Sie (im wahrsten Sinn des Wortes) noch sehen, wie sich die Marker verschieben, wie sich die Cluster bilden und warum bestimmte Punkte augenscheinlich zusammengehören. Bei neuronalen Netzen laufen nun zwar dieselben Mechanismen ab, aber so hochdimensional, dass man sich das nicht mehr vorstellen kann. Nähe und Abstand verlieren hier ihre intuitive Bedeutung, weil wir Menschen uns solche Räume nicht mehr vor Augen führen können.
Die Konsequenz daraus ist entscheidend: KI findet keine objektive Wahrheit, KI erkennt lediglich Strukturen, die in den Daten vorhanden sind, und bietet uns eine Annäherung und eine Wahrscheinlichkeit. Mehr Rechenleistung, größere Modelle und mehr Daten ändern dabei nichts am Grundprinzip. Sie verbessern zwar die Ergebnisse, machen sie stabiler und oft erstaunlich präzise, aber die Basis bleibt: Es sind Muster in Daten, keine absoluten Wahrheiten.
Aus diesem Grund ist es so wichtig, dass wir KI nicht blind vertrauen, sondern verstehen, wie sie arbeitet. Dass wir begreifen, dass das, was wie Intelligenz wirkt, in Wirklichkeit lediglich das Erkennen von Wahrscheinlichkeiten in einem Raum voller Datenpunkte ist. Wer das verstanden hat, die oder der kann Ergebnisse richtig einordnen, und das ist oft viel wertvoller, als sie einfach nur zu konsumieren.
Die entscheidenden Fragen
Nun waren das, was wir uns in diesem Artikel angeschaut haben, zwei sehr einfache Beispiele. In der Praxis sind die Daten natürlich nicht so schön übersichtlich wie eine Landkarte oder wie eine kleine Sammlung von Songs. Sie sind weitaus komplexer, vielschichtiger und oft voller Widersprüche. Außerdem sind üblicherweise auch die Anforderungen deutlich höher: Es reicht nicht, dass ein Algorithmus „irgendwie“ funktioniert, sondern er muss nachvollziehbar, zuverlässig und in eine bestehende Systemlandschaft integrierbar sein.
Und genau hier wird es spannend: Denn die eigentliche Herausforderung liegt nicht primär im Algorithmus selbst, sondern in der Architektur, die ihn umgibt.
- Woher kommen die Daten?
- Wie werden sie aufbereitet?
- Wie stellen wir sicher, dass die Ergebnisse nicht nur in einem Experiment gut aussehen, sondern auch im Alltag tragfähig sind?
All das sind die Fragen, an denen viele KI-Projekte scheitern, und genau das sind die Fragen, die man beantworten muss, wenn man KI wirklich produktiv einsetzen will. Denn am Ende geht es eben nicht nur darum, einen Algorithmus zu verstehen, sondern darum, ihn zielgerichtet und lösungsorientiert einsetzen zu können.
(mai)
Entwicklung & Code
Visual Studio Code 1.105 erweitert KI-Chat um vollqualifizierte Tool-Namen
Mit der September-2025-Version von Visual Studio Code führt Microsoft eine Reihe von Neuerungen ein, darunter erweiterte Chat-Funktionen und vollqualifizierte Tool-Namen sowie einen MCP-Marktplatz. Entwicklerinnen und Entwickler erhalten zudem neue Möglichkeiten zur KI-gestützten Konfliktlösung und verbesserte Authentifizierungsoptionen.
Chat-System erhält umfangreiche Neuerungen
Das Chat-System von Visual Studio Code 1.105 führt vollqualifizierte Tool-Namen ein, um Konflikte zwischen integrierten Tools und solchen von MCP-Servern oder Extensions zu vermeiden. Die Namen der Tools verweisen nun unmittelbar auf den MCP-Server, die Erweiterung oder die Werkzeugsammlung, zu der sie gehören. Statt codebase
verwenden Entwickler nun search/codebase
, statt list_issues
nutzen sie github/github-mcp-server/list_issues
. Laut Microsoft hilft dies auch beim Auffinden fehlender Extensions oder MCP-Server.
Eine Code Action unterstützt bei der Migration zu den qualifizierten Tool-Namen.
(Bild: Microsoft)
Für benutzerdefinierte Modelle hat Microsoft die Edit-Tools verbessert und einen Lernmechanismus zur Auswahl optimaler Tool-Sets eingeführt. Bei OpenAI-kompatiblen Modellen lässt sich die Liste der Edit-Tools über die Einstellung github.copilot.chat.customOAIModels
konfigurieren. Die Unterstützung für verschachtelte AGENTS.md-Dateien in Unterordnern des Arbeitsbereichs ist als experimentelle Funktion verfügbar. Dies ermöglicht spezifischere Kontexte und Anweisungen für verschiedene Codebereiche, etwa unterschiedliche Vorgaben für Frontend- und Backend-Code. Die Funktion lässt sich über die Einstellung chat.useNestedAgentsMdFiles
aktivieren.
Benachrichtigungen des Betriebssystems informieren nun über eingehende Chat-Antworten, wenn das VS Code-Fenster nicht im Fokus steht. Die Benachrichtigung enthält eine Vorschau der Antwort und bringt bei Auswahl den Chat-Input in den Fokus. Das Verhalten steuert die Einstellung chat.notifyWindowOnResponseReceived
. In Visual Studio Code 1.105 stehen zudem neue LLMs zur Verfügung: GPT-5-Codex von OpenAI, optimiert für agentisches Coding, und Claude Sonnet 4.5 von Anthropic für Coding und Real-World-Agenten. Die Auswahl erfolgt über den Modell-Picker im Chat.
MCP-Marktplatz als Vorschau-Feature
Die neue Version des kostenlosen Code-Editors stellt erstmals einen MCP-Marktplatz in der Extensions-Ansicht bereit, der das Durchsuchen und Installieren von MCP-Servern direkt im Editor ermöglicht. Der Marktplatz nutzt die GitHub MCP Registry als Datenquelle. Entwickler können MCP-Server über den @mcp-Filter, die Dropdown-Auswahl „MCP Servers“ oder die direkte Namenssuche finden. Die Funktion ist standardmäßig deaktiviert und lässt sich über chat.mcp.gallery.enabled
aktivieren. Laut Microsoft befindet sich das Feature noch in der Vorschau-Phase – etwaige Unzulänglichkeiten beim Verwenden seien daher nicht auszuschließen.
Beim Senden von Chat-Nachrichten starten MCP-Server nun automatisch. VS Code vermeidet in diesem Fall störende Dialoge und zeigt stattdessen Indikatoren im Chat an, wenn ein Server Aufmerksamkeit benötigt. Die Einstellung chat.mcp.autostart
steuert das Verhalten.
Verbessert hat das VS-Code-Entwicklungsteam zudem die Darstellung von MCP-Ressourcen aus Tools: Der Editor fügt standardmäßig eine Vorschau des Ressourceninhalts hinzu und gibt Anweisungen zum Abrufen vollständiger Inhalte, was die Modell-Performance bei der Tool-Nutzung steigern soll. Darüber hinaus wurden einige MCP-Spezifikations-Updates implementiert: SEP-973 ermöglicht benutzerdefinierten Icons für Server, Ressourcen und Tools. SEP-1034 erlaubt Standard-Werte bei der Elicitation-Nutzung.
Weitere Verbesserungen für Entwickler
Visual Studio Code 1.105 führt KI-gestützte Lösung von Merge-Konflikten ein. Bei Dateien mit Git-Merge-Konflikt-Markierungen erscheint eine neue Aktion in der unteren rechten Editor-Ecke, die den Chat öffnet und einen agentischen Ablauf mit Merge-Base und Änderungen beider Branches als Kontext startet.
Das runTests-Tool im Chat unterstützt nun Test-Code-Coverage-Berichte an den Agenten, was die Generierung und Verifikation von Tests ermöglicht, die den gesamten Code abdecken. Für lang laufende Tasks zeigt VS Code OS-Benachrichtigungen bei Abschluss an, wenn das Fenster nicht im Fokus steht. Die Einstellung task.notifyWindowOnTaskCompletion
steuert dieses Verhalten.
Alle weiteren Informationen zu Visual Studio Code 1.105 lassen sich dem Ankündigungsbeitrag entnehmen.
Lesen Sie auch
Python in Visual Studio Code: Verbesserungen für Python Environments
Nicht nur den Sourcecode-Editor selbst, sondern auch die Python-Erweiterungen hat Microsoft mit einem Update versehen. Im Oktober-Release (während bei Visual Studio Code der Vormonat namensgebend ist, richtet sich die Python-Erweiterung nach dem aktuellen) widmet sich das Entwicklungsteam insbesondere den Verbesserungen der Erweiterung Python Environments. Das Update verspricht unter anderem verbesserte Leistung und Zuverlässigkeit bei der Arbeit mit Conda-Umgebungen – Code lässt sich nun direkt ohne conda run
starten. Auch gelegentlich auftretende Abstürze beim Ausführen von Python-Dateien, die input() verwenden, wurden korrigiert. Die Erweiterung aktualisiert nun auch automatisch die Umgebungsmanager beim Erweitern von Baumknoten, sodass die Umgebungsliste ohne weitere Maßnahmen auf dem neuesten Stand bleibt.
Weitere Informationen zu den Updates für Python in VS Code liefert ein Beitrag auf Microsofts Entwicklerblog.
(map)
Entwicklung & Code
So exakt, wie die Bahn pünktlich ist: Ansprüche deutscher Firmen an KI-Systeme
76 Prozent der Datenverantwortlichen aus deutschen Unternehmen haben im vergangenen Jahr geschäftliche Probleme oder Krisen durch KI-Halluzinationen oder ungenaue KI-Antworten erlebt. Dabei haben 56 Prozent ein gekauftes KI-Agenten-System wegen mangelhafter Performance aufgegeben. 78 Prozent glauben sogar, dass die Chefetage im Unternehmen die Genauigkeit der KI-Systeme überschätzen würde. In allen drei Bereichen liegen deutsche Unternehmen damit deutlich über dem internationalen Durchschnitt – der liegt bei 59 Prozent bei den Geschäftsproblemen, bei 45 Prozent bei den mangelhaften Systemen und 68 Prozent bei der CEO-Einschätzung der Genauigkeit.
Das geht aus einer Umfrage unter dem Titel Global AI Confessions des US-amerikanischen Marktforschungsunternehmens The Harris Poll hervor. Auftraggeber der Befragung ist Dataiku, ein Anbieter einer Plattform für KI- und ML-Dienste. In 812 Online-Interviews beantworteten 203 Datenverantwortliche aus den USA, 103 aus Deutschland, 103 aus Japan, 102 aus Großbritannien, 101 aus Frankreich, 100 aus den Vereinigten Arabischen Emiraten, 50 aus Singapur und 50 aus Südkorea die Fragen der Marktforscher. Alle Teilnehmer arbeiten für große Unternehmen mit einem Jahresumsatz von mehr als 1 Milliarde US-Dollar oder den regionalen Äquivalenten. Die Umfrageteilnehmer sind auf Vice-President-, Director-, Managing Director- oder C-Suite-Ebene in Daten-, Analytics- oder KI-relevanten Funktionen tätig.
Deutsche nehmen es nicht so genau
Von den deutschen Befragten verlangten nur vier Prozent eine Genauigkeit der Systeme von 95 bis 100 Prozent, international waren es 15 Prozent. 53 Prozent der Deutschen gaben sich mit weniger als 80 Prozent Genauigkeit bei KI-gestützten Entscheidungen zufrieden, bei einem internationalen Durchschnitt von 38 Prozent. Die Marktforscher sehen hier eine Verbindung zur deutschen Höchstrate der Projekte, die an geringer Qualität scheitern.
Knapp 60 Prozent der Befragten gaben weiterhin an, nur auf eine Katastrophe durch KI-Halluzinationen in geschäftskritischen Workflows zu warten. Ebenso viele fürchten finanzielle Risiken durch unkontrollierte API- und Service-Kosten durch KI-Agenten. Dabei verlangen nur 17 Prozent der deutschen Datenverantwortlichen eine vollständige End-to-End-Nachvollziehbarkeit von Multi-Agent-Workflows (global: 20 Prozent). 34 Prozent der Teilnehmer aus Deutschland gaben an, dass ihre Teams weniger als die Hälfte der KI-Entscheidungen im Sinne aktueller regulatorischer Auflagen nachverfolgen könnte. 58 Prozent hätten sogar KI-Agenten-Deployments wegen mangelnder Erklärbarkeit verzögert oder blockiert. Nur fünf Prozent der Gesamtzahl der international Befragten gab an, die Entscheidungen ihrer KI-Systeme zu 100 Prozent erfassen zu können.
Von den Deutschen befürchten 63 Prozent, dass Kunden Schäden durch ihre KI-Agenten entstehen könnten, während sogar 69 Prozent glauben, dass KI-Systeme ihren Mitarbeitern schaden könnten. Mögliche Security-Bedenken bespricht die Umfrage nicht weiter im Detail – erst kürzlich kam heraus, dass selbst der Branchenführer OpenAI nicht imstande ist, persönliche Daten aus E-Mails seiner Nutzer vor Angreifern zu schützen und die Kenntnis eines entsprechenden Exploits monatelang verschwieg.
Die Geschäftsführung überschätzt die Technik
In der Pressemitteilung zur Umfrage spricht Dataiku von einer „Kluft zwischen C-Suite-Erwartungen und technischer Realität“. Diese sei in Deutschland besonders ausgeprägt: Fast 80 Prozent der Datenverantwortlichen sei überzeugt, dass ihre Chefetage die Genauigkeit der KI-Systeme überschätzen würde. International lag dieser Eindruck bei 68 Prozent. 82 Prozent der Deutschen gaben an, dass die Geschäftsführung die Zeit und Schwierigkeiten, KI-Systeme zur Produktionsreife zu bringen, unterschätzt. Von den Befragten erwarten etwa 70 Prozent, dass ein CEO bis Ende 2026 aufgrund einer gescheiterten KI-Strategie oder einer KI-induzierten Krise entlassen wird. Im globalen Durchschnitt erwarten dies 56 Prozent der Befragten.
Eine ähnliche Umfrage unter CEOs aus dem März 2025 ergab, dass unter 100 deutschen CEOs ebenfalls knapp 70 Prozent mit Entlassungen wegen KI-Projekten rechnet. Aus der CEO-Umfrage ging außerdem hervor, dass 95 Prozent der deutschen Geschäftsführer den Eindruck haben, KI-Agenten könnten bei Geschäftsentscheidungen einen gleichwertigen oder besseren Rat geben als ein menschliches Vorstandsmitglied. 76 Prozent der Datenverantwortlichen teilen die Auffassung, dass KI-generierten Geschäftsempfehlungen in ihren Unternehmen mehr Gewicht zukommt als denen von menschlichen Mitarbeitenden. Auch hier ist Deutschland Umfrageführer, wobei der Durchschnitt bei 69 Prozent liegt.
Die Umfragen unter den CEOs und den Datenverantwortlichen finden sich hier und hier. Der Zugriff erfordert die Angabe einer E-Mail-Adresse.
(pst)
Entwicklung & Code
Uno Platform 6.3 bringt Preview-Support für .NET 10.0 und Visual Studio 2026
Uno Platform 6.3 ist mit Preview-Support für .NET 10.0 erschienen. Das quelloffene Cross-Platform-GUI-Framework für .NET bereitet sich nicht nur auf das für November geplante .NET-Release vor, sondern bietet auch schon Kompatibilität mit Visual Studio 2026.
Neues Zielframework .NET 10.0
In Uno Platform besteht nun neben dem Support für die aktuelle, stabile Version .NET 9.0 auch Preview-Support für .NET 10.0 Release Candidate 1. Am 11. November 2025 soll laut Microsoft das finale Release mit Long-Term Support erscheinen. Im Wizard der Uno Platform lässt sich .NET 10.0 direkt als Zielframework auswählen:
Uno Platform 6.3 bietet .NET 10.0 im Wizard zur Auswahl an.
(Bild: Uno Platform)
Dabei ist zu beachten, dass das Zusammenspiel mit .NET 10.0 als Ziel derzeit nicht für die Produktion geeignet ist. Stabile Produktionsapps sollen bis zum offiziellen .NET-10.0-Release bei .NET 9.0 verbleiben. Für die Migration auf Version 10.0 bietet das Uno-Platform-Team einen Migrationsguide an.
(Bild: coffeemill/123rf.com)
Verbesserte Klassen in .NET 10.0, Native AOT mit Entity Framework Core 10.0 und mehr: Darüber informieren .NET-Profis auf der Online-Konferenz betterCode() .NET 10.0 am 18. November 2025. Nachgelagert gibt es sechs ganztägige Workshops zu Themen wie C# 14.0, künstliche Intelligenz und Web-APIs.
Der Support für .NET 8.0 ist unterdessen entfallen. Dabei handelt es sich um das derzeit aktuelle LTS-Release mit Support bis November 2026. Jedoch hat .NET MAUI 8.0 bereits im Mai 2025 sein End-of-Life-Datum erreicht, weshalb Uno Platform sich von dieser .NET-Version abwendet.
Bereit für Visual Studio 2026
Visual Studio 2026, die nächste Hauptversion von Microsofts Entwicklungsumgebung, ist in einem Insider-Programm verfügbar. Auch Uno Platform bereitet sich auf die neue Version vor und ist mit ihren Updates kompatibel, darunter das neue .slnx-Format als verständlicherem Ersatz für .sln-Dateien. Dabei ist Uno Platform 6.3 auch weiterhin mit Visual Studio 2022 kompatibel, sodass Uno-Platform-User beide Versionen im Einsatz haben können. Ebenso wie der Support für .NET 10.0 ist auch jener für Visual Studio 2026 als Preview gekennzeichnet.
Weitere neue Features in Uno Platform 6.3 gibt es unter anderem für den visuellen Designer Hot Design, der im kostenpflichtigen Uno Platform Studio enthalten ist. Auch sollen grafiklastige Apps mit WebAssembly nun glatter funktionieren und die TabView über verschiedene Zielplattformen hinweg konsistenter und verlässlicher sein.
Alle weiteren Details zu Uno Platform 6.3 hält der Blogeintrag zur Ankündigung bereit.
(mai)
-
UX/UI & Webdesignvor 2 Monaten
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 1 Monat
Adobe Firefly Boards › PAGE online
-
Social Mediavor 2 Monaten
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 2 Monaten
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 1 Monat
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 4 Wochen
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Apps & Mobile Entwicklungvor 3 Monaten
Firefox-Update 141.0: KI-gestützte Tab‑Gruppen und Einheitenumrechner kommen
-
Online Marketing & SEOvor 2 Monaten
So baut Googles NotebookLM aus deinen Notizen KI‑Diashows