Connect with us

Entwicklung & Code

KI-Überblick 3: Was sind neuronale Netze – und wie funktionieren sie?


Neuronale Netze gelten als Herzstück des modernen maschinellen Lernens. Sie sind die Grundlage zahlreicher Anwendungen – von der Spracherkennung über die Bildverarbeitung bis hin zu generativen Sprachmodellen wie GPT-5.

Oft klingen sie nach einem hochkomplexen, schwer durchschaubaren Konstrukt. Dabei basieren sie auf einem vergleichsweise einfachen Prinzip: der Verknüpfung vieler kleiner, gleichförmiger Recheneinheiten zu einem Netz, das in der Lage ist, selbst hochdimensionale Zusammenhänge zu modellieren.


the next big thing – Golo Roden

the next big thing – Golo Roden

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.

Dieser Beitrag erläutert die Grundstruktur neuronaler Netze, erklärt die wichtigsten Begriffe und zeigt, warum bereits einfache Varianten erstaunlich leistungsfähig sein können.

Neuronale Netze wurden ursprünglich von der Struktur des menschlichen Gehirns inspiriert. In der Biologie bestehen Gehirne aus Neuronen, die über Synapsen miteinander verbunden sind und elektrische Signale verarbeiten. Diese Analogie diente als Vorbild – allerdings ist sie oberflächlich zu verstehen. Die „Neuronen“ in einem künstlichen neuronalen Netz sind einfache mathematische Funktionen, die Eingabewerte gewichten, aufsummieren und das Ergebnis durch eine sogenannte Aktivierungsfunktion schicken. Es handelt sich also nicht um echte Nachbildungen biologischer Vorgänge, sondern um abstrahierte Rechenelemente.

Ein künstliches neuronales Netz besteht aus mehreren Schichten:

  • Eingabeschicht (Input Layer): Die Eingabeschicht nimmt die Rohdaten auf. Jede Eingabevariable entspricht einem Knoten in dieser Schicht.
  • Verborgene Schichten (Hidden Layers): Verborgene Schichten bestehen aus Neuronen, die die Daten transformieren. Je nach Anzahl und Aufbau dieser Schichten spricht man von flachen oder tiefen Netzen.
  • Ausgabeschicht (Output Layer): Die Ausgabeschicht gibt das Ergebnis des Netzes zurück – zum Beispiel eine Klassifikation oder einen numerischen Wert.

Jedes Neuron einer Schicht ist mit den Neuronen der nächsten Schicht verbunden. Diese Verbindungen tragen sogenannte Gewichte, die während des Trainings angepasst werden. Zusätzlich besitzt jedes Neuron einen Bias, also eine Verschiebung, die unabhängig von den Eingaben wirkt.

Ein typisches Neuron berechnet eine gewichtete Summe seiner Eingaben, addiert den Bias und wendet dann eine Aktivierungsfunktion an. Diese Funktion entscheidet, ob und wie stark das Neuron „feuert“. Gängige Aktivierungsfunktionen sind die ReLU-Funktion (Rectified Linear Unit) oder die Sigmoid-Funktion.

Ein einzelnes Neuron kann nur sehr einfache Abbildungen realisieren – etwa eine lineare Trennung zwischen zwei Klassen. Erst durch die Kombination vieler Neuronen in mehreren Schichten entsteht ein Netz, das auch komplexe, nicht lineare Zusammenhänge modellieren kann. Jede Schicht lernt dabei gewissermaßen eine andere Abstraktionsebene: In einem Netz zur Bilderkennung erkennen die ersten Schichten möglicherweise einfache Kanten, die mittleren geometrische Formen und die letzten komplexe Objekte wie Gesichter oder Schriftzeichen.

Diese Hierarchiebildung ist ein entscheidender Erfolgsfaktor neuronaler Netze. Sie macht es möglich, dass Systeme mit vergleichsweise wenig explizitem Wissen aus Beispieldaten lernen, was relevante Merkmale sind.

Das Training eines neuronalen Netzes erfolgt in zwei Schritten: dem Vorwärtsdurchlauf (Forward Propagation) und der Rückpropagierung (Backpropagation).

  1. Vorwärtsdurchlauf: Die Eingabedaten werden Schicht für Schicht durch das Netz geleitet, bis eine Ausgabe entsteht.
  2. Fehlerberechnung: Die Ausgabe wird mit dem erwarteten Ergebnis verglichen. Daraus ergibt sich ein Fehlerwert (zum Beispiel durch eine Verlustfunktion wie die mittlere quadratische Abweichung).
  3. Rückpropagierung: Der Fehler wird von der Ausgabeschicht rückwärts durch das Netz propagiert. Dabei werden die Gewichte schrittweise so angepasst, dass der Fehler beim nächsten Durchlauf kleiner wird. Dieser Prozess basiert auf Gradientenverfahren und wiederholt sich über viele Iterationen.

Dieser Ablauf ist rein rechnerisch. Das Netz „versteht“ dabei nichts im menschlichen Sinn – es passt lediglich Zahlenwerte an, um eine mathematische Funktion zu approximieren, die möglichst gut zu den Trainingsdaten passt.

Neuronale Netze sind leistungsfähig, aber nicht universell einsetzbar. Sie benötigen typischerweise große Mengen an Trainingsdaten, um verlässlich zu funktionieren. Zudem sind sie anfällig für Overfitting, also die Überanpassung an Trainingsdaten, wodurch sie bei neuen Eingaben schlechter generalisieren.

Ein weiterer Kritikpunkt ist die eingeschränkte Erklärbarkeit: Gerade tiefe Netze sind oft schwer zu analysieren, weil nicht klar ist, welche internen Repräsentationen sie gelernt haben. Deshalb wird an Explainable-AI-Verfahren geforscht, die mehr Transparenz ermöglichen sollen.

In der nächsten Folge wenden wir uns dem Deep Learning zu – also der Frage, was neuronale Netze „tief“ macht, warum Tiefe oft hilfreich ist und wie typische Architekturen wie Convolutional Neural Networks (CNNs) und Recurrent Neural Networks (RNNs) funktionieren. Damit rücken wir ein Stück näher an die Methoden heran, die viele moderne KI-Anwendungen ermöglichen.


(rme)



Source link

Entwicklung & Code

Mein Scrum ist kaputt #140: Shape Up statt Scrum – zur Produktentwicklung


ShapeUp ist ein willkommener Gegenentwurf zum klassischen Scrum und bringt frischen Wind in die agilen Diskussionen. Es ist ein Ansatz zur Produktentwicklung, den Basecamp, heute 37 Signals, entwickelt und den Ryan Singer im gleichnamigen Buch beschrieben hat.

Es versteht sich nicht als Framework wie Scrum, sondern als Set an Prinzipien und Praktiken, um fokussierter, selbstorganisierter und mit weniger Overhead zu arbeiten. Über dieses Thema sprechen Ina Einemann und Sebastian Bauer mit Klaus Breyer.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Inhalt geladen.


Agile Leadership Conference 2025

Agile Leadership Conference 2025

(Bild: Katsiaryna/stock.adobe.com)

Das Programm der zweitägigen Agile Leadership Conference 2025 steht fest: Der Leadership Day (27.11.25) behandelt das Führen von Teams und Organisationen, während sich der Self Leadership Day (3.12.25) mit Selbstführung und dem aktiven Selbst als Führungskraft beschäftigt.


(mdo)



Source link

Weiterlesen

Entwicklung & Code

software-architektur.tv: Webperformance mit Lucas Dohmen und Lisa Maria Schäfer


In dieser Folge des Videocasts software-architektur.tv sprechen Lucas Dohmen und Lisa Maria Schäfer über Webperformance. Sie klären, was sich dahinter verbirgt und warum das Thema wichtig ist – und zwar für alle, die Webseiten entwickeln. Des Weiteren stellen sie Tools zum Messen der Webperformance vor und geben Impulse, wie man seine Website schneller machen kann.

Lisa Maria Schäfer malt dieses Mal keine Sketchnotes, da sie vor der Kamera ist.

Die Ausstrahlung findet am Freitag, 5. September 2025, live von 13 bis 14 Uhr statt. Die Folge steht im Anschluss als Aufzeichnung bereit. Während des Livestreams können Interessierte Fragen via Twitch-Chat, YouTube-Chat, Bluesky, Mastodon, Slack-Workspace oder anonym über das Formular auf der Videocast-Seite einbringen.

software-architektur.tv ist ein Videocast von Eberhard Wolff, Blogger sowie Podcaster auf iX und bekannter Softwarearchitekt, der als Head of Architecture bei SWAGLab arbeitet. Seit Juni 2020 sind über 250 Folgen entstanden, die unterschiedliche Bereiche der Softwarearchitektur beleuchten – mal mit Gästen, mal Wolff solo. Seit mittlerweile mehr als zwei Jahren bindet iX (heise Developer) die über YouTube gestreamten Episoden im Online-Channel ein, sodass Zuschauer dem Videocast aus den Heise Medien heraus folgen können.

Weitere Informationen zur Folge finden sich auf der Videocast-Seite.


(mdo)



Source link

Weiterlesen

Entwicklung & Code

Microsoft gibt 6502 BASIC frei


Microsoft hat den Quellcode seines historischen 6502-BASIC-Interpreters aus dem Jahr 1976 erstmals offiziell als Open Source freigegeben und somit einen wichtigen Beitrag zur Bewahrung der Geschichte der Heimcomputer geleistet. Die Software wurde ursprünglich von Bill Gates und Ric Weiland für den beliebten 8-Bit-Prozessor MOS 6502 entwickelt. Später lag sie den einflussreichen Computern Commodore PET, VIC-20 und Commodore 64 zugrunde – Millionen von Nutzern lernten damit programmieren und prägen bis heute die Kulturszene rund ums Retro-Computing.

Die jetzt unter der MIT-Lizenz veröffentlichte Version 1.1 enthält laut Microsoft unter anderem Verbesserungen an der Speicherverwaltung, die 1978 gemeinsam mit Commodore-Entwickler John Feagans umgesetzt wurden. Damit handelt es sich um die Variante, die als BASIC V2 auf dem PET ausgeliefert wurde und bis heute in den ROM-Archiven von Computermuseen und Emulatoren lebt. Der 6955 Zeilen umfassende Assembly-Sourcecode steht ab sofort auf GitHub bereit – samt Unterstützung für verschiedene historische Systeme wie Apple II oder Commodore PET.

Mit an Bord sind außerdem die dokumentierten Easter Eggs von Bill Gates selbst. Denn in den Quellcodes von Microsoft 6502 BASIC sind mehrere versteckte Funktionen verborgen, darunter die berühmten Labels STORDO und STORD0, wie Bill Gates selbst 2010 bestätigte. Besonders bekannt ist das WAIT 6502,1-Kommando, das auf einem Commodore PET mit BASIC V2 das Wort MICROSOFT! auf dem Bildschirm erscheinen lässt – das versteckte Markenzeichen hatte Bill Gates gezielt eingebaut.

Microsoft betont mit der Veröffentlichung die historische Bedeutung des BASIC-Interpreters für die eigenen Anfänge. Gleichzeitig verweist der Konzern in seiner Ankündigung darauf, dass sich die Community – von Museumsarchiven bis hin zu modernen FPGA- und Emulator-Projekten – schon seit Jahrzehnten für dessen Erhalt und praktische Anwendung eingesetzt hat. 2020 hatte Microsoft bereits den GW-BASIC-Interpreter als Open Source veröffentlicht, der aus dem Jahr 1983 stammt und für IBM-kompatible PCs beziehungsweise MS-DOS zum Einsatz kam.


(fo)



Source link

Weiterlesen

Beliebt