Entwicklung & Code
KI-Überblick 4: Deep Learning – warum Tiefe den Unterschied macht
Die bisherigen Beiträge dieser Serie haben gezeigt, dass neuronale Netze aus einfachen Bausteinen bestehen. Erst die Kombination vieler dieser Bausteine in mehreren Schichten ermöglicht jedoch die Durchbrüche, die moderne KI-Systeme prägen. Genau hier setzt das Konzept „Deep Learning“ an: Es beschreibt maschinelles Lernen mit tiefen, also mehrschichtigen, neuronalen Netzen.

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.
Deser Beitrag klärt, was „tief“ im Kontext neuronaler Netze bedeutet, warum zusätzliche Schichten die Leistungsfähigkeit erhöhen und welche typischen Architekturen in der Praxis verwendet werden.
Was „deep“ wirklich heißt
Von Deep Learning spricht man, wenn ein neuronales Netz mehrere verborgene Schichten enthält – in der Regel deutlich mehr als zwei oder drei. Jede Schicht abstrahiert die Ausgaben der vorherigen Schicht und ermöglicht so, komplexe Funktionen zu modellieren. Während einfache Netze vor allem lineare und leicht nichtlineare Zusammenhänge erfassen, können tiefe Netze hochdimensionale Strukturen und Muster erkennen.
Die Entwicklung hin zu tieferen Netzen wurde erst durch drei Faktoren möglich:
- Stärkere Rechenleistung – insbesondere durch Grafikkarten (GPUs) und später spezialisierte Hardware wie TPUs.
- Größere Datenmengen, die zum Training genutzt werden können.
- Verbesserte Trainingsverfahren, darunter die Initialisierung von Gewichten, Regularisierungstechniken und optimierte Aktivierungsfunktionen.
Hierarchisches Lernen von Merkmalen
Ein Kernprinzip des Deep Learning ist die hierarchische Merkmalsextraktion. Jede Schicht eines tiefen Netzes lernt, auf einer höheren Abstraktionsebene zu arbeiten:
- Frühe Schichten erkennen einfache Strukturen, zum Beispiel Kanten in einem Bild.
- Mittlere Schichten kombinieren diese zu komplexeren Mustern, etwa Ecken oder Kurven.
- Späte Schichten identifizieren daraus ganze Objekte wie Gesichter, Autos oder Schriftzeichen.
Diese Hierarchiebildung entsteht automatisch aus den Trainingsdaten und macht Deep Learning besonders mächtig: Systeme können relevante Merkmale selbst entdecken, ohne dass Menschen sie mühsam vordefinieren müssen.
Typische Architekturen
Im Deep Learning haben sich verschiedene Architekturen etabliert, die für bestimmte Datenarten optimiert sind.
Convolutional Neural Networks (CNNs) sind spezialisiert auf Bild- und Videodaten. Sie verwenden Faltungsschichten („Convolutional Layers“), die lokale Bildbereiche analysieren und so translationinvariante Merkmale lernen. Ein CNN erkennt beispielsweise, dass ein Auge im Bild ein Auge bleibt, egal wo es sich befindet. CNNs sind der Standard in der Bildklassifikation und Objekterkennung.
Recurrent Neural Networks (RNNs) wurden entwickelt, um Sequenzen wie Text, Sprache oder Zeitreihen zu verarbeiten. Sie besitzen Rückkopplungen, durch die Informationen aus früheren Schritten in spätere einfließen. Damit können sie Zusammenhänge über mehrere Zeitschritte hinweg modellieren. Varianten wie LSTMs (Long Short-Term Memory) und GRUs (Gated Recurrent Units) beheben typische Probleme wie das Vergessen relevanter Informationen.
Autoencoder sind Netze, die Eingaben komprimieren und anschließend wieder rekonstruieren. Sie lernen dabei implizit eine verdichtete Repräsentation der Daten und werden etwa für Anomalieerkennung oder zur Vorverarbeitung genutzt. Erweiterte Varianten wie Variational Autoencoders (VAE) erlauben auch generative Anwendungen.
Diese Architekturen bilden die Grundlage vieler moderner KI-Anwendungen. Sie sind jedoch noch nicht der Endpunkt: In den letzten Jahren haben Transformer klassische RNNs in vielen Bereichen abgelöst, insbesondere in der Sprachverarbeitung. Darum wird es in einer späteren Folge dieser Serie gehen.
Herausforderungen des Deep Learning
Tiefe Netze sind leistungsfähig, bringen aber neue Herausforderungen mit sich:
- Großer Datenhunger: Ohne ausreichend Trainingsdaten tendieren tiefe Modelle zum Überfitting.
- Rechenintensiv: Training und Inferenz erfordern spezialisierte Hardware und hohe Energieaufwände.
- Schwer erklärbar: Mit wachsender Tiefe nimmt die Nachvollziehbarkeit weiter ab, was für viele Anwendungsbereiche problematisch ist.
Trotzdem hat sich Deep Learning als Schlüsseltechnologie für die meisten aktuellen KI-Durchbrüche etabliert.
Ausblick
Die nächste Folge widmet sich den Transformern – der Architektur, die Large Language Models und viele andere moderne Systeme ermöglicht. Sie erläutert, warum klassische RNNs an ihre Grenzen stießen und wie Self-Attention die Verarbeitung von Sprache revolutionierte.
(rme)
Entwicklung & Code
Britisches Urteil: Apple hat App-Käufer abgezockt
Apple hat sein Monopol im App Store für iPhones und iPads missbraucht und jahrelang viel zu hohe Gebühren verrechnet. So urteilt das für England und Wales zuständige Wettbewerbsgericht Competition Apeal Tribunal. Es schreibt Apple umfangreiche Rückerstattungen an Kunden vor, denen in den meisten Fällen zweistellige Pfundbeträge winken. Da es aber Millionen betroffene Kunden gibt, geht es in Summe um hunderte Millionen Pfund. Sollte die Gerichtsentscheidung rechtskräftig werden, ist sie eine empfindlichere Niederlage für Apple, als es dieser Betrag erscheinen lässt.
Weiterlesen nach der Anzeige
Denn das Urteil betrifft den Zeitraum 1. Oktober 2015 bis 15. November 2024, und damit mehr als fünf Jahre vor dem EU-Austritt Großbritanniens. Entsprechend stellen die drei Richter auch auf EU-Recht ab. Ihre einstimmige Entscheidung hat also Vorbildwirkung nicht nur für Schottland und Nordirland, sondern für die gesamte EU. Außerdem läuft seit 2023 beim selben Gericht eine parallele Sammelklage im Namen jener App-Anbieter, die ihre Software sowie In-App-Verkäufe über denselben App Store abwickeln mussten. Ein Urteil zugunsten Apples in dem Parallelverfahren wäre eine Überraschung.
Das am Donnerstag ergangene Urteil geht auf eine bereits 2021 erhobene Sammelklage der Britin Dr. Rachael Kent zurück. Laut eigener Angabe ist sie die erste Frau, die je eine Sammelklage in Großbritannien angestrengt hat. Die Wissenschaftlerin forscht im Bereich digitale Kultur und Gesellschaft und lehrt am King’s College London. Als Besitzerin eines iPhones konnte sie Apps für ihr Handy ausschließlich über Apples App Store beziehen, weil Apple seit jeher alternative Vertriebswege verbietet. Dieses Monopol macht die Sache teuer, denn Apple verrechnet regelmäßig 30 Prozent Gebühren. Kent ging zu Gericht (Dr. Rachael Kent v Apple Inc and Apple Distribution International Ltd, Az. 1403/7/7/21).
30 Prozent Gebühr „exzessiv und unfair“
Laut Urteilsbegründung hat Apple tatsächlich sein Monopol in zwei Märkten missbraucht: (Ver)Kauf von Apps, sowie Umsätze in Apps. In beiden Märkten hat Apple jeglichen Wettbewerb ausgeschlossen. Apple argumentierte, das sei durch Leistungswettbewerb gerechtfertigt, schließlich seien iPhones und iPads eine feine Sache. „Apples Verhalten kann in diesem Zusammenhang nicht als Leistungswettbewerb gerechtfertigt werden, da Apple überhaupt nicht im Wettbewerb steht“, heißt es in der Zusammenfassung der fast 400 Seiten dicken Urteilsausfertigung. Verschärfend komme hinzu, dass Apple auch für In-App-Käufe zur Nutzung seines Zahlungsabwicklungssystems zwinge.
Damit habe Apple mehrfach gegen Artikel 102 des Vertrages über die Arbeitsweise der Europäischen Union sowie gegen Kapitel II des britischen Wettbewerbsgesetzes verstoßen. „Apple hat seine Marktmacht missbraucht, indem es exzessive und unfaire Preise verlangt hat, in Form von Kommissionen für den Vertrieb von iOS-Apps und für die Zahlungsabwicklung von In-App-Käufen“, heißt es in der Urteilszusammenfassung weiter.
„Mit dem Binnenmarkt unvereinbar und verboten ist die missbräuchliche Ausnutzung einer beherrschenden Stellung auf dem Binnenmarkt oder auf einem wesentlichen Teil desselben durch ein oder mehrere Unternehmen, soweit dies dazu führen kann, den Handel zwischen Mitgliedstaaten zu beeinträchtigen. (…)“
Die Differenz zwischen den verlangten Gebühren und den Kosten sei signifikant und dauerhaft. Das zeige, dass die Preise überhöht sind. Der Tarif sei sowohl für sich genommen unfair, als auch im Vergleich zu den Online-Shops Epic Games‘, Microsofts und Steams.
Weiterlesen nach der Anzeige
Apples Argumente fallen flach
Apple versuchte sich dadurch zu rechtfertigen, dass der Wettbewerbsausschluss zur Erreichung legitimer Ziele notwendig und verhältnismäßig sei. Beides lehnt das Gericht ab. Außerdem meinte Apple, ein einzelner App Store sei effizienter; davon würden Verbraucher in größerem Umfang profitieren, als sie durch die hohen Preise belastet würden. Auch das akzeptiert das Gericht nicht, schließlich schließe Apple jeglichen Wettbewerb in den beiden Märkten von vornherein aus.
Statt 30 Prozent sind laut Urteil maximal zehn Prozent für In-App-Käufe und maximal 17,5 Prozent für App-Käufe gerechtfertigt. Die Differenz habe allerdings nicht nur Kunden, sondern auch die Anbieter der Apps und App-Inhalte belastet. Die Anbieter hätten nur die Hälfte der Mehrbelastung an ihre Kunden weiter verrechnet.
Diese Hälfte soll Apple für den gut neun Jahre langen relevanten Zeitraum rückerstatten, zuzüglich acht Prozent Zinsen. Die andere Hälfte müssen sich die App-Anbieter erstreiten. Das dafür anhängige Verfahren heißt Dr Sean Ennis v Apple Inc and Others (Az. 1601/7/7/23).
Über die genauen Modalitäten der Rückerstattung sollen sich die Streitparteien tunlichst einigen und das Ergebnis bei der nächsten Tagsatzung, frühestens im November, präsentieren. Parallel kann Apple die Zulassung von Rechtsmitteln beantragen, was das Unternehmen sicher tun wird. Das Gericht muss dann entscheiden, gegen welche Teile des Urteils Apple berufen kann.
(ds)
Entwicklung & Code
AWS: CloudWatch generiert jetzt automatisch Incident-Reports
Amazon Web Services hat für seinen Monitoring-Dienst CloudWatch eine neue Funktion zur automatischen Erstellung von Incident-Reports angekündigt. Laut AWS können Kunden damit innerhalb weniger Minuten umfassende Post-Incident-Analyseberichte generieren. Das Timing der Veröffentlichung ist bemerkenswert: Sie erfolgt kurz nach dem schweren Ausfall der AWS-Infrastruktur, der zahlreiche Dienste auch von anderen Anbietern lahmlegte.
Weiterlesen nach der Anzeige
Die neue CloudWatch-Funktion sammelt automatisch Telemetriedaten, Nutzeraktionen während der Fehlersuche sowie Systemkonfigurationen und fügt diese zu einem strukturierten Bericht zusammen. Laut AWS umfassen die generierten Reports Executive Summaries, detaillierte Zeitverläufe der Ereignisse, Impact-Assessments und konkrete Handlungsempfehlungen. Das System korreliert dabei die verschiedenen Datenquellen, um ein möglichst vollständiges Bild des Vorfalls zu zeichnen.
CloudWatch ist Amazons zentrale Plattform für die Echtzeitüberwachung von Cloud-Ressourcen und -Anwendungen. Der Dienst bietet laut AWS-Dokumentation eine systemweite Übersicht über die Anwendungsperformance, operative Systemgesundheit und Ressourcenauslastung. Die neue Incident-Report-Funktion erweitert dieses Monitoring jetzt um eine strukturierte Nachbetrachtung von Störfällen.
Das Versprechen: Automatisch immer besser
Die automatisch erstellten Berichte sollen IT-Teams helfen, wiederkehrende Muster zu erkennen und präventive Maßnahmen zu implementieren. AWS verspricht, dass Kunden durch die strukturierte Post-Incident-Analyse ihre operative Aufstellung kontinuierlich verbessern können. Die Funktion erfasst dabei kritische Betriebstelemetrie, Servicekonfigurationen und Untersuchungsergebnisse automatisch – manuelle Zusammenstellungen entfallen. Inwiefern dies jetzt bereits bei Amazons jüngstem Ausfall intern geholfen haben könnte, bleibt jedoch offen. Nach den versprochenen wenigen Minuten lagen hierbei jedenfalls keine gesicherten Informationen vor.
Die neue CloudWatch-Funktion ergänzt die kürzlich eingeführte KI-gestützte Fehleranalyse in CloudWatch Investigations. Diese nutzt generative KI zur Diagnose und automatischen Ursachenanalyse von Betriebsproblemen. Die Integration mit AWS Systems Manager soll die Komplexität von Cloud-Umgebungen bei der Fehlerbehebung reduzieren. Laut AWS ist der Dienst in mehreren Regionen verfügbar, darunter Europe (Frankfurt). Die Kosten entsprechen denen von CloudWatch Investigations, für die Funktion gelten keine zusätzlichen Aufpreise.
(fo)
Entwicklung & Code
JavaScript: Testing-Framework Vitest 4.0 bringt visuelles Regressionstesting
Vitest liegt in der neuen Hauptversion 4.0 vor. Updates gibt es unter anderem für den Browser Mode, den Umgang mit dem End-to-End-Testing-Framework Playright und das Debugging mit der Visual-Studio-Code-Erweiterung.
Weiterlesen nach der Anzeige
Bei Vitest handelt es sich um ein Testing-Framework auf Basis des Frontend-Build-Tools Vite.js, das einen Fokus auf Schnelligkeit legt. Beide sind quelloffen verfügbar, jedoch arbeitet das Vite-Team derzeit auch an dem kommerziellen Angebot Vite+, das eine einheitliche JavaScript-Toolchain darstellen soll.
(Bild: jaboy/123rf.com)

Call for Proposals für die enterJS 2026 am 16. und 17. Juni in Mannheim: Die Veranstalter suchen nach Vorträgen und Workshops rund um JavaScript und TypeScript, Frameworks, Tools und Bibliotheken, Security, UX und mehr. Vergünstigte Blind-Bird-Tickets sind bis zum Programmstart erhältlich.
Browser Mode stabil verfügbar
Der Browser Mode ist ein Feature der Vitest-API, das bislang als experimentell gekennzeichnet war und nun den stabilen Status erreicht hat. Damit lassen sich Tests nativ im Browser ausführen.
Um einen Provider festzulegen, ist nun die Installation eines separaten Pakets notwendig: @vitest/browser-playwright, @vitest/browser-webdriverio oder @vitest/browser-preview. Damit können Developer einfacher mit benutzerdefinierten Optionen arbeiten, und sie können auf die Kommentare ///
Visuelles Regressionstesten im Browser Mode
Der Browser Mode erhält darüber hinaus eine neue Funktion: Visual Regression Testing. Das bedeutet, Vitest erstellt Screenshots von UI-Komponenten und Seiten und vergleicht diese mit Referenzbildern, um unbeabsichtigte visuelle Änderungen festzustellen. Das Visual Regression Testing lässt sich durch die Assertion toMatchScreenshot ausführen, wie das Entwicklungsteam demonstriert:
Weiterlesen nach der Anzeige
import { expect, test } from 'vitest'
import { page } from 'vitest/browser'
test('hero section looks correct', async () => {
// ...the rest of the test
// capture and compare screenshot
await expect(page.getByTestId('hero')).toMatchScreenshot('hero-section')
})
Updates für die Anbindung an Playwright und VS Code
Vitest 4.0 bringt ein Update für die Verwendung mit dem End-to-End-Testing-Framework Playwright: Es kann nun Playwright Traces generieren, wenn die trace-Option in der test.browser-Konfiguration gesetzt ist, oder mithilfe der Option --browser.trace=on, in der sich auch off, on-first-retry, on-all-retries oder retain-on-failure festlegen lassen. Die erstellte Trace-Datei lässt sich mit dem Playwright Trace Viewer öffnen. In der Extension für Visual Studio Code gibt es ebenfalls eine Neuerung: Dort lässt sich nun der „Debug Test“-Button beim Ausführen von Browser-Tests nutzen.
Die komplette Liste der Änderungen führt das Vitest-Team im Changelog auf und geht in einem Blogeintrag detaillierter auf die wichtigsten Neuerungen ein. Da es einige Breaking Changes gibt, empfiehlt es Entwicklerinnen und Entwicklern, vor einem Upgrade die Migrationsanleitung zu beachten.
(mai)
-
UX/UI & Webdesignvor 2 MonatenDer ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 2 MonatenAdobe Firefly Boards › PAGE online
-
Social Mediavor 2 MonatenRelatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 2 MonatenPosit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 MonatenEventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 1 MonatFake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
UX/UI & Webdesignvor 6 TagenIllustrierte Reise nach New York City › PAGE online
-
Social Mediavor 1 MonatSchluss mit FOMO im Social Media Marketing – Welche Trends und Features sind für Social Media Manager*innen wirklich relevant?
