Connect with us

Entwicklung & Code

Künstliche Neuronale Netze im Überblick 9: Die Zukunft Neuronaler Netze


Neuronale Netze sind der Motor vieler Anwendungen in KI und GenAI. Diese Artikelserie gibt einen Einblick in die einzelnen Elemente. Der neunte Teil wirft einen Blick auf die kommende Generation von Modellen.


Michael Stal

Michael Stal

Prof. Dr. Michael Stal arbeitet seit 1991 bei Siemens Technology. Seine Forschungsschwerpunkte umfassen Softwarearchitekturen für große komplexe Systeme (Verteilte Systeme, Cloud Computing, IIoT), Eingebettte Systeme und Künstliche Intelligenz.

Er berät Geschäftsbereiche in Softwarearchitekturfragen und ist für die Architekturausbildung der Senior-Software-Architekten bei Siemens verantwortlich.

Die Forschung im Bereich neuronaler Netze schreitet rasch voran, und mehrere Trends versprechen, die nächste Generation von Modellen zu prägen. Attention-Only-Architekturen, vom Transformer-Modell eingeführt, haben bereits in Bereichen wie der natürlichen Sprachverarbeitung die Rekursion verdrängt und werden nun auch im Bereich der Bildverarbeitung eingesetzt. Die zentrale Innovation des Transformers besteht darin, Schichten aus Multi-Head-Self-Attention- und Feedforward-Netzwerken zu stapeln, wodurch eine vollständige Eliminierung von Faltungen und Rekursionen erfolgt. In PyTorch kann man eine Transformer-Encoder-Schicht mit folgendem Code instanziieren:


import torch.nn as nn  

encoder_layer = nn.TransformerEncoderLayer(d_model=512,  
                                           nhead=8,  
                                           dim_feedforward=2048)  
transformer_encoder = nn.TransformerEncoder(encoder_layer, num_layers=6)  
# Eingabeform: (seq_len, batch, d_model)  
src = torch.randn(100, 32, 512)  
output = transformer_encoder(src)  # (100, 32, 512)  


Selbstüberwachtes Lernen ist ein weiterer wichtiger Trend. Durch das Vorabtrainieren von Modellen auf riesigen unbeschrifteten Datensätzen mithilfe von Aufgaben wie maskierter Token-Vorhersage oder kontrastivem Lernen kann man Darstellungen lernen, die sich mit begrenzten beschrifteten Daten effektiv auf nachgelagerte Aufgaben übertragen lassen. Beispiele hierfür sind BERT im Bereich Sprache und SimCLR im Bereich Bildverarbeitung.

Graph Neural Networks verallgemeinern die Faltung auf beliebige Graphstrukturen, indem sie Informationen aus den Nachbarn eines Knotens aggregieren. Ihre Layer-Aktualisierung erfolgt in der Form

hᵢ′ = σ( W·hᵢ + Σ_{j∈N(i)} U·hⱼ + b )

und ermöglicht Anwendungen in der Chemie, in sozialen Netzwerken und in der kombinatorischen Optimierung.

Die automatisierte Suche nach neuronalen Architekturen nutzt verstärktes Lernen oder evolutionäre Algorithmen, um optimale Netzwerktopologien zu finden. Techniken wie NASNet und EfficientNet haben Modelle hervorgebracht, die unter gegebenen Rechenbeschränkungen besser abschneiden als von Menschen entworfene Architekturen.

Kontinuierliches Lernen und Meta-Lernen zielen darauf ab, Netzwerke mit der Fähigkeit auszustatten, neue Aufgaben zu lernen, ohne vorherige zu vergessen, oder sich mit wenigen Beispielen schnell an neue Aufgaben anzupassen.

Schließlich bleiben Interpretierbarkeit und Zuverlässigkeit von entscheidender Bedeutung. Methoden zur Erklärung von Netzwerkentscheidungen – wie Salienzkarten, SHAP-Werte und Konzeptaktivierungen – tragen dazu bei, Vertrauen in KI-Systeme aufzubauen, insbesondere in sicherheitskritischen Bereichen.

Mit der Weiterentwicklung der Hardware werden spezialisierte Beschleuniger für „spärliche“ Berechnungen, Arithmetik mit geringer Genauigkeit und neuromorphe Designs den Anwendungsbereich neuronaler Netze weiter ausbauen. Eine weitere Entwicklung sind Quanten-Neuronale Netzwerke, die sich noch in den Kinderschuhen befinden.

Während dieser gesamten Entwicklung bleiben die Kernprinzipien – Definition von Neuronen, Stapeln von Schichten, Auswahl von Aktivierungen, Messung von Verlusten und Optimierung von Parametern – die Grundlage. Die Landschaft der auf diesen Prinzipien aufbauenden Modelle erweist sich als immer reichhaltiger und vielfältiger.

Der nächste Beitrag wird sich mit Graphisch-Neuronalen Netzwerken beschäftigen. Sie eignen sich für Deep Learning mit Daten, deren Beziehungen sich durch Knoten und Kanten ausdrücken lassen.


(rme)



Source link

Entwicklung & Code

Docker Inc. macht gehärtete Abbilder kostenlos verfügbar


Docker Inc. hat angekündigt, ein bisher kostenpflichtiges Produkt fortan kostenlos anzubieten: Docker Hardened Images (DHI). Der Erfinder der Software Docker und Betreiber des Docker Hubs erklärt, damit auf Lieferkettenangriffe zu reagieren, die auch im Containerumfeld vorkommen. Die gehärteten Abbilder enthalten ein aufs absolut Nötige reduziertes Userland einer Distribution und unterscheiden sich dadurch von den sogenannten „Official Images“, die man ohne Login im Docker Hub (hub.docker.com) für viele Anwendungen findet.

Weiterlesen nach der Anzeige

Als Beispiel reicht ein Blick auf den Webserver Nginx und dessen Abbild: Im öffentlichen Hub gibt es Abbilder mit dem Namen nginx, die auf den Distributionen Alpine oder Debian aufbauen. Neben dem Webserver selbst stecken Teile der Distribution darin. Die meisten Komponenten sind für den Betrieb des Webservers gar nicht nötig und allenfalls hilfreich, wenn man mit Werkzeugen wie docker exec in einen Container springt und darin Fehler sucht. Über den eingebauten Paketmanager (apt oder apk) kann man beispielsweise einen Texteditor nachinstallieren und auf Fehlersuche im Container gehen. Solche Werkzeuge können aber auch zum Einfallstor für Angreifer werden.

Die gehärteten Abbilder enthalten weniger Spuren der Distribution und damit weniger Einfallstore – im Gegenzug aber auch keine Werkzeuge für die spontane Fehlersuche. Zum Vergleich: Das offizielle Nginx-Abbild auf Alpine-Basis (nginx:alpine) ist 21 MByte groß und kommt mit einer bekannten mittelschweren Sicherheitslücke, für die es einen CVE-Eintrag gibt. Die Debian-Variante (nginx:stable-bookworm) ist sogar 67 MByte groß, hat drei Lücken mit hoher Dringlichkeit, drei mittelschwere und ganze 61 mit der Einstufung „low“. Die gehärtete Version auf Alpine-Basis (dhi.io/nginx:1-alpine3.21) ist nur 4 MByte groß und Docker listet keine einzige bekannte Sicherheitslücke. Ein Blick in den Container zeigt: Der Paketmanager apk, der zu Alpine gehört, fehlt im Abbild.



Kompakt und ohne bekannte Lücken: Das gehärtete Nginx-Abbild auf Alpine-Basis ist nur 4 MByte groß.

Die gehärteten Abbilder gibt es für viele Anwendungen, für die es auch offizielle Abbilder gibt – darunter MySQL, PHP, Node.js, Traefik und MongoDB. Kein gehärtetes Abbild fanden wir für die MySQL-Alternative MariaDB. Um die Abbilder zu finden, müssen Sie sich im Docker Hub mit einem kostenlosen Account anmelden, über den öffentlichen Bereich des Hubs sind sie aktuell nicht zu finden. Sie landen nach dem Login in einer Übersicht namens „My Hub“ und finden links im Menü den Punkt „Hardened Images“. Um die Abbilder auf einem Server, einer Entwicklermaschine oder in einer CI/CD-Umgebung zu nutzen, müssen Sie dort zuerst den Befehl docker login dhi.io ausführen und sich mit Benutzernamen und einem persönlichen Zugangstoken anmelden. Ein solches Token erzeugen Sie, indem Sie oben rechts auf Ihre Initialen klicken, die „Account Settings“ öffnen und links unter „Personal access tokens“ ein Token erzeugen, das Leserechte hat.

Neben den Abbildern hat Docker Inc. auch Helm-Charts für Kubernetes-Nutzer veröffentlicht, in denen die gehärteten Abbilder zum Einsatz kommen.

Weiterlesen nach der Anzeige

Auch in Zukunft möchte Docker Inc. mit den gehärteten Abbildern Geld verdienen, wie der Blogpost zur Ankündigung erklärt. Wer regulatorische Anforderungen hat und beispielsweise FIPS-konforme Abbilder braucht oder sich eine Reaktion auf kritische CVEs innerhalb von sieben Tagen vertraglich zusichern lassen muss, greift zu den kostenpflichtigen „Docker Hardened Images Enterprise“. Außerdem verspricht Docker erweiterten Support für Anwendungen in Versionen, die von den Entwicklern der Anwendungen nicht mehr unterstützt werden („DHI Extended Lifecycle Support“).


(jam)



Source link

Weiterlesen

Entwicklung & Code

Chainguard startet EmeritOSS-Programm für verwaiste Open-Source-Projekte


Eine Reihe von Open-Source-Projekten, die weit verbreitet und tief in Produktionssystemen eingebettet sind, befinden sich in einer Grauzone zwischen aktiver Entwicklung und nachlassendem Engagement – bis hin zur vollständigen Aufgabe. Die Anwendungen arbeiten stabil, benötigen aber für den weiterhin zuverlässigen Betrieb in Produktion zumindest eine minimale Wartung für Sicherheitspatches und Dependency-Updates. Ziehen sich jedoch die Maintainer aus diesen Projekten zurück, können sie zu einem Sicherheitsrisiko werden. An dieser Stelle setzt das neue Programm „EmeritOSS“ von Chainguard an.

Weiterlesen nach der Anzeige

Das Unternehmen Chainguard, das unter anderem gehärtete Container Images bereitstellt, will laut Ankündigung mit EmeritOSS betroffenen Open-Source-Projekten eine „stabile und verlässliche Heimat“ bieten. Vordringliches Ziel sei nicht die Weiterentwicklung dieser Projekte, sondern die Stärkung der Nachhaltigkeit von Open-Source-Software insgesamt.

Als eine Motivation für das Programm führt Chainguard beispielhaft den Social-Engineering-Angriff auf das Free/Libre-Open-Source-Software-Projekt (FLOSS) xz-utils an. Bei diesem 2024 bekannt gewordenen Vorfall hatte sich der ursprüngliche Maintainer nach langjährigem Engagement aus dem Projekt zurückziehen wollen. Ein neuer Contributor konnte schrittweise dessen Vertrauen gewinnen – und versuchte dann, eine Backdoor einzuschleusen, die unzählige Systeme hätte kompromittieren können.

Unternehmen, die solche ausgereiften Projekte nutzen und von deren Sicherheit und Zuverlässigkeit abhängen, soll EmeritOSS nun ein strukturiertes Übergangsmodell bereitstellen. Der Support-Umfang ist jedoch bewusst begrenzt. Das Programm sieht verschiedene Unterstützungsstufen je nach Community-Erwartungen und Projektlebenszyklus vor – darunter öffentliche Forks zum Erhalten des Codezugangs, Dependency-Updates zum Beheben von Schwachstellen, neue Releases mit den genannten Updates, klare Dokumentation zum Support-Umfang sowie bei Bedarf Container-Images und APK-Pakete.

Auf das Entwickeln neuer Features oder proaktives Engagement mit Community-Issues und Pull-Requests verzichtet das Programm laut Chainguard ausdrücklich. Die geforkten, auf Stabilität fokussierten Quellcode-Versionen sollen frei auf GitHub verfügbar bleiben. Organisationen, die ein sicheres, kontinuierlich gewartetes Container-Image oder APK bevorzugen, sollten auf kommerzielle Distribution ausweichen. Chainguard wolle mit den Forks lediglich die Kontinuität der Projekte sichern, nicht in Wettbewerb zu kommerziellen Anbietern treten.

Weiterlesen nach der Anzeige

Den Start des EmeritOSS-Programms markierte die Aufnahme des Kaniko-Projekts, dessen Archivierung Google im Juni 2025 angekündigt hatte. Kaniko ermöglicht das Erstellen von Docker-Images innerhalb von Kubernetes-Clustern ohne privilegierte Container und ist vor allem in regulierten Branchen wie dem Finanzwesen verbreitet. Chainguard hat nach eigenen Angaben die Wartung eines Forks übernommen und bereits CVE-Fixes, Dependency-Updates und gepflegte Images bereitgestellt.

Neu hinzugekommen sind zuletzt die Projekte Kubeapps und ingress-nginx. Nachdem die Kubernetes Community angekündigt hat, ingress-nginx im März 2026 auslaufen zu lassen und künftig standardmäßig auf die Gateway API für das Networking in Kubernetes zu bauen, stehen Nutzer vor der Herausforderung, auf andere Ingress-Controller auszuweichen oder eine Migration auf die Gateway API einzuleiten. Der Fork im Rahmen des EmeritOSS-Programms verschafft Betroffenen nun mehr Zeit beim Evaluieren.

Wer darüber hinaus Vorschläge für weitere Open-Source-Projekte hat, die in das Programm aufgenommen werden sollten, kann diese dem EmeritOSS-Team bei Chainguard gezielt unterbreiten.


(map)



Source link

Weiterlesen

Entwicklung & Code

GitHub stoppt Subventionierung von Actions in privaten Repos


Ab Januar 2026 führt GitHub neue Preise für die automatisierten Aufgaben der Actions in privaten Repositories ein. Für Runner, auf denen die Actions laufen, gibt es eine Preisreduktion um circa vierzig Prozent, wenn GitHub sie hostet. Selbstgehostete Runner kosten ab jetzt hingegen erstmalig eine Gebühr von 0,2 US-Cent pro Minute.

Weiterlesen nach der Anzeige

Actions in öffentlichen Repositories bleiben kostenlos und auch für Enterprise Server ändert sich nichts. GitHub begründet die Änderung mit einer faireren Verteilung der Infrastrukturkosten, weil bislang Hostingkunden die Selbsthoster mitfinanzierten. GitHub hat ausgerechnet, dass sich für 96 Prozent der Kunden nichts ändern wird, vom Rest werden 85 Prozent eine Preisreduktion auf der Rechnung finden. Alle anderen müssen mit einer Erhöhung um 13 Dollar im Median pro Monat rechnen. Über einen Preiskalkulator online lassen sich die Kosten planen.

Im August hatte GitHub eine neue Infrastruktur für die Actions eingeführt, auf der 71 Millionen Jobs am Tag laufen. Die Actions automatisieren Jobs für die Softwareproduktion wie Tests und Builds. Diese laufen auf Runnern, also virtuellen OS-Umgebungen.


(who)



Source link

Weiterlesen

Beliebt