Connect with us

Entwicklung & Code

Cisco und Splunk gehen agen tische KI und Maschinendaten-Verarbeitung an


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Cisco-Tochter Splunk veröffentlichte auf der Hauskonferenz .conf25 in Boston eine neue dezentrale Datenarchitektur: die Cisco Data Fabric. Sie soll helfen, den Umgang mit wachsenden Mengen an Maschinendaten zu erleichtern. Die Architektur ist offen angelegt und kann Daten aus Edge-, Cloud- und hybriden Umgebungen zusammenführen. Damit lassen sich Datenströme in Echtzeit analysieren und in verwertbare Informationen überführen, ohne dass sie vorher zentralisiert werden müssen. Das soll zu geringeren Kosten, niedrigeren Latenzen und weniger Komplexität führen. Auch sollen so dezentrale Daten für weitere KI-Verarbeitung zur Verfügung stehen.

Hierfür kündigte der Hersteller eine Reihe integrierter KI-Modelle an. Dazu gehört auch ein speziell auf Zeitreihen ausgelegtes Time Series Foundation Model (TSFM), das mit Maschinendaten sprechen können soll, erklärte Jeetu Patel, Präsident und Chief Product Officer bei Cisco. Es wurde mit einer Mischung aus internen Cisco-Servicedaten, spezifischen Protokollen und branchenspezifischen sowie öffentlich zugänglichen Daten trainiert. Das TSFM soll Muster, Zusammenhänge und Ursachenketten in verschiedenen Logs und Telemetriedaten erkennen und Anwendungsfälle wie Anomalieerkennung, Vorhersagen und automatisierte Root-Cause-Analysen unterstützen. Während die Data Fabric ab sofort in Splunk verfügbar ist, soll das TSFM erst im November 2025 auf Hugging Face veröffentlicht werden. Dank seiner Datenbasis und Architektur lässt es auf hohe Präzision und Anpassbarkeit hoffen.

Parallel baut Splunk die Federated Search aus, mit der sich Betriebs- und Geschäftsdaten über verschiedene Umgebungen hinweg verbinden, abfragen und kombinieren lassen. Neben bereits verfügbaren Datenquellen wie Amazon S3 sollen im Laufe des Jahres 2026 auch Apache Iceberg, Delta Lake, Snowflake und Microsoft Azure hinzukommen. Ergänzend wurde bereits die Federated Search um Cisco-Firewall-Daten erweitert, wodurch Sicherheitsanalysen direkt von der Splunk Cloud Platform aus durchführbar sind. Passend dazu kündigte Cisco an, dass ab sofort das Einspeisen von Firewall-Logs aus Cisco-Firewalls in Splunk kostenfrei sei.

Auch im Bereich Security und Observability baut Cisco sein Angebot rund um KI-Agenten aus. Im Mittelpunkt stehen zwei neue Editonen für Splunk Enterprise Security. Die Splunk Enterprise Security Essentials Edition kombiniert fortan Splunk Enterprise Security 8.2 sowie den Splunk AI Assistant und ist weltweit verfügbar. Die Splunk Enterprise Security Premier Edition umfasst zusätzlich Splunk SOAR sowie Splunk UEBA und befindet sich aktuell im Early-Access-Programm. Zuletzt stellte Splunk auch eine Reihe spezialisierter KI-Agenten vor, die Triage, Malware-Analyse, Playbook-Erstellung und personalisierte Detektionsregeln automatisieren sollen. Diese sollen ab Anfang nächsten Jahres verfügbar sein.


(kki)



Source link

Entwicklung & Code

.NET: Jetzt 24 Monate Support für Standard-Term Releases ab .NET 9.0


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Der Release-Zeitraum für .NET-STS-Versionen (Standard-Term Support) wird auf 24 Monate verlängert. Bisher gewährte Microsoft 18 Monate Support für STS-Releases, während LTS-Releases (Long-Term Support) drei Jahre lang Updates erhalten.

Die Neuerung gilt bereits für das aktuelle STS-Release .NET 9.0, das somit erst am 10. November 2026 seinen End of Support erreichen wird, statt wie ursprünglich geplant am 12. Mai 2026. Das Datum lag bisher bei sechs Monaten nach Erscheinen der .NET-Folgeversion, nun sind es zwölf Monate. Der Support-Zeitraum für LTS-Releases ändert sich nicht. So soll etwa das für November 2025 geplante .NET 10.0 wie geplant drei Jahre im Support verbleiben.


.NET-Support-Zeitplan

.NET-Support-Zeitplan

Der neue Zeitplan für den .NET-Support sieht zwei Jahre Support für .NET 9.0 vor.

(Bild: Microsoft)


betterCode() .NET 10.0

betterCode() .NET 10.0

(Bild: coffeemill/123rf.com)

Verbesserte Klassen in .NET 10.0, Native AOT mit Entity Framework Core 10.0 und mehr: Darüber informieren .NET-Profis auf der Online-Konferenz betterCode() .NET 10.0 am 18. November 2025. Nachgelagert gibt es sechs ganztägige Workshops zu Themen wie C# 14.0, künstliche Intelligenz und Web-APIs.

Unter Support für .NET und .NET Core versteht Microsoft sowohl den Active Support, der Funktionen verbessert und Sicherheitsrisiken vermindert, als auch den Maintenance Support, der während der letzten sechs Monate des Support-Zeitraums für STS- und LTS-Releases gilt und sich lediglich auf das Verringern von Sicherheitsrisiken bezieht. Ist das End of Life (EOL) beziehungsweise der End of Support (EOS) für ein .NET-Release eingetreten, erhält dieses keinerlei Fixes, Updates oder technischen Online-Support mehr.

Als Begründung nennt Microsoft, dass .NET sich schnell weiterentwickelt und immer häufiger neue Features in Out-of-Band-Releases (OOB) statt in den jährlichen Releases landen, was zum Beispiel .NET Aspire, Microsoft.Extensions.AI und das C# Dev Kit betrifft.

.NET-Anwenderinnen und -Anwender verbleiben mitunter aufgrund ihres längeren Supports bei einer .NET-LTS-Version, statt zu einem neueren STS-Release zu wechseln. Im Umgang mit OOB-Releases kann das zu Schwierigkeiten führen: So konnte es bisher sein, dass ein verwendetes OOB-Release eine Abhängigkeit zu einem neueren STS-Release hatte und somit einen Teil der Runtime von LTS zu STS verschob. Für dieses Paket galt dann eine kürzere Support-Laufzeit, da das jüngere STS-Release bereits sechs Monate vor dem älteren LTS-Release aus dem Support fiel.

Nun haben jedoch zum Beispiel das LTS-Release .NET 8.0 und das STS-Release .NET 9.0 das gleiche End-of-Support-Datum, den 10. November 2026. Aber auch abseits von OOB-Releases soll der längere Support-Zeitraum Anwenderinnen und Anwender dazu ermutigen, künftig STS-Releases in Erwägung zu ziehen.


(mai)



Source link

Weiterlesen

Entwicklung & Code

software-architektur.tv: Residuality Theory mit Barry O’Reilly


Die Residualitätstheorie (engl.: Residuality Theory) ist eine revolutionäre neue Theorie des Softwaredesigns, die darauf abzielt, die Entwicklung von Softwaresystemen für komplexe Geschäftsumfelder zu erleichtern. Sie modelliert Softwaresysteme als miteinander verbundene Residuen – eine Alternative zur Komponenten- und Prozessmodellierung. Dabei wird angewandte Komplexitätswissenschaft genutzt, um den Umgang mit Unsicherheit zu einem grundlegenden Bestandteil des Designprozesses zu machen.

In dieser englischsprachigen Episode des Videocasts software-architektur.tv bespricht Eberhard Wolff mit Barry O’Reilly, einem erfahrenen Architekten, diesen neuartigen Ansatz. Barry O’Reilly wird außerdem einen Workshop und einen Vortrag zu diesem Thema beim Software Architecture Gathering halten, das vom 24. bis 27. November 2025 in Berlin stattfindet.

Die Ausstrahlung findet am Freitag, 19. September 2025, live von 13 bis 14 Uhr statt. Die Folge steht im Anschluss als Aufzeichnung bereit. Während des Livestreams können Interessierte Fragen via Twitch-Chat, YouTube-Chat, Bluesky, Mastodon, Slack-Workspace oder anonym über das Formular auf der Videocast-Seite einbringen.

software-architektur.tv ist ein Videocast von Eberhard Wolff, Blogger sowie Podcaster auf iX und bekannter Softwarearchitekt, der als Head of Architecture bei SWAGLab arbeitet. Seit Juni 2020 sind über 250 Folgen entstanden, die unterschiedliche Bereiche der Softwarearchitektur beleuchten – mal mit Gästen, mal Wolff solo. Seit mittlerweile mehr als zwei Jahren bindet iX (heise Developer) die über YouTube gestreamten Episoden im Online-Channel ein, sodass Zuschauer dem Videocast aus den Heise Medien heraus folgen können.

Weitere Informationen zur Folge finden sich auf der Videocast-Seite.


(mdo)



Source link

Weiterlesen

Entwicklung & Code

Künstliche Neuronale Netze im Überblick 9: Die Zukunft Neuronaler Netze


Neuronale Netze sind der Motor vieler Anwendungen in KI und GenAI. Diese Artikelserie gibt einen Einblick in die einzelnen Elemente. Der neunte Teil wirft einen Blick auf die kommende Generation von Modellen.


Michael Stal

Michael Stal

Prof. Dr. Michael Stal arbeitet seit 1991 bei Siemens Technology. Seine Forschungsschwerpunkte umfassen Softwarearchitekturen für große komplexe Systeme (Verteilte Systeme, Cloud Computing, IIoT), Eingebettte Systeme und Künstliche Intelligenz.

Er berät Geschäftsbereiche in Softwarearchitekturfragen und ist für die Architekturausbildung der Senior-Software-Architekten bei Siemens verantwortlich.

Die Forschung im Bereich neuronaler Netze schreitet rasch voran, und mehrere Trends versprechen, die nächste Generation von Modellen zu prägen. Attention-Only-Architekturen, vom Transformer-Modell eingeführt, haben bereits in Bereichen wie der natürlichen Sprachverarbeitung die Rekursion verdrängt und werden nun auch im Bereich der Bildverarbeitung eingesetzt. Die zentrale Innovation des Transformers besteht darin, Schichten aus Multi-Head-Self-Attention- und Feedforward-Netzwerken zu stapeln, wodurch eine vollständige Eliminierung von Faltungen und Rekursionen erfolgt. In PyTorch kann man eine Transformer-Encoder-Schicht mit folgendem Code instanziieren:


import torch.nn as nn  

encoder_layer = nn.TransformerEncoderLayer(d_model=512,  
                                           nhead=8,  
                                           dim_feedforward=2048)  
transformer_encoder = nn.TransformerEncoder(encoder_layer, num_layers=6)  
# Eingabeform: (seq_len, batch, d_model)  
src = torch.randn(100, 32, 512)  
output = transformer_encoder(src)  # (100, 32, 512)  


Selbstüberwachtes Lernen ist ein weiterer wichtiger Trend. Durch das Vorabtrainieren von Modellen auf riesigen unbeschrifteten Datensätzen mithilfe von Aufgaben wie maskierter Token-Vorhersage oder kontrastivem Lernen kann man Darstellungen lernen, die sich mit begrenzten beschrifteten Daten effektiv auf nachgelagerte Aufgaben übertragen lassen. Beispiele hierfür sind BERT im Bereich Sprache und SimCLR im Bereich Bildverarbeitung.

Graph Neural Networks verallgemeinern die Faltung auf beliebige Graphstrukturen, indem sie Informationen aus den Nachbarn eines Knotens aggregieren. Ihre Layer-Aktualisierung erfolgt in der Form

hᵢ′ = σ( W·hᵢ + Σ_{j∈N(i)} U·hⱼ + b )

und ermöglicht Anwendungen in der Chemie, in sozialen Netzwerken und in der kombinatorischen Optimierung.

Die automatisierte Suche nach neuronalen Architekturen nutzt verstärktes Lernen oder evolutionäre Algorithmen, um optimale Netzwerktopologien zu finden. Techniken wie NASNet und EfficientNet haben Modelle hervorgebracht, die unter gegebenen Rechenbeschränkungen besser abschneiden als von Menschen entworfene Architekturen.

Kontinuierliches Lernen und Meta-Lernen zielen darauf ab, Netzwerke mit der Fähigkeit auszustatten, neue Aufgaben zu lernen, ohne vorherige zu vergessen, oder sich mit wenigen Beispielen schnell an neue Aufgaben anzupassen.

Schließlich bleiben Interpretierbarkeit und Zuverlässigkeit von entscheidender Bedeutung. Methoden zur Erklärung von Netzwerkentscheidungen – wie Salienzkarten, SHAP-Werte und Konzeptaktivierungen – tragen dazu bei, Vertrauen in KI-Systeme aufzubauen, insbesondere in sicherheitskritischen Bereichen.

Mit der Weiterentwicklung der Hardware werden spezialisierte Beschleuniger für „spärliche“ Berechnungen, Arithmetik mit geringer Genauigkeit und neuromorphe Designs den Anwendungsbereich neuronaler Netze weiter ausbauen. Eine weitere Entwicklung sind Quanten-Neuronale Netzwerke, die sich noch in den Kinderschuhen befinden.

Während dieser gesamten Entwicklung bleiben die Kernprinzipien – Definition von Neuronen, Stapeln von Schichten, Auswahl von Aktivierungen, Messung von Verlusten und Optimierung von Parametern – die Grundlage. Die Landschaft der auf diesen Prinzipien aufbauenden Modelle erweist sich als immer reichhaltiger und vielfältiger.

Der nächste Beitrag wird sich mit Graphisch-Neuronalen Netzwerken beschäftigen. Sie eignen sich für Deep Learning mit Daten, deren Beziehungen sich durch Knoten und Kanten ausdrücken lassen.


(rme)



Source link

Weiterlesen

Beliebt