Connect with us

Künstliche Intelligenz

Wazuh: Open-Source SIEM für Angriffserkennung & Analyse


Wer für die Sicherheit von Servern und Clients verantwortlich ist, wird früher oder später die dort anfallenden Sicherheitsinformationen zentralisieren wollen und deshalb über die Anschaffung eines SIEMs (Security Information and Event Management) nachdenken. Doch das muss kein teures Produkt eines großen Herstellers sein. Das Open-Source-System Wazuh ist ein vollwertiges SIEM, das zudem weitere praktische Funktionen mitbringt. Es kann angeschlossene Rechner auf Sicherheitslücken und fehlende Patches analysieren und bietet sogar umfassende XDR-Funktionen (Extended Detection and Response) – geht also sogar über klassische Endpoint-Sicherheit (EDR) hinaus.

Weiterlesen nach der Anzeige

Unser zweistündiges Webinar bietet den idealen Einstieg. Das Ziel: Jeder Teilnehmer kann nach der Veranstaltung eine fundierte Entscheidung treffen, Wazuh im eigenen Netz einzusetzen. Unser Dozent, einer von nur fünf „Wazuh Ambassadors“ in Deutschland, ordnet dazu zunächst die Position Wazuhs im Ökosystem der Sicherheits-Tools ein und zeigt den Teilnehmenden am „lebenden Beispiel“ in praxisnahen Demos, wozu es fähig ist. Denn Wazuh ist vielseitig und beherrscht nicht nur sichere Protokollierung, sondern kann auch Angriffe erkennen und Gegenmaßnahmen einleiten.

Dabei sind Nutzer nicht von der Cloud des Herstellers abhängig und müssen sich auch um Datenschutz wenig Sorgen machen, denn Wazuh können sie auf eigenen Servern betreiben, sodas sensible Log-Daten im eigenen Rechenzentrum bleiben. Das geht sogar mittels Docker-Container für den „Proof of Concept“. Wie sie eine eigene Testinstallation bewerkstelligen, um praktische Erfahrungen zu sammeln, vermittelt unser Dozent im Webinar ebenfalls.

Das rund zweistündige Webinar am 26. November 2025 richtet sich an Systemarchitekten, Sicherheitsverantwortliche und Firewall-Admins, die über den Tellerrand kommerzieller Lösungen schauen möchten. Es wurde von der heise-security-Redaktion zusammen mit den Referenten konzipiert und ist damit – wie alle heise-security-Events – unabhängig und keine Werbeveranstaltung. Die Teilnahme kostet regulär 175 Euro; Mitglieder von heise security PRO können natürlich kostenlos teilnehmen. Alle weiteren Informationen zum Webinar und die Möglichkeit sich anzumelden gibt es auf der Webseite zu:

Im Webinar gehen wir natürlich auch auf Fragen der Teilnehmer ein. Oft ergeben die sich aber erst, wenn sich das Gelernte etwas gesetzt hat und man Dinge selbst umsetzen will. Deshalb bieten wir im Nachgang exklusiv für alle Mitglieder von heise security PRO zusätzliche Unterstützung an. Der Referent Dominik Sigl beantwortet im Nachgang zwei Wochen lang in unserem PRO-Forum konkrete Fragen zu Inhalten des Webinars. Und heise security PRO bietet Sicherheitsverantwortlichen noch mehr, um ihren Job besser zu erledigen: die kostenlose Teilnahme an allen heise security Webinaren und der jährlichen Tour, den Austausch mit der heise security Redaktion und anderen Security-Professionals im PRO-Forum und den wöchentlichen, exklusiven security-PRO-Newsletter. Schauen Sie es sich doch einfach mal an.

Weiterlesen nach der Anzeige


(cku)



Source link

Künstliche Intelligenz

Jetzt patchen! Angreifer schieben Schadcode auf WatchGuard Firebox


Aufgrund von zurzeit laufenden Attacken sollten Admins ihre Firebox-Firewalls von WatchGuard auf den aktuellen Stand bringen. Angreifer führen Schadcode aus.

Weiterlesen nach der Anzeige

In einer Warnmeldung führen die Entwickler aus, dass von der „kritischen“ Sicherheitslücke (CVE-2025-14733) in Fireware OS folgende Konfigurationen betroffen sind: Mobile User VPN mit IKEv2 und Branch Office VPN mit IKEv2, wenn es mit einem dynamischen Gateway-Peer konfiguriert ist.

Ist das gegeben, sind Attacken aus der Ferne und ohne Authentifizierung möglich. Setzen Angreifer erfolgreich an der Lücke an, kommt es zu Speicherfehlern (Out-of-bounds) und es gelangt Schadcode auf Systeme.

In welchem Umfang und wie genau solche Attacken ablaufen, ist derzeit nicht bekannt. Unklar ist auch, was Angreifer konkret anstellen. Aufgrund der kritischen Einstufung ist aber davon auszugehen, dass Angreifer Geräte nach der Ausführung von Schadcode vollständig kompromittieren.

Damit Admins bereits attackierte Instanzen erkennen können, listet WatchGuard diverse Parameter (Indicator of Compromise, IoC) wie IP-Adressen in der Warnmeldung auf. Es gibt aber auch bestimmte Hinweise in Logdateien. Außerdem kommt es nach erfolgreichen Angriffen zu Fehlern bei VPN-Verbindungen.

Weiterlesen nach der Anzeige

Um Firewalls und Netzwerke zu schützen, müssen Admins zügig Fireware OS 12.3.1_Update4 (B728352), 12.5.15, 12.11.6 oder 2025.1.4 installieren. Für den Versionsstrang 11.x ist der Support ausgelaufen und es gibt keine Sicherheitspatches mehr. An dieser Stelle ist ein Upgrade nötig.

Können Admins die abgesicherten Ausgaben nicht direkt installieren, müssen sie Geräte temporär über einen Workaround absichern.


(des)



Source link

Weiterlesen

Künstliche Intelligenz

Wie Sie automatisierte Reports mit KI-Agenten erstellen


Generative KI (GenAI) und agentische Ansätze haben in den vergangenen zwei Jahren einen riesigen Sprung gemacht. Sprachmodelle wie GPT-4o, Claude und Gemini können heute mehr als nur Text generieren: Sie orchestrieren Workflows, rufen Werkzeuge auf, interagieren mit Datenbanken und schreiben Berichte. Das rückt Reporting als einen viel genutzten Anwendungsfall ins Rampenlicht. Es sammelt Daten aus internen und externen Quellen, führt Analysen durch, erzeugt visuelle Darstellungen und verteilt sie per Chatbot oder E-Mail – ohne jede Aktion hart zu codieren.

Während klassische Automatisierung definierte Schritte in fester Reihenfolge ausführt, sind Agenten Systeme, die Aufgaben im Auftrag von Nutzern selbstständig erledigen. Laut OpenAI (PDF) führen Agenten eine LLM-gesteuerte Logik aus, entscheiden, wann ein Workflow abgeschlossen ist, und geben bei Fehlern die Kontrolle an den Nutzer zurück. Agenten können verschiedene Werkzeuge nutzen und wählen sie dynamisch aus, um Kontext zu sammeln und Aktionen auszuführen. Sie eignen sich vor allem für komplexe Entscheidungsprozesse, schwer wartbare Regelsysteme und Aufgaben mit unstrukturierten Daten.

  • KI-Agenten bieten die Chance, Berichte schnell, präzise und individuell zu erstellen.
  • Sie verwenden Tools und Datenbanken, die sich über das Model Context Protocol (MCP) bereitstellen lassen.
  • Bei komplexen Reports ist es sinnvoll, mehrere spezialisierte Agenten zusammenarbeiten zu lassen.
  • Vorsicht ist beim Zugriff auf Datenbanktabellen geboten; er sollte über Whitelists und Auditlogs gesichert sein. Ansonsten droht ein Dataset Creep, bei dem Agenten auf Daten zugreifen, die sie nicht nutzen dürfen.

Ein Agent besitzt drei Kernkomponenten: ein Modell, also das LLM für Reasoning und Planung, Tools für externe Funktionen wie Datenbanken oder APIs, und Instruktionen mit Prompts und Guardrails, die das Verhalten steuern. Viele aktuelle Frameworks erweitern das um einen vierten Baustein – Memory. Hier speichert der Agent Kontext, Dokumente oder Nutzerinformationen, um über mehrere Abfragen hinweg konsistent zu bleiben.


Das war die Leseprobe unseres heise-Plus-Artikels „Wie Sie automatisierte Reports mit KI-Agenten erstellen“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

Web-Suche für die lokale KI: So schließen Ihre LLMs Wissenslücken


Zu den größten Stärken lokaler KIs zählt der Datenschutz. Nutzer können sich ungestört mit ihren LLMs unterhalten, ohne dass ein Dritter Gespräche mitliest, speichert und für eigene Zwecke auswertet. Ein wesentlicher Nachteil der lokalen LLMs aber ist der statische Wissensstichtag: Er ist auf den Zeitpunkt des Trainings beschränkt; Informationen, die danach entstanden sind, bleiben ohne externe Hilfe verborgen. Bei vielen Modellen liegt dieser Stichtag mehr als ein Jahr zurück. Ein Anfang 2025 trainiertes lokales LLM kann nicht wissen, wer beispielsweise im Oktober 2025 den Physiknobelpreis erhalten hat.

Web-Suchfunktionen schließen diese Lücke. Lokale KI-Modelle lassen sich relativ unkompliziert mit der Fähigkeit zur Internet-Recherche ausstatten: völlig kostenlos und komplett auf dem eigenen System gehostet. Wir haben das in einem lokalen Setup eingerichtet und ausprobiert. Der Einrichtungsaufwand liegt nur bei einer guten Stunde und bedient sich ausschließlich frei nutzbarer, quelloffener Software.

  • Mit der Fähigkeit zur Web-Suche holen Nutzer ihre lokalen LLMs aus der eigenen Trainings-Bubble. So liefern die Modelle auch Informationen zu aktuellen Ereignissen.
  • Die browserbasierte Software Open WebUI bietet einen komfortablen Weg, die lokalen Sprachmodelle mit dem Werkzeug einer Online-Recherche zu verknüpfen.
  • Der Artikel erläutert Schritt für Schritt den vollständigen Weg zur Einrichtung der Web-Suche für lokale KIs unter Windows 11.

Der Artikel erklärt, wie Sie eine Web-Suchfunktion für Ihre lokalen KI-Modelle unter Windows 11 einrichten. Voraussetzung dafür ist eine Ollama-Installation. Der Text erläutert Schritt für Schritt die Einrichtung von Open WebUI unter Docker und einer geeigneten Suchmaschine für hohen Datenschutz. Fertig eingerichtet durchpflügt das KI-System das Internet nach aktuellen Informationen, liest Web-Inhalte aus und liefert die passenden Quellen zum Nachlesen.


Das war die Leseprobe unseres heise-Plus-Artikels „Web-Suche für die lokale KI: So schließen Ihre LLMs Wissenslücken“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Beliebt