Connect with us

Künstliche Intelligenz

Glances 4.4.0: System-Monitor erhält Python API und Neofetch-Modus


Die Entwickler des plattformübergreifenden System-Monitoring-Tools Glances haben Version 4.4.0 veröffentlicht. Die zentrale Neuerung der Open-Source-Software ist eine Python-API, mit der sich Glances als Bibliothek in eigene Projekte integrieren lässt. Bisher war das Tool primär als eigenständiges Kommandozeilenprogramm konzipiert.

Weiterlesen nach der Anzeige

Ab sofort erlaubt die neue API den Entwicklern, Glances-Funktionen direkt in Python-Code einzubinden. Damit lassen sich die umfangreichen Monitoring-Funktionen des Tools nun programmatisch nutzen, ohne den Umweg über die Kommandozeile oder REST-API gehen zu müssen.

Eine weitere sichtbare Neuerung ist die Option --fetch, die einen Schnappschuss des aktuellen Systemzustands anzeigt. Die Funktion orientiert sich explizit am beliebten Tool Neofetch und präsentiert eine kompakte Systemübersicht mit den wichtigsten Metriken. Die neue Option ergänzt die kontinuierliche Monitoring-Ansicht von Glances um einen schnellen Statuscheck.

Bei den Breaking Changes ist insbesondere die Überarbeitung des Prometheus-Export-Formats zu beachten: Die Metriken werden jetzt benutzerfreundlicher strukturiert ausgegeben, was aber bei bestehenden Dashboards und Abfragen zu Problemen führen kann. Administratoren, die Glances mit Prometheus-Monitoring nutzen, sollten also im Zuge des Updates ihre Konfigurationen überprüfen.

In der Prozessliste zeigt Glances lange Kommandozeilen standardmäßig gekürzt an. Mit den Pfeiltasten können Nutzer die vollständigen Befehle einblenden, die Shift-Taste in Kombination mit Pfeiltasten wechselt zwischen verschiedenen Spalten-Sortierungen. Diese Änderung macht die Prozessübersicht übersichtlicher, erfordert aber eine kurze Eingewöhnung.

Weiterlesen nach der Anzeige

Für Container-Umgebungen zeigt Glances auch die verwendeten Ports in der Container-Sektion an. Dieser bereits seit 2017 offene Feature-Request erleichtert die Übersicht in Docker- und Podman-Deployments erheblich. Zusätzlich wurden Disk-I/O-Latenzen als neue Metrik integriert, womit sich Speicher-Performance-Probleme besser identifizieren lassen.

Als experimentelles Feature steht ein Export-Modul für die analytische DuckDB-Datenbank zur Verfügung. DuckDB eignet sich besonders für komplexe Abfragen über historische Monitoring-Daten. Der Sensors-Plugin aktualisiert sich standardmäßig alle 10 Sekunden statt bei jedem Refresh-Zyklus, was die CPU-Last reduziert.

Die Bugfix-Liste umfasst mehrere kritische Korrekturen. Unter macOS zeigte Glances unter Umständen keine Prozesse mehr an, unter Windows wurden CPU-Statistiken falsch dargestellt. Beide Probleme sind jetzt behoben. Ein schwerwiegender Performance-Bug, der bei laufenden virtuellen Maschinen zu API-Verzögerungen von über drei Minuten führte, haben die Entwickler ebenfalls gelöst.

Das Cloud-Plugin kontaktierte selbst bei deaktiviertem Status die Metadata-Adresse 169.254.169.254, was in bestimmten Netzwerk-Umgebungen Probleme verursachte. Auch dieser Fehler ist korrigiert. Alle Bugfixes und neuen Funktionen beschreiben die Release Notes auf der GitHub-Seite von Glances.


(fo)



Source link

Künstliche Intelligenz

Jetzt patchen! Angreifer schieben Schadcode auf WatchGuard Firebox


Aufgrund von zurzeit laufenden Attacken sollten Admins ihre Firebox-Firewalls von WatchGuard auf den aktuellen Stand bringen. Angreifer führen Schadcode aus.

Weiterlesen nach der Anzeige

In einer Warnmeldung führen die Entwickler aus, dass von der „kritischen“ Sicherheitslücke (CVE-2025-14733) in Fireware OS folgende Konfigurationen betroffen sind: Mobile User VPN mit IKEv2 und Branch Office VPN mit IKEv2, wenn es mit einem dynamischen Gateway-Peer konfiguriert ist.

Ist das gegeben, sind Attacken aus der Ferne und ohne Authentifizierung möglich. Setzen Angreifer erfolgreich an der Lücke an, kommt es zu Speicherfehlern (Out-of-bounds) und es gelangt Schadcode auf Systeme.

In welchem Umfang und wie genau solche Attacken ablaufen, ist derzeit nicht bekannt. Unklar ist auch, was Angreifer konkret anstellen. Aufgrund der kritischen Einstufung ist aber davon auszugehen, dass Angreifer Geräte nach der Ausführung von Schadcode vollständig kompromittieren.

Damit Admins bereits attackierte Instanzen erkennen können, listet WatchGuard diverse Parameter (Indicator of Compromise, IoC) wie IP-Adressen in der Warnmeldung auf. Es gibt aber auch bestimmte Hinweise in Logdateien. Außerdem kommt es nach erfolgreichen Angriffen zu Fehlern bei VPN-Verbindungen.

Weiterlesen nach der Anzeige

Um Firewalls und Netzwerke zu schützen, müssen Admins zügig Fireware OS 12.3.1_Update4 (B728352), 12.5.15, 12.11.6 oder 2025.1.4 installieren. Für den Versionsstrang 11.x ist der Support ausgelaufen und es gibt keine Sicherheitspatches mehr. An dieser Stelle ist ein Upgrade nötig.

Können Admins die abgesicherten Ausgaben nicht direkt installieren, müssen sie Geräte temporär über einen Workaround absichern.


(des)



Source link

Weiterlesen

Künstliche Intelligenz

Wie Sie automatisierte Reports mit KI-Agenten erstellen


Generative KI (GenAI) und agentische Ansätze haben in den vergangenen zwei Jahren einen riesigen Sprung gemacht. Sprachmodelle wie GPT-4o, Claude und Gemini können heute mehr als nur Text generieren: Sie orchestrieren Workflows, rufen Werkzeuge auf, interagieren mit Datenbanken und schreiben Berichte. Das rückt Reporting als einen viel genutzten Anwendungsfall ins Rampenlicht. Es sammelt Daten aus internen und externen Quellen, führt Analysen durch, erzeugt visuelle Darstellungen und verteilt sie per Chatbot oder E-Mail – ohne jede Aktion hart zu codieren.

Während klassische Automatisierung definierte Schritte in fester Reihenfolge ausführt, sind Agenten Systeme, die Aufgaben im Auftrag von Nutzern selbstständig erledigen. Laut OpenAI (PDF) führen Agenten eine LLM-gesteuerte Logik aus, entscheiden, wann ein Workflow abgeschlossen ist, und geben bei Fehlern die Kontrolle an den Nutzer zurück. Agenten können verschiedene Werkzeuge nutzen und wählen sie dynamisch aus, um Kontext zu sammeln und Aktionen auszuführen. Sie eignen sich vor allem für komplexe Entscheidungsprozesse, schwer wartbare Regelsysteme und Aufgaben mit unstrukturierten Daten.

  • KI-Agenten bieten die Chance, Berichte schnell, präzise und individuell zu erstellen.
  • Sie verwenden Tools und Datenbanken, die sich über das Model Context Protocol (MCP) bereitstellen lassen.
  • Bei komplexen Reports ist es sinnvoll, mehrere spezialisierte Agenten zusammenarbeiten zu lassen.
  • Vorsicht ist beim Zugriff auf Datenbanktabellen geboten; er sollte über Whitelists und Auditlogs gesichert sein. Ansonsten droht ein Dataset Creep, bei dem Agenten auf Daten zugreifen, die sie nicht nutzen dürfen.

Ein Agent besitzt drei Kernkomponenten: ein Modell, also das LLM für Reasoning und Planung, Tools für externe Funktionen wie Datenbanken oder APIs, und Instruktionen mit Prompts und Guardrails, die das Verhalten steuern. Viele aktuelle Frameworks erweitern das um einen vierten Baustein – Memory. Hier speichert der Agent Kontext, Dokumente oder Nutzerinformationen, um über mehrere Abfragen hinweg konsistent zu bleiben.


Das war die Leseprobe unseres heise-Plus-Artikels „Wie Sie automatisierte Reports mit KI-Agenten erstellen“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

Web-Suche für die lokale KI: So schließen Ihre LLMs Wissenslücken


Zu den größten Stärken lokaler KIs zählt der Datenschutz. Nutzer können sich ungestört mit ihren LLMs unterhalten, ohne dass ein Dritter Gespräche mitliest, speichert und für eigene Zwecke auswertet. Ein wesentlicher Nachteil der lokalen LLMs aber ist der statische Wissensstichtag: Er ist auf den Zeitpunkt des Trainings beschränkt; Informationen, die danach entstanden sind, bleiben ohne externe Hilfe verborgen. Bei vielen Modellen liegt dieser Stichtag mehr als ein Jahr zurück. Ein Anfang 2025 trainiertes lokales LLM kann nicht wissen, wer beispielsweise im Oktober 2025 den Physiknobelpreis erhalten hat.

Web-Suchfunktionen schließen diese Lücke. Lokale KI-Modelle lassen sich relativ unkompliziert mit der Fähigkeit zur Internet-Recherche ausstatten: völlig kostenlos und komplett auf dem eigenen System gehostet. Wir haben das in einem lokalen Setup eingerichtet und ausprobiert. Der Einrichtungsaufwand liegt nur bei einer guten Stunde und bedient sich ausschließlich frei nutzbarer, quelloffener Software.

  • Mit der Fähigkeit zur Web-Suche holen Nutzer ihre lokalen LLMs aus der eigenen Trainings-Bubble. So liefern die Modelle auch Informationen zu aktuellen Ereignissen.
  • Die browserbasierte Software Open WebUI bietet einen komfortablen Weg, die lokalen Sprachmodelle mit dem Werkzeug einer Online-Recherche zu verknüpfen.
  • Der Artikel erläutert Schritt für Schritt den vollständigen Weg zur Einrichtung der Web-Suche für lokale KIs unter Windows 11.

Der Artikel erklärt, wie Sie eine Web-Suchfunktion für Ihre lokalen KI-Modelle unter Windows 11 einrichten. Voraussetzung dafür ist eine Ollama-Installation. Der Text erläutert Schritt für Schritt die Einrichtung von Open WebUI unter Docker und einer geeigneten Suchmaschine für hohen Datenschutz. Fertig eingerichtet durchpflügt das KI-System das Internet nach aktuellen Informationen, liest Web-Inhalte aus und liefert die passenden Quellen zum Nachlesen.


Das war die Leseprobe unseres heise-Plus-Artikels „Web-Suche für die lokale KI: So schließen Ihre LLMs Wissenslücken“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Beliebt