Künstliche Intelligenz
Porträt von John Ternus: Ist er Apples nächster CEO?
Die Umstände für die Präsentation einer historischen Apple-Produktneuerung waren am 10. November 2020 alles andere als ideal. Die Corona-Pandemie breitete sich verheerend schnell aus, die Weltwirtschaft rutschte in eine tiefe Rezession. Trotz der widrigen Rahmenbedingungen wollte Apple-Chef Tim Cook das „One More Thing“-Event nicht absagen. So kam John Ternus, der Leiter der Hardware-Sparte, zu seinem wichtigsten öffentlichen Auftritt: Er präsentierte die initialen Macs mit den hauseigenen M1-Chips. Sie hauchten der altgedienten Gerätekategorie neuen Schwung ein und ließen die vorausgehenden Intel-Macs über Nacht sehr alt aussehen.
Cook beschränkte sich auf eine kurze Einordnung: „Dies ist ein bedeutender Tag für den Mac und für Apple. Fortschritte dieser Größenordnung sind nur möglich, wenn man mutige Veränderungen vornimmt.“ Danach überließ er dem Jungstar Ternus die Bühne. Seitdem ist der passionierte Schwimmer aus Kalifornien immer wieder für den Chefposten im Gespräch. Beobachter sehen in ihm den künftigen Apple-CEO, sollte Tim Cook sich aus der Führungsspitze verabschieden.
- Ternus ist seit über 20 Jahren mit Apple-Hardware betraut.
- Er war an vielen Apple-Meilensteinen beteiligt.
- Jony Ives Abgang gab Ternus mehr Spielraum.
- Als Cook-Nachfolger braucht es jedoch mehr als nur Hardware-Expertise.
Feuertaufe gemeistert
Prominente Keynote-Auftritte bleiben bei Apple nicht dem Zufall überlassen: Sie dienen nicht nur der Produktvorstellung, sondern auch der sorgfältigen Präsentation des potenziellen Führungspersonals. Diese Vorstellung richtet sich nicht allein an Apple-Fans und Kunden, sondern ebenso an den Aufsichtsrat – das Board of Directors – und die Investoren.
Das war die Leseprobe unseres heise-Plus-Artikels „Porträt von John Ternus: Ist er Apples nächster CEO?“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Jetzt patchen! Angreifer schieben Schadcode auf WatchGuard Firebox
Aufgrund von zurzeit laufenden Attacken sollten Admins ihre Firebox-Firewalls von WatchGuard auf den aktuellen Stand bringen. Angreifer führen Schadcode aus.
Weiterlesen nach der Anzeige
Hintergründe
In einer Warnmeldung führen die Entwickler aus, dass von der „kritischen“ Sicherheitslücke (CVE-2025-14733) in Fireware OS folgende Konfigurationen betroffen sind: Mobile User VPN mit IKEv2 und Branch Office VPN mit IKEv2, wenn es mit einem dynamischen Gateway-Peer konfiguriert ist.
Ist das gegeben, sind Attacken aus der Ferne und ohne Authentifizierung möglich. Setzen Angreifer erfolgreich an der Lücke an, kommt es zu Speicherfehlern (Out-of-bounds) und es gelangt Schadcode auf Systeme.
In welchem Umfang und wie genau solche Attacken ablaufen, ist derzeit nicht bekannt. Unklar ist auch, was Angreifer konkret anstellen. Aufgrund der kritischen Einstufung ist aber davon auszugehen, dass Angreifer Geräte nach der Ausführung von Schadcode vollständig kompromittieren.
Damit Admins bereits attackierte Instanzen erkennen können, listet WatchGuard diverse Parameter (Indicator of Compromise, IoC) wie IP-Adressen in der Warnmeldung auf. Es gibt aber auch bestimmte Hinweise in Logdateien. Außerdem kommt es nach erfolgreichen Angriffen zu Fehlern bei VPN-Verbindungen.
Gegenmaßnahmen
Weiterlesen nach der Anzeige
Um Firewalls und Netzwerke zu schützen, müssen Admins zügig Fireware OS 12.3.1_Update4 (B728352), 12.5.15, 12.11.6 oder 2025.1.4 installieren. Für den Versionsstrang 11.x ist der Support ausgelaufen und es gibt keine Sicherheitspatches mehr. An dieser Stelle ist ein Upgrade nötig.
Können Admins die abgesicherten Ausgaben nicht direkt installieren, müssen sie Geräte temporär über einen Workaround absichern.
(des)
Künstliche Intelligenz
Wie Sie automatisierte Reports mit KI-Agenten erstellen
Generative KI (GenAI) und agentische Ansätze haben in den vergangenen zwei Jahren einen riesigen Sprung gemacht. Sprachmodelle wie GPT-4o, Claude und Gemini können heute mehr als nur Text generieren: Sie orchestrieren Workflows, rufen Werkzeuge auf, interagieren mit Datenbanken und schreiben Berichte. Das rückt Reporting als einen viel genutzten Anwendungsfall ins Rampenlicht. Es sammelt Daten aus internen und externen Quellen, führt Analysen durch, erzeugt visuelle Darstellungen und verteilt sie per Chatbot oder E-Mail – ohne jede Aktion hart zu codieren.
Während klassische Automatisierung definierte Schritte in fester Reihenfolge ausführt, sind Agenten Systeme, die Aufgaben im Auftrag von Nutzern selbstständig erledigen. Laut OpenAI (PDF) führen Agenten eine LLM-gesteuerte Logik aus, entscheiden, wann ein Workflow abgeschlossen ist, und geben bei Fehlern die Kontrolle an den Nutzer zurück. Agenten können verschiedene Werkzeuge nutzen und wählen sie dynamisch aus, um Kontext zu sammeln und Aktionen auszuführen. Sie eignen sich vor allem für komplexe Entscheidungsprozesse, schwer wartbare Regelsysteme und Aufgaben mit unstrukturierten Daten.
- KI-Agenten bieten die Chance, Berichte schnell, präzise und individuell zu erstellen.
- Sie verwenden Tools und Datenbanken, die sich über das Model Context Protocol (MCP) bereitstellen lassen.
- Bei komplexen Reports ist es sinnvoll, mehrere spezialisierte Agenten zusammenarbeiten zu lassen.
- Vorsicht ist beim Zugriff auf Datenbanktabellen geboten; er sollte über Whitelists und Auditlogs gesichert sein. Ansonsten droht ein Dataset Creep, bei dem Agenten auf Daten zugreifen, die sie nicht nutzen dürfen.
Ein Agent besitzt drei Kernkomponenten: ein Modell, also das LLM für Reasoning und Planung, Tools für externe Funktionen wie Datenbanken oder APIs, und Instruktionen mit Prompts und Guardrails, die das Verhalten steuern. Viele aktuelle Frameworks erweitern das um einen vierten Baustein – Memory. Hier speichert der Agent Kontext, Dokumente oder Nutzerinformationen, um über mehrere Abfragen hinweg konsistent zu bleiben.
Das war die Leseprobe unseres heise-Plus-Artikels „Wie Sie automatisierte Reports mit KI-Agenten erstellen“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Web-Suche für die lokale KI: So schließen Ihre LLMs Wissenslücken
Zu den größten Stärken lokaler KIs zählt der Datenschutz. Nutzer können sich ungestört mit ihren LLMs unterhalten, ohne dass ein Dritter Gespräche mitliest, speichert und für eigene Zwecke auswertet. Ein wesentlicher Nachteil der lokalen LLMs aber ist der statische Wissensstichtag: Er ist auf den Zeitpunkt des Trainings beschränkt; Informationen, die danach entstanden sind, bleiben ohne externe Hilfe verborgen. Bei vielen Modellen liegt dieser Stichtag mehr als ein Jahr zurück. Ein Anfang 2025 trainiertes lokales LLM kann nicht wissen, wer beispielsweise im Oktober 2025 den Physiknobelpreis erhalten hat.
Web-Suchfunktionen schließen diese Lücke. Lokale KI-Modelle lassen sich relativ unkompliziert mit der Fähigkeit zur Internet-Recherche ausstatten: völlig kostenlos und komplett auf dem eigenen System gehostet. Wir haben das in einem lokalen Setup eingerichtet und ausprobiert. Der Einrichtungsaufwand liegt nur bei einer guten Stunde und bedient sich ausschließlich frei nutzbarer, quelloffener Software.
- Mit der Fähigkeit zur Web-Suche holen Nutzer ihre lokalen LLMs aus der eigenen Trainings-Bubble. So liefern die Modelle auch Informationen zu aktuellen Ereignissen.
- Die browserbasierte Software Open WebUI bietet einen komfortablen Weg, die lokalen Sprachmodelle mit dem Werkzeug einer Online-Recherche zu verknüpfen.
- Der Artikel erläutert Schritt für Schritt den vollständigen Weg zur Einrichtung der Web-Suche für lokale KIs unter Windows 11.
Der Artikel erklärt, wie Sie eine Web-Suchfunktion für Ihre lokalen KI-Modelle unter Windows 11 einrichten. Voraussetzung dafür ist eine Ollama-Installation. Der Text erläutert Schritt für Schritt die Einrichtung von Open WebUI unter Docker und einer geeigneten Suchmaschine für hohen Datenschutz. Fertig eingerichtet durchpflügt das KI-System das Internet nach aktuellen Informationen, liest Web-Inhalte aus und liefert die passenden Quellen zum Nachlesen.
Das war die Leseprobe unseres heise-Plus-Artikels „Web-Suche für die lokale KI: So schließen Ihre LLMs Wissenslücken“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Künstliche Intelligenzvor 2 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Entwicklung & Codevor 1 MonatKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 2 MonatenNeue PC-Spiele im November 2025: „Anno 117: Pax Romana“
-
Künstliche Intelligenzvor 2 MonatenDonnerstag: Deutsches Flugtaxi-Start-up am Ende, KI-Rechenzentren mit ARM-Chips
-
UX/UI & Webdesignvor 2 MonatenArndt Benedikt rebranded GreatVita › PAGE online
