Künstliche Intelligenz
Windows on ARM: Asus mit Snapdragon X2 Extreme Edition, HP mit NPU-Turbo
Zu den ersten Notebooks mit Qualcomms neuer Prozessorgeneration Snapdragon X2 gehören die ZenBooks A14 und A16 von Asus und die HP-Modelle EliteBook X G2q sowie OmniBook Ultra G2q. Und beide haben gleich von Beginn an Sonderlocken, die anderen Geräten fehlen werden.
Weiterlesen nach der Anzeige
Das ZenBook A14 ist wie sein vor einem Jahr gestarteter Vorgänger ein besonders leichter 14-Zöller, der nun den Sprung auf die neue CPU-Generation macht. Das neue ZenBook A16 ergänzt die Baureihe nicht nur um eine Variante mit größerem 16-Zoll-Bildschirm, sondern ist auch das erste und bislang einzige Notebook, in dem das Topmodell Snapdragon X2 Elite Extreme zum Einsatz kommt.
Dieser Prozessor läuft technisch außerhalb des restlichen X2-Portfolios, weil er eine eigene CPU-Fassung und somit angepasste Mainboards benötigt. Sein Speicherinterface umfasst nämlich drei statt wie sonst üblich zwei Speicherkanäle (192 statt 128 Bit) und obendrein ist der Arbeitsspeicher Teil des CPU-Trägers. Für diese Fassung gibt es bislang auch nur genau ein CPU-Modell, nämlich den 18-Kerner X2E-96-100 mit 48 GByte integriertem LPDDR5X-RAM – ergo hat das Asus ZenBook A16 immer diesen an Bord.
Zu Preis und Verkaufsstart hat Asus bislang keine Angaben gemacht.
NPU mit 85 statt 80 TOPS
HP wiederum beschränkt sich bei seinen 14-Zöllern EliteBook X G2q und OmniBook Ultra G2q nicht auf die bislang von Qualcomm enthüllte CPU-Auswahl, die allen Anbietern zur Verfügung steht. Stattdessen kommen in den voraussichtlich ab März erhältlichen Notebooks die HP-exklusiven Modelle X2E-90-100 (18 CPU-Kerne) und X2E-84-100 (12 CPU-Kerne) zum Einsatz. Sie ähneln den frei verfügbaren Varianten X2E-88-100 beziehungsweise X2E-80-100, haben aber eine aufgebohrte KI-Einheit (Neural Processing Unit, NPU), die auf die bereits herausragenden 80 TOPS (Billionen Operationen pro Sekunde) der regulären X2-Modelle noch einen draufsetzt: Hier gibt es 85 TOPS.

HP OmniBook Ultra G2q und HP EliteBook X G2q
(Bild: Florian Müssig / heise medien)
Auf die Frage, was man als Nutzer denn von all dieser NPU-Rechenleistung deutlich oberhalb den von Copilot+ vorgeschriebenen 40 TOPS habe, gab Microsofts James Howell zu Protokoll, dass künftig dann schlicht mehrere KI-Modelle parallel laufen können. Wer beispielsweise während eines Teams-Meetings (mit KI-weichgezeichnetem Hintergrund) eine angefragte Datei per E-Mail verschicken will, im Trubel aber vergisst, die Datei tatsächlich anzuhängen, muss künftig nicht noch eine zweite E-Mail samt Entschuldigung hinterherschicken. Stattdessen analysiert ein lokal laufendes Sprachmodell den Inhalt der E-Mail, wenn man auf Senden klickt, und Outlook hakt noch einmal beim Nutzer nach, wenn die KI feststellt, dass von einem Anhang die Rede ist, ein solcher aber fehlt.
Weiterlesen nach der Anzeige
White-Label-Snapdragon
Angesichts der Tatsache, dass Microsoft und Qualcomm dieselbe Vision hinsichtlich NPU und KI auf Notebooks teilen und den engen Schulterschluss demonstrieren, steht nicht zu erwarten, dass Qualcomm viel Aufwand in die Unterstützung anderer Betriebssystemen als Windows stecken wird. Diese Erkenntnis hat Ende 2025 bereits dazu geführt, dass Tuxedo sein Projekt, ein Linux-Notebook mit Snapdragon X auf den Markt zu bringen, eingestampft hat.

White-Label-Notebooks mit Snapdragon X2 von Wistron (links), Quanta (Mitte) und Compal (rechts)
(Bild: Florian Müssig / heise medien)
An White-Label-Hardware, die kleine lokale Notebook-Anbieter als Basis ihres Geräteangebots verwenden können, mangelt es hingegen nicht: Qualcomm zeigte auf der CES, welche Auftragsfertiger (ODM) hinter den bislang gezeigten und für Benchmarks verwendeten Referenzsystemen stecken. Die Notebooks stammen von Compal (KQX80, KQX81), Wistron (Oryon2 Clamshell) und Quanta (QM8) und die All-in-One-PCs von Longcheer. Womöglich trifft man das ein oder andere Gerät künftig also unter anderem Namen auch im Handel an.
heise medien ist offizieller Medienpartner der CES 2026.
(mue)
Künstliche Intelligenz
Linux-Systemhärtung mit Lynis | heise online
Aufwendige Audits mit umfangreichen Prüfobjekten sind Teil jeder guten Sicherheitsstrategie. Ohne Unterstützung durch Tools sind größere Audits kaum zu leisten. Das Sicherheitsauditing-Werkzeug Lynis ermöglicht ein softwaregestütztes Audit, Systemhärtung sowie die Überprüfung auf Compliance auf Linux-Systemen. Als freie Software (GPLv3) erlaubt Lynis einen direkten Einstieg sowie das Konfigurieren gemäß den eigenen Bedürfnissen. Es basiert auf Shellskripten, was das Nachvollziehen und selbstständige Erweitern der Funktionalität erleichtert.
Das Tool ist dabei vergleichbar mit dem CIS-Benchmark Assessor: Eine vorkonfigurierbare Menge an Testfällen lässt sich gegen ein System prüfen und basierend darauf gibt das System einen Bericht aus, der eine Einschätzung zum Härtungsgrad erlaubt. Darüber hinaus können Nutzerinnen und Nutzer daraus Maßnahmen entnehmen, die die Sicherheit des Systems verbessern. Hinter dem Tool steht das Unternehmen CISOfy, das kommerziellen Support anbietet. Die Entwicklung ist öffentlich in einem Git-Repository dokumentiert.
- Lynis unterstützt als Open-Source-Tool bei Systemhärtung, Auditierung und Complianceprüfungen und ist flexibel an die eigene Umgebung anpassbar.
- Durch den modularen Aufbau und frei erweiterbare Tests lässt sich das Tool individuell konfigurieren und in bestehende Prozesse integrieren.
- Mit der Enterprise-Variante skaliert Lynis vom Einzelsystem bis zur gesamten Unternehmensstruktur und unterstützt CISO-Prozesse durch zentrale Ergebnisaufbereitung.
Lynis installieren
Eine Installation über den Paketmanager ist für die gängigen Distributionen verfügbar, die Pakete sind aber teilweise veraltet. Für aktuelle Versionen lässt sich das Git-Repository direkt klonen. Die Auswahl eines Release über git checkout gewährleistet die Stabilität des Programms. Lynis ist so aufgebaut, dass es ohne weitere externe Abhängigkeiten auskommt. Innerhalb weniger Minuten kann die Untersuchung eines Systems beginnen.
Das war die Leseprobe unseres heise-Plus-Artikels „Linux-Systemhärtung mit Lynis“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
GitLab 18.9: Eigene KI-Modelle und KI-gestützte Sicherheitsfeatures
Nachdem GitLab seine Duo Agent Platform zum Jahresbeginn allgemein verfügbar gemacht hatte – inklusive Agentic Chat, Planner Agent und Security Analyst Agent –, legt das Unternehmen mit dem Release GitLab 18.9 nach. Die Neuerungen konzentrieren sich unter anderem auf die Anbindung eigener KI-Modelle, einen umfangreichen Ausbau der Sicherheitswerkzeuge und die Lieferung eines von Entwicklerinnen und Entwicklern lang gewünschten Features: Project-level Epics.
Weiterlesen nach der Anzeige
Eigene KI-Modelle per Token-Authentifizierung anbinden
Unter dem Motto Bring Your Own Key (BYOK) führt GitLab in einem ersten Schritt die Möglichkeit ein, unternehmenseigene KI-Modell-Abonnements über das GitLab AI Gateway zu nutzen. Unternehmen sollen damit bestehende Verträge mit KI-Anbietern weiterhin nutzen können, während sie gleichzeitig Zugriff auf die agentischen Workflow-Funktionen der Duo Agent Platform erhalten. Die Anbindung erfolgt über tokenbasierte Authentifizierung. Das Feature baut auf der Self-Hosted-Option der Duo Agent Platform und der Modellauswahl aus früheren Releases auf.
Ebenfalls erweitert wird der Agentic Chat: Er soll künftig Datei-Uploads und Web-Inhalte als vollwertigen Kontext verarbeiten können. Teams könnten damit Logs, Spezifikationen und Dokumentationen direkt in Agenten-Konversationen einbringen, ohne zwischen externen Dokumenten und GitLab wechseln zu müssen. Laut Ankündigung soll damit ein Schritt weg von rein Repository-basiertem Reasoning hin zu quellenübergreifender Fehleranalyse und Planung gelingen.
KI gegen Fehlalarme und für automatische Schwachstellenbehebung
In puncto Sicherheit setzt GitLab verstärkt auf KI-Hilfe. Eine neue Funktion zur KI-gestützten False-Positive-Erkennung soll Befunde der Secrets-Erkennung analysieren, bevor sie Entwicklerinnen und Entwickler erreichen. Laut GitLab identifiziert das System Test-Credentials, Beispielwerte und Platzhalter-Secrets und liefert dabei Erklärungen sowie Konfidenzwerte. Validierte Fehlalarme sollen sich per Bulk-Dismiss verwerfen lassen. GitLab betont, dass Präzisions- und Recall-Metriken erhoben werden, um die Erkennungsgenauigkeit kontinuierlich zu verbessern.
Die agentenbasierte Massenbereinigung von Schwachstellen geht einen Schritt weiter: Wenn dasselbe Verwundbarkeitsmuster an mehreren Stellen im Code auftritt, soll das System verwandte Befunde nach gemeinsamer Ursache gruppieren und konsolidierte Merge Requests (MR) erzeugen. Damit will GitLab auch der „Review-Müdigkeit“ entgegenwirken, die auftreten kann, wenn für jede einzelne Instanz ein separater MR erstellt wird. Die Funktion baut auf dem bestehenden SAST-Resolution-Flow auf.
Weiterlesen nach der Anzeige
Ergänzend dazu erweitert GitLab die automatische Behebung durch Dependency Bumping: Die Auto-Remediation soll konfigurierbare Schweregrade von LOW bis CRITICAL unterstützen und die Wahl zwischen Major-, Minor- und Patch-Versionssprüngen ermöglichen. Betroffene Abhängigkeiten lassen sich dann wahlweise in gruppierten oder einzelnen Merge Requests aktualisieren.
Schwachstellenmanagement über den Default-Branch hinaus
Eine laut GitLab häufig geforderte Funktion ist das Tracking von Schwachstellen auf Nicht-Default-Branches. Bisher erfasst die Plattform Verwundbarkeiten ausschließlich auf dem Default-Branch, was Organisationen mit langlebigen Release-Branches keine Sicht auf die Sicherheitslage ihres produktiven Codes bietet. Künftig sollen Teams konfigurieren können, welche Branches für das Schwachstellenmanagement verfolgt werden. Statusänderungen lassen sich lokal auf einzelne Branches oder global anwenden, und der Vulnerability Report erhält Branch-bezogene Filter.
Diese Branch-Awareness soll sich auch auf das Security-Dashboard und die Software Bill of Materials (SBOM) erstrecken: Schwachstellentrends, Abhängigkeitslisten und SBOM-Exporte – in den Formaten CycloneDX, JSON und SPDX – sollen künftig branch-spezifisch abrufbar sein.
Risikobasierte Richtlinien und neue Sicherheitsrolle
GitLab erweitert die Merge-Request-Genehmigungsrichtlinien um KEV- und EPSS-Filter. KEV (Known Exploited Vulnerabilities) und EPSS (Exploit Prediction Scoring System) eröffnen die Möglichkeit, Genehmigungspflichten nicht mehr allein am CVSS-Schweregrad festzumachen, sondern an der tatsächlichen Ausnutzbarkeit einer Schwachstelle. Sicherheitsteams können damit künftig Richtlinien formulieren, wie „Merge blockieren, wenn eine Abhängigkeit einen bekannten Exploit aufweist“.
Mit der neuen Security-Manager-Rolle adressiert GitLab ein Berechtigungsproblem: Bisher benötigten Sicherheitsteams Developer- oder Maintainer-Zugang für das Schwachstellenmanagement und erhielten damit weit mehr Rechte als nötig. Die neue Rolle erbt vom Reporter und ergänzt sicherheitsspezifische Berechtigungen – laut GitLab ein nicht-hierarchisches Modell, das die lineare Guest-to-Owner-Vererbung durchbricht.
CI/CD, DORA-Metriken und Project-level Epics
Für die CI/CD-Pipeline stehen nun Job-Inputs für manuelle Pipeline-Jobs parat. Bisher existieren Inputs nur auf Pipeline-Ebene; wenn sich die Parameter für einzelne manuelle Jobs ändern, ist ein vollständiger Pipeline-Neustart nötig. Künftig sollen individuelle Job-Parameter konfigurierbar sein, auch basierend auf Ergebnissen vorheriger Jobs. GitLab hofft, mit dieser Neuerung insbesondere Teams, die von Jenkins wechseln möchten, die Migration zu erleichtern.
Die DORA-4-Metrics-API soll eine vollständige Abdeckung aller vier DORA-Metriken – Deployment Frequency, Lead Time for Changes, Change Failure Rate und Time to Restore Service – bieten. So sollen Entwicklerinnen und Entwickler programmatischen Zugriff für Dashboards, Executive Reporting und automatisiertes Alerting ohne Abhängigkeit von der GitLab-Oberfläche erhalten.
Mit Project-level Epics liefert GitLab eine der meistgewünschten Funktionen aus. Bisher sind Epics ausschließlich auf Gruppenebene verfügbar, was Teams laut GitLab dazu zwingt, unnötige Untergruppen anzulegen oder Milestones zweckzuentfremden. Künftig sollen Epics im Premium-Tier auch auf Projektebene nutzbar sein, inklusive Roadmap-, Board- und View-Unterstützung. GitLab beschreibt dies als dokumentierten Blocker für Migrationen.
Lesen Sie auch
Einen vollständigen Überblick aller Änderungen sowie mehr Details zu den einzelnen Aspekten in GitLab 18.9 liefern der Blogbeitrag sowie die Release Notes.
(map)
Künstliche Intelligenz
Sam Altman: „Rechenzentren im All sind lächerlich“
Im Rahmen des „India AI Impact Summit“ in Delhi gab OpenAI-Mitbegründer und CEO der Tageszeitung „The Indian Express“ eines seiner seltenen ausführlichen Interviews. Dabei waren auch Fragen aus dem Publikum zugelassen. Davor gab es jedoch ein Gespräch mit dem Geschäftsführer des Express, Anant Goenka. Er fragte unter anderem nach der von Altmans Konkurrent Elon Musk propagierten Idee von Rechenzentren im Weltall.
Weiterlesen nach der Anzeige
„Ganz ehrlich glaube ich, dass mit der gegenwärtigen Umgebung die Idee von Rechenzentren im All lächerlich ist.“ Wenn man nur die „einfachste Berechnung“ der Kosten des Transports ins All durchführe, zeige sich das. Und dann, so Altman, „Rede ja auch noch keiner davon, wie man eine kaputte GPU im All repariert. Und leider gehen die immer noch sehr oft kaputt.“ Es könne zwar sein, dass sich ein Rechenzentrum im Weltraum irgendwann rechnet, im laufenden Jahrzehnt sieht der OpenAI-Chef das jedoch noch nicht.
Enge Beziehungen zu Regierungen nötig
Weil schon auf der Erde die Infrastrukturkosten so hoch sind – Altman träumte einst von Billionen an Investitionen – sei auch eine enge Zusammenarbeit mit Regierungen für die KI-Branche nötig. Dabei sieht er zwar nach wie vor Konflikte, zu den Beziehungen auch mit der aktuellen US-Regierung sagt Altman jedoch: „Je besser sie sein kann, umso besser für uns alle.“ Auf dem Gipfel hatte er an anderer Stelle jedoch auch Regulierung gefordert.
Der Indian Express hat das gesamte Gespräch auch auf YouTube als Video veröffentlicht. Auf eine Frage an dieser Stelle nach den Kosten von KI für Training, insbesondere was Energie betrifft, ließ sich Altman zu einem merkwürdigen Vergleich hinreißen. Oft, so sagte er, werde eine Anfrage bei ChatGPT mit einer Anfrage bei einem Menschen verglichen. „Es braucht 20 Jahre Leben, und all das Essen, das man in dieser Zeit isst, bevor man schlau wird.“ Dazu komme noch die gesamte Evolution der Menschheit. Die bessere Frage sei, wieviel Kosten eine Anfrage bei einer KI gegenüber der bei einem Menschen an Energie benötige. „Und vielleicht hat KI da schon aufgeholt, wenn man die Energieeffizienz auf diese Art misst.“
Lesen Sie auch
(nie)
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Apps & Mobile Entwicklungvor 3 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Apps & Mobile Entwicklungvor 3 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
