Connect with us

Künstliche Intelligenz

GitLab 18.9: Eigene KI-Modelle und KI-gestützte Sicherheitsfeatures


Nachdem GitLab seine Duo Agent Platform zum Jahresbeginn allgemein verfügbar gemacht hatte – inklusive Agentic Chat, Planner Agent und Security Analyst Agent –, legt das Unternehmen mit dem Release GitLab 18.9 nach. Die Neuerungen konzentrieren sich unter anderem auf die Anbindung eigener KI-Modelle, einen umfangreichen Ausbau der Sicherheitswerkzeuge und die Lieferung eines von Entwicklerinnen und Entwicklern lang gewünschten Features: Project-level Epics.

Weiterlesen nach der Anzeige

Unter dem Motto Bring Your Own Key (BYOK) führt GitLab in einem ersten Schritt die Möglichkeit ein, unternehmenseigene KI-Modell-Abonnements über das GitLab AI Gateway zu nutzen. Unternehmen sollen damit bestehende Verträge mit KI-Anbietern weiterhin nutzen können, während sie gleichzeitig Zugriff auf die agentischen Workflow-Funktionen der Duo Agent Platform erhalten. Die Anbindung erfolgt über tokenbasierte Authentifizierung. Das Feature baut auf der Self-Hosted-Option der Duo Agent Platform und der Modellauswahl aus früheren Releases auf.

Ebenfalls erweitert wird der Agentic Chat: Er soll künftig Datei-Uploads und Web-Inhalte als vollwertigen Kontext verarbeiten können. Teams könnten damit Logs, Spezifikationen und Dokumentationen direkt in Agenten-Konversationen einbringen, ohne zwischen externen Dokumenten und GitLab wechseln zu müssen. Laut Ankündigung soll damit ein Schritt weg von rein Repository-basiertem Reasoning hin zu quellenübergreifender Fehleranalyse und Planung gelingen.

In puncto Sicherheit setzt GitLab verstärkt auf KI-Hilfe. Eine neue Funktion zur KI-gestützten False-Positive-Erkennung soll Befunde der Secrets-Erkennung analysieren, bevor sie Entwicklerinnen und Entwickler erreichen. Laut GitLab identifiziert das System Test-Credentials, Beispielwerte und Platzhalter-Secrets und liefert dabei Erklärungen sowie Konfidenzwerte. Validierte Fehlalarme sollen sich per Bulk-Dismiss verwerfen lassen. GitLab betont, dass Präzisions- und Recall-Metriken erhoben werden, um die Erkennungsgenauigkeit kontinuierlich zu verbessern.

Die agentenbasierte Massenbereinigung von Schwachstellen geht einen Schritt weiter: Wenn dasselbe Verwundbarkeitsmuster an mehreren Stellen im Code auftritt, soll das System verwandte Befunde nach gemeinsamer Ursache gruppieren und konsolidierte Merge Requests (MR) erzeugen. Damit will GitLab auch der „Review-Müdigkeit“ entgegenwirken, die auftreten kann, wenn für jede einzelne Instanz ein separater MR erstellt wird. Die Funktion baut auf dem bestehenden SAST-Resolution-Flow auf.

Weiterlesen nach der Anzeige

Ergänzend dazu erweitert GitLab die automatische Behebung durch Dependency Bumping: Die Auto-Remediation soll konfigurierbare Schweregrade von LOW bis CRITICAL unterstützen und die Wahl zwischen Major-, Minor- und Patch-Versionssprüngen ermöglichen. Betroffene Abhängigkeiten lassen sich dann wahlweise in gruppierten oder einzelnen Merge Requests aktualisieren.

Eine laut GitLab häufig geforderte Funktion ist das Tracking von Schwachstellen auf Nicht-Default-Branches. Bisher erfasst die Plattform Verwundbarkeiten ausschließlich auf dem Default-Branch, was Organisationen mit langlebigen Release-Branches keine Sicht auf die Sicherheitslage ihres produktiven Codes bietet. Künftig sollen Teams konfigurieren können, welche Branches für das Schwachstellenmanagement verfolgt werden. Statusänderungen lassen sich lokal auf einzelne Branches oder global anwenden, und der Vulnerability Report erhält Branch-bezogene Filter.

Diese Branch-Awareness soll sich auch auf das Security-Dashboard und die Software Bill of Materials (SBOM) erstrecken: Schwachstellentrends, Abhängigkeitslisten und SBOM-Exporte – in den Formaten CycloneDX, JSON und SPDX – sollen künftig branch-spezifisch abrufbar sein.

GitLab erweitert die Merge-Request-Genehmigungsrichtlinien um KEV- und EPSS-Filter. KEV (Known Exploited Vulnerabilities) und EPSS (Exploit Prediction Scoring System) eröffnen die Möglichkeit, Genehmigungspflichten nicht mehr allein am CVSS-Schweregrad festzumachen, sondern an der tatsächlichen Ausnutzbarkeit einer Schwachstelle. Sicherheitsteams können damit künftig Richtlinien formulieren, wie „Merge blockieren, wenn eine Abhängigkeit einen bekannten Exploit aufweist“.

Mit der neuen Security-Manager-Rolle adressiert GitLab ein Berechtigungsproblem: Bisher benötigten Sicherheitsteams Developer- oder Maintainer-Zugang für das Schwachstellenmanagement und erhielten damit weit mehr Rechte als nötig. Die neue Rolle erbt vom Reporter und ergänzt sicherheitsspezifische Berechtigungen – laut GitLab ein nicht-hierarchisches Modell, das die lineare Guest-to-Owner-Vererbung durchbricht.

Für die CI/CD-Pipeline stehen nun Job-Inputs für manuelle Pipeline-Jobs parat. Bisher existieren Inputs nur auf Pipeline-Ebene; wenn sich die Parameter für einzelne manuelle Jobs ändern, ist ein vollständiger Pipeline-Neustart nötig. Künftig sollen individuelle Job-Parameter konfigurierbar sein, auch basierend auf Ergebnissen vorheriger Jobs. GitLab hofft, mit dieser Neuerung insbesondere Teams, die von Jenkins wechseln möchten, die Migration zu erleichtern.

Die DORA-4-Metrics-API soll eine vollständige Abdeckung aller vier DORA-Metriken – Deployment Frequency, Lead Time for Changes, Change Failure Rate und Time to Restore Service – bieten. So sollen Entwicklerinnen und Entwickler programmatischen Zugriff für Dashboards, Executive Reporting und automatisiertes Alerting ohne Abhängigkeit von der GitLab-Oberfläche erhalten.

Mit Project-level Epics liefert GitLab eine der meistgewünschten Funktionen aus. Bisher sind Epics ausschließlich auf Gruppenebene verfügbar, was Teams laut GitLab dazu zwingt, unnötige Untergruppen anzulegen oder Milestones zweckzuentfremden. Künftig sollen Epics im Premium-Tier auch auf Projektebene nutzbar sein, inklusive Roadmap-, Board- und View-Unterstützung. GitLab beschreibt dies als dokumentierten Blocker für Migrationen.

Lesen Sie auch

Einen vollständigen Überblick aller Änderungen sowie mehr Details zu den einzelnen Aspekten in GitLab 18.9 liefern der Blogbeitrag sowie die Release Notes.


(map)



Source link

Künstliche Intelligenz

Starlink-Sperre und Hacker-Falle: Russlands digitale Front bröckelt


Lange Zeit nutzten russische Einheiten das Starlink-Satellitensystem von SpaceX intensiv, obwohl das Unternehmen von Elon Musk den Dienst für Russland offiziell blockiert hatte. Über Drittstaaten und illegale Wege gelangten die markanten weißen Empfänger in die Hände der Invasoren. Diese verwendeten sie in den besetzten Gebieten der Ukraine, um eine stabile und abhörsichere Kommunikation zu gewährleisten und so etwa Drohnenschläge durchzuführen. Die konsequente Abschaltung der illegal genutzten Terminals Anfang Februar bringt das russische Militär jetzt jedoch in Erklärungsnot und es droht ein taktisches Desaster.

Weiterlesen nach der Anzeige

Offiziell gibt sich Moskau gewohnt unbeeindruckt. Der stellvertretende Verteidigungsminister Aleksej Kriworutschko betonte im russischen Fernsehen, die Deaktivierung habe keinerlei Einfluss auf die Einsatzfähigkeit. Die Kommunikation sei über eigene, geschützte Kanäle gesichert. Unter Experten und Beobachtern wird diese Aussage jedoch als reine Schutzbehauptung gewertet. Dass die Realität an der Front eine andere ist, belegen Berichte russischer Militär-Blogger, die oft über direkte Kontakte mit den Truppen verfügen. Dort sei von ernsthaften Problemen die Rede, da viele Einheiten ihre taktische Koordinierung fast vollständig auf die zuverlässige Starlink-Verbindung gestützt hatten.

Die Folgen dieser digitalen Funkstille zeigten sich schnell auf der Landkarte. Analysten des US-amerikanischen Institute for the Study of War (ISW) sehen einen direkten Zusammenhang zwischen den Kommunikationsschwierigkeiten und jüngsten ukrainischen Erfolgen. In der Region Saporischschja gelang es demnach der ukrainischen Armee, durch gezielte Gegenstöße rund 300 Quadratkilometer Territorium zurückzuerobern. Ohne die gewohnte Echtzeitvernetzung durch Starlink scheint die russische Verteidigung an entscheidenden Stellen zu langsam und unkoordiniert zu reagieren.

Die regulären ukrainischen Truppen können ihre Geräte über eine „Whitelist“ des Verteidigungsministeriums und eine Einzelfreischaltung durch SpaceX weiterhin problemlos gebrauchen. Cyber-Aktivisten, die sich für Kiew starkmachen, haben die Verzweiflung auf der Gegenseite nun für ein Husarenstück genutzt. Hacker der „256. Cyber-Sturmdivision“, einer seit der Krim-Annexion 2014 aktiven Privatinitiative, stellten den russischen Einheiten laut der Tagesschau eine Falle.

Über den Messenger Telegram gaben sich Vertreter der Online-Bürgerwehr als korrupte Helfer oder Insider aus, die gegen Bezahlung gesperrte Starlink-Terminals wieder aktivieren könnten. Russische Soldaten, die händeringend auf der Suche nach einer stabilen Leitung sind, sind angeblich in Scharen in die Falle getappt. Um die vermeintliche Freischaltung vorzubereiten, fragten die Hacker demnach sensible Daten ab – darunter die exakten Standorte der Geräte. Trotz anfänglicher Skepsis einiger Soldaten lieferten dem Bericht zufolge fast 1500 Einheiten ihre Geodaten an die vermeintlichen Dienstleister.

Weiterlesen nach der Anzeige

Das Ergebnis war für die Aktivisten selbst überraschend umfangreich: Binnen einer Woche verfügten sie über ein präzises Zielverzeichnis russischer Stellungen, schreibt die Tagesschau. Dieses hätten sie umgehend an die ukrainische Artillerie weitergeleitet. Neben dem militärischen Schaden habe die Aktion einen massiven psychologischen Effekt erzielt. In abgehörten Funksprüchen sollen russische Soldaten panische Angst davor geäußert haben, ihre Starlink-Geräte überhaupt noch einzuschalten. Sie seien besorgt gewesen, damit ihr eigenes Todesurteil zu unterschreiben.

Als zusätzlichen Erfolg verbuchten die Hacker rund 6000 US-Dollar in Kryptowährungen, heißt es. Diese hätten sie den russischen Offizieren für die „Dienstleistung“ abgeknöpft und das Geld anschließend an die ukrainische Armee gespendet.

Zwar wird die russische Armee versuchen, auf alternative Kommunikationswege auszuweichen, doch Experten sind sich einig, dass diese weder die Stabilität noch die Abhörsicherheit des Satellitensystems von SpaceX erreichen. Für Moskau bedeutet der Verlust des Starlink-Zugangs nicht nur eine technische Schwächung. Dazu kommt das indirekte Eingeständnis, dass die eigene militärische Infrastruktur den Anforderungen eines hochmodernen vernetzten Krieges ohne westliche Technologie kaum gewachsen ist.

Lesen Sie auch


(nie)



Source link

Weiterlesen

Künstliche Intelligenz

Linux-Systemhärtung mit Lynis | heise online


Aufwendige Audits mit umfangreichen Prüfobjekten sind Teil jeder guten Sicherheitsstrategie. Ohne Unterstützung durch Tools sind größere Audits kaum zu leisten. Das Sicherheitsauditing-Werkzeug Lynis ermöglicht ein softwaregestütztes Audit, Systemhärtung sowie die Überprüfung auf Compliance auf Linux-Systemen. Als freie Software (GPLv3) erlaubt Lynis einen direkten Einstieg sowie das Konfigurieren gemäß den eigenen Bedürfnissen. Es basiert auf Shellskripten, was das Nachvollziehen und selbstständige Erweitern der Funktionalität erleichtert.

Das Tool ist dabei vergleichbar mit dem CIS-Benchmark Assessor: Eine vorkonfigurierbare Menge an Testfällen lässt sich gegen ein System prüfen und basierend darauf gibt das System einen Bericht aus, der eine Einschätzung zum Härtungsgrad erlaubt. Darüber hinaus können Nutzerinnen und Nutzer daraus Maßnahmen entnehmen, die die Sicherheit des Systems verbessern. Hinter dem Tool steht das Unternehmen CISOfy, das kommerziellen Support anbietet. Die Entwicklung ist öffentlich in einem Git-Repository dokumentiert.

  • Lynis unterstützt als Open-Source-Tool bei Systemhärtung, Auditierung und Complianceprüfungen und ist flexibel an die eigene Umgebung anpassbar.
  • Durch den modularen Aufbau und frei erweiterbare Tests lässt sich das Tool individuell konfigurieren und in bestehende Prozesse integrieren.
  • Mit der Enterprise-Variante skaliert Lynis vom Einzelsystem bis zur gesamten Unternehmensstruktur und unterstützt CISO-Prozesse durch zentrale Ergebnisaufbereitung.

Eine Installation über den Paketmanager ist für die gängigen Distributionen verfügbar, die Pakete sind aber teilweise veraltet. Für aktuelle Versionen lässt sich das Git-Repository direkt klonen. Die Auswahl eines Release über git checkout gewährleistet die Stabilität des Programms. Lynis ist so aufgebaut, dass es ohne weitere externe Abhängigkeiten auskommt. Innerhalb weniger Minuten kann die Untersuchung eines Systems beginnen.


Das war die Leseprobe unseres heise-Plus-Artikels „Linux-Systemhärtung mit Lynis“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

Sam Altman: „Rechenzentren im All sind lächerlich“


Im Rahmen des „India AI Impact Summit“ in Delhi gab OpenAI-Mitbegründer und CEO der Tageszeitung „The Indian Express“ eines seiner seltenen ausführlichen Interviews. Dabei waren auch Fragen aus dem Publikum zugelassen. Davor gab es jedoch ein Gespräch mit dem Geschäftsführer des Express, Anant Goenka. Er fragte unter anderem nach der von Altmans Konkurrent Elon Musk propagierten Idee von Rechenzentren im Weltall.

Weiterlesen nach der Anzeige

„Ganz ehrlich glaube ich, dass mit der gegenwärtigen Umgebung die Idee von Rechenzentren im All lächerlich ist.“ Wenn man nur die „einfachste Berechnung“ der Kosten des Transports ins All durchführe, zeige sich das. Und dann, so Altman, „Rede ja auch noch keiner davon, wie man eine kaputte GPU im All repariert. Und leider gehen die immer noch sehr oft kaputt.“ Es könne zwar sein, dass sich ein Rechenzentrum im Weltraum irgendwann rechnet, im laufenden Jahrzehnt sieht der OpenAI-Chef das jedoch noch nicht.

Weil schon auf der Erde die Infrastrukturkosten so hoch sind – Altman träumte einst von Billionen an Investitionen – sei auch eine enge Zusammenarbeit mit Regierungen für die KI-Branche nötig. Dabei sieht er zwar nach wie vor Konflikte, zu den Beziehungen auch mit der aktuellen US-Regierung sagt Altman jedoch: „Je besser sie sein kann, umso besser für uns alle.“ Auf dem Gipfel hatte er an anderer Stelle jedoch auch Regulierung gefordert.

Der Indian Express hat das gesamte Gespräch auch auf YouTube als Video veröffentlicht. Auf eine Frage an dieser Stelle nach den Kosten von KI für Training, insbesondere was Energie betrifft, ließ sich Altman zu einem merkwürdigen Vergleich hinreißen. Oft, so sagte er, werde eine Anfrage bei ChatGPT mit einer Anfrage bei einem Menschen verglichen. „Es braucht 20 Jahre Leben, und all das Essen, das man in dieser Zeit isst, bevor man schlau wird.“ Dazu komme noch die gesamte Evolution der Menschheit. Die bessere Frage sei, wieviel Kosten eine Anfrage bei einer KI gegenüber der bei einem Menschen an Energie benötige. „Und vielleicht hat KI da schon aufgeholt, wenn man die Energieeffizienz auf diese Art misst.“

Lesen Sie auch


(nie)



Source link

Weiterlesen

Beliebt