Künstliche Intelligenz
Massiver Stromausfall in Berlin dauert wohl bis Donnerstag
Ein großflächiger Stromausfall im Südwesten Berlins könnte noch bis nächsten Donnerstag dauern, ist die Einschätzung der Verantwortlichen bei Stromnetz Berlin GmbH. Zehntausende Menschen sind betroffen. Ursache ist der Brand an einer Kabelbrücke zum nahegelegenen Kraftwerk Lichterfelde. Dadurch sind mehrere Hochspannungskabel beschädigt worden. Der Bau von Ersatzleitungen sei sehr aufwendig, wie ein Sprecher mitteilte.
Weiterlesen nach der Anzeige
Ausfall seit dem frühen Samstagmorgen
Der Strom war am frühen Samstagmorgen in den Stadtteilen Nikolassee, Zehlendorf, Wannsee und Lichterfelde ausgefallen. Betroffen waren laut Stromnetz Berlin 45.400 Haushalte und 2.200 Gewerbebetriebe. Am Sonntagmorgen hatten 7.000 Haushalte wieder Strom.
„Aktuell arbeitet Stromnetz Berlin am Aufbau eines Provisoriums. Wir rechnen mit einer vollständigen Wiederversorgung aller Kundinnen und Kunden bis kommenden Donnerstagnachmittag (8.1.2026).“ Nötig sei umfangreicher Tiefbau und Kabelzug. Dies werde durch das Winterwetter erschwert. Außerdem laufe noch die Spurensicherung am Brandort.
Die Polizei ermittelt nach eigenen Angaben wegen des Verdachts der Brandstiftung. Einzelheiten zum Stand der Ermittlungen teilte sie zunächst nicht mit. Dem für politische Straftaten zuständigen Staatsschutz lag ein Bekennerschreiben vor, das nach offiziellen Angaben auf Echtheit geprüft wurde. Wer dahinterstecken könnte, war zunächst nicht bekannt. Man gehe von einer mutwilligen Tat aus, sagte eine Sprecherin von Wirtschaftssenatorin Franziska Giffey (SPD).
Feuerwehr: Längerer Einsatz
Wegen des Stromausfalls funktionieren auch viele Heizungen nicht. Der Mobilfunk ist gestört. Im betroffenen Gebiet haben Läden geschlossen, Ampeln sind ausgefallen. Wenn die Lage über Tage andauert, müssen viele Menschen überlegen, ob sie woanders Unterschlupf finden. Auch Schulen stellen sich darauf ein, dass in der kommenden Woche zunächst kein regulärer Unterricht stattfinden wird. Zumindest eine Schule in Berlin-Lichterfelde bleibt bis Donnerstag geschlossen, berichtet die dpa. Bewohner örtlicher Pflegeheime wurden teils in andere Einrichtungen gebracht.
Auswirkungen auf den Bahnverkehr
Weiterlesen nach der Anzeige
Wegen des Stromausfalls in Berlin sind der S-Bahn-Verkehr und der Regionalverkehr teilweise weiter unterbrochen. Die S1 (Oranienburg – Wannsee) fahre aufgrund des Ausfalls der Stromversorgung und eines Stellwerksausfalls zwischen Zehlendorf und Wannsee nicht, teilte die S-Bahn Berlin mit.
Die S7 (Ahrensfelde – Potsdam) sei zwischen Charlottenburg und Potsdam Hauptbahnhof unterbrochen. Fahrgäste können einen
Ersatzverkehr mit Bussen nutzen. Auch die Regionalexpress-Linien RE1 und RE7 seien davon betroffen.
Ähnliche Dimension wie im Herbst
Von der Dimension ist der Stromausfall nach Angaben von Stromnetz Berlin vergleichbar mit einem ähnlichen Fall im September im Südosten Berlins, als anfangs 50.000 Kunden betroffen waren. Auch damals zog sich der Stromausfall über Tage hin.
Ursache damals war ein politisch motivierter Brandanschlag auf zwei Strommasten. Die Frage, ob auch diesmal eine politisch motivierte Brandstiftung dahinter stecken könnte, blieb zunächst offen.
(nen)
Künstliche Intelligenz
Linux-Systemhärtung mit Lynis | heise online
Aufwendige Audits mit umfangreichen Prüfobjekten sind Teil jeder guten Sicherheitsstrategie. Ohne Unterstützung durch Tools sind größere Audits kaum zu leisten. Das Sicherheitsauditing-Werkzeug Lynis ermöglicht ein softwaregestütztes Audit, Systemhärtung sowie die Überprüfung auf Compliance auf Linux-Systemen. Als freie Software (GPLv3) erlaubt Lynis einen direkten Einstieg sowie das Konfigurieren gemäß den eigenen Bedürfnissen. Es basiert auf Shellskripten, was das Nachvollziehen und selbstständige Erweitern der Funktionalität erleichtert.
Das Tool ist dabei vergleichbar mit dem CIS-Benchmark Assessor: Eine vorkonfigurierbare Menge an Testfällen lässt sich gegen ein System prüfen und basierend darauf gibt das System einen Bericht aus, der eine Einschätzung zum Härtungsgrad erlaubt. Darüber hinaus können Nutzerinnen und Nutzer daraus Maßnahmen entnehmen, die die Sicherheit des Systems verbessern. Hinter dem Tool steht das Unternehmen CISOfy, das kommerziellen Support anbietet. Die Entwicklung ist öffentlich in einem Git-Repository dokumentiert.
- Lynis unterstützt als Open-Source-Tool bei Systemhärtung, Auditierung und Complianceprüfungen und ist flexibel an die eigene Umgebung anpassbar.
- Durch den modularen Aufbau und frei erweiterbare Tests lässt sich das Tool individuell konfigurieren und in bestehende Prozesse integrieren.
- Mit der Enterprise-Variante skaliert Lynis vom Einzelsystem bis zur gesamten Unternehmensstruktur und unterstützt CISO-Prozesse durch zentrale Ergebnisaufbereitung.
Lynis installieren
Eine Installation über den Paketmanager ist für die gängigen Distributionen verfügbar, die Pakete sind aber teilweise veraltet. Für aktuelle Versionen lässt sich das Git-Repository direkt klonen. Die Auswahl eines Release über git checkout gewährleistet die Stabilität des Programms. Lynis ist so aufgebaut, dass es ohne weitere externe Abhängigkeiten auskommt. Innerhalb weniger Minuten kann die Untersuchung eines Systems beginnen.
Das war die Leseprobe unseres heise-Plus-Artikels „Linux-Systemhärtung mit Lynis“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
GitLab 18.9: Eigene KI-Modelle und KI-gestützte Sicherheitsfeatures
Nachdem GitLab seine Duo Agent Platform zum Jahresbeginn allgemein verfügbar gemacht hatte – inklusive Agentic Chat, Planner Agent und Security Analyst Agent –, legt das Unternehmen mit dem Release GitLab 18.9 nach. Die Neuerungen konzentrieren sich unter anderem auf die Anbindung eigener KI-Modelle, einen umfangreichen Ausbau der Sicherheitswerkzeuge und die Lieferung eines von Entwicklerinnen und Entwicklern lang gewünschten Features: Project-level Epics.
Weiterlesen nach der Anzeige
Eigene KI-Modelle per Token-Authentifizierung anbinden
Unter dem Motto Bring Your Own Key (BYOK) führt GitLab in einem ersten Schritt die Möglichkeit ein, unternehmenseigene KI-Modell-Abonnements über das GitLab AI Gateway zu nutzen. Unternehmen sollen damit bestehende Verträge mit KI-Anbietern weiterhin nutzen können, während sie gleichzeitig Zugriff auf die agentischen Workflow-Funktionen der Duo Agent Platform erhalten. Die Anbindung erfolgt über tokenbasierte Authentifizierung. Das Feature baut auf der Self-Hosted-Option der Duo Agent Platform und der Modellauswahl aus früheren Releases auf.
Ebenfalls erweitert wird der Agentic Chat: Er soll künftig Datei-Uploads und Web-Inhalte als vollwertigen Kontext verarbeiten können. Teams könnten damit Logs, Spezifikationen und Dokumentationen direkt in Agenten-Konversationen einbringen, ohne zwischen externen Dokumenten und GitLab wechseln zu müssen. Laut Ankündigung soll damit ein Schritt weg von rein Repository-basiertem Reasoning hin zu quellenübergreifender Fehleranalyse und Planung gelingen.
KI gegen Fehlalarme und für automatische Schwachstellenbehebung
In puncto Sicherheit setzt GitLab verstärkt auf KI-Hilfe. Eine neue Funktion zur KI-gestützten False-Positive-Erkennung soll Befunde der Secrets-Erkennung analysieren, bevor sie Entwicklerinnen und Entwickler erreichen. Laut GitLab identifiziert das System Test-Credentials, Beispielwerte und Platzhalter-Secrets und liefert dabei Erklärungen sowie Konfidenzwerte. Validierte Fehlalarme sollen sich per Bulk-Dismiss verwerfen lassen. GitLab betont, dass Präzisions- und Recall-Metriken erhoben werden, um die Erkennungsgenauigkeit kontinuierlich zu verbessern.
Die agentenbasierte Massenbereinigung von Schwachstellen geht einen Schritt weiter: Wenn dasselbe Verwundbarkeitsmuster an mehreren Stellen im Code auftritt, soll das System verwandte Befunde nach gemeinsamer Ursache gruppieren und konsolidierte Merge Requests (MR) erzeugen. Damit will GitLab auch der „Review-Müdigkeit“ entgegenwirken, die auftreten kann, wenn für jede einzelne Instanz ein separater MR erstellt wird. Die Funktion baut auf dem bestehenden SAST-Resolution-Flow auf.
Weiterlesen nach der Anzeige
Ergänzend dazu erweitert GitLab die automatische Behebung durch Dependency Bumping: Die Auto-Remediation soll konfigurierbare Schweregrade von LOW bis CRITICAL unterstützen und die Wahl zwischen Major-, Minor- und Patch-Versionssprüngen ermöglichen. Betroffene Abhängigkeiten lassen sich dann wahlweise in gruppierten oder einzelnen Merge Requests aktualisieren.
Schwachstellenmanagement über den Default-Branch hinaus
Eine laut GitLab häufig geforderte Funktion ist das Tracking von Schwachstellen auf Nicht-Default-Branches. Bisher erfasst die Plattform Verwundbarkeiten ausschließlich auf dem Default-Branch, was Organisationen mit langlebigen Release-Branches keine Sicht auf die Sicherheitslage ihres produktiven Codes bietet. Künftig sollen Teams konfigurieren können, welche Branches für das Schwachstellenmanagement verfolgt werden. Statusänderungen lassen sich lokal auf einzelne Branches oder global anwenden, und der Vulnerability Report erhält Branch-bezogene Filter.
Diese Branch-Awareness soll sich auch auf das Security-Dashboard und die Software Bill of Materials (SBOM) erstrecken: Schwachstellentrends, Abhängigkeitslisten und SBOM-Exporte – in den Formaten CycloneDX, JSON und SPDX – sollen künftig branch-spezifisch abrufbar sein.
Risikobasierte Richtlinien und neue Sicherheitsrolle
GitLab erweitert die Merge-Request-Genehmigungsrichtlinien um KEV- und EPSS-Filter. KEV (Known Exploited Vulnerabilities) und EPSS (Exploit Prediction Scoring System) eröffnen die Möglichkeit, Genehmigungspflichten nicht mehr allein am CVSS-Schweregrad festzumachen, sondern an der tatsächlichen Ausnutzbarkeit einer Schwachstelle. Sicherheitsteams können damit künftig Richtlinien formulieren, wie „Merge blockieren, wenn eine Abhängigkeit einen bekannten Exploit aufweist“.
Mit der neuen Security-Manager-Rolle adressiert GitLab ein Berechtigungsproblem: Bisher benötigten Sicherheitsteams Developer- oder Maintainer-Zugang für das Schwachstellenmanagement und erhielten damit weit mehr Rechte als nötig. Die neue Rolle erbt vom Reporter und ergänzt sicherheitsspezifische Berechtigungen – laut GitLab ein nicht-hierarchisches Modell, das die lineare Guest-to-Owner-Vererbung durchbricht.
CI/CD, DORA-Metriken und Project-level Epics
Für die CI/CD-Pipeline stehen nun Job-Inputs für manuelle Pipeline-Jobs parat. Bisher existieren Inputs nur auf Pipeline-Ebene; wenn sich die Parameter für einzelne manuelle Jobs ändern, ist ein vollständiger Pipeline-Neustart nötig. Künftig sollen individuelle Job-Parameter konfigurierbar sein, auch basierend auf Ergebnissen vorheriger Jobs. GitLab hofft, mit dieser Neuerung insbesondere Teams, die von Jenkins wechseln möchten, die Migration zu erleichtern.
Die DORA-4-Metrics-API soll eine vollständige Abdeckung aller vier DORA-Metriken – Deployment Frequency, Lead Time for Changes, Change Failure Rate und Time to Restore Service – bieten. So sollen Entwicklerinnen und Entwickler programmatischen Zugriff für Dashboards, Executive Reporting und automatisiertes Alerting ohne Abhängigkeit von der GitLab-Oberfläche erhalten.
Mit Project-level Epics liefert GitLab eine der meistgewünschten Funktionen aus. Bisher sind Epics ausschließlich auf Gruppenebene verfügbar, was Teams laut GitLab dazu zwingt, unnötige Untergruppen anzulegen oder Milestones zweckzuentfremden. Künftig sollen Epics im Premium-Tier auch auf Projektebene nutzbar sein, inklusive Roadmap-, Board- und View-Unterstützung. GitLab beschreibt dies als dokumentierten Blocker für Migrationen.
Lesen Sie auch
Einen vollständigen Überblick aller Änderungen sowie mehr Details zu den einzelnen Aspekten in GitLab 18.9 liefern der Blogbeitrag sowie die Release Notes.
(map)
Künstliche Intelligenz
Sam Altman: „Rechenzentren im All sind lächerlich“
Im Rahmen des „India AI Impact Summit“ in Delhi gab OpenAI-Mitbegründer und CEO der Tageszeitung „The Indian Express“ eines seiner seltenen ausführlichen Interviews. Dabei waren auch Fragen aus dem Publikum zugelassen. Davor gab es jedoch ein Gespräch mit dem Geschäftsführer des Express, Anant Goenka. Er fragte unter anderem nach der von Altmans Konkurrent Elon Musk propagierten Idee von Rechenzentren im Weltall.
Weiterlesen nach der Anzeige
„Ganz ehrlich glaube ich, dass mit der gegenwärtigen Umgebung die Idee von Rechenzentren im All lächerlich ist.“ Wenn man nur die „einfachste Berechnung“ der Kosten des Transports ins All durchführe, zeige sich das. Und dann, so Altman, „Rede ja auch noch keiner davon, wie man eine kaputte GPU im All repariert. Und leider gehen die immer noch sehr oft kaputt.“ Es könne zwar sein, dass sich ein Rechenzentrum im Weltraum irgendwann rechnet, im laufenden Jahrzehnt sieht der OpenAI-Chef das jedoch noch nicht.
Enge Beziehungen zu Regierungen nötig
Weil schon auf der Erde die Infrastrukturkosten so hoch sind – Altman träumte einst von Billionen an Investitionen – sei auch eine enge Zusammenarbeit mit Regierungen für die KI-Branche nötig. Dabei sieht er zwar nach wie vor Konflikte, zu den Beziehungen auch mit der aktuellen US-Regierung sagt Altman jedoch: „Je besser sie sein kann, umso besser für uns alle.“ Auf dem Gipfel hatte er an anderer Stelle jedoch auch Regulierung gefordert.
Der Indian Express hat das gesamte Gespräch auch auf YouTube als Video veröffentlicht. Auf eine Frage an dieser Stelle nach den Kosten von KI für Training, insbesondere was Energie betrifft, ließ sich Altman zu einem merkwürdigen Vergleich hinreißen. Oft, so sagte er, werde eine Anfrage bei ChatGPT mit einer Anfrage bei einem Menschen verglichen. „Es braucht 20 Jahre Leben, und all das Essen, das man in dieser Zeit isst, bevor man schlau wird.“ Dazu komme noch die gesamte Evolution der Menschheit. Die bessere Frage sei, wieviel Kosten eine Anfrage bei einer KI gegenüber der bei einem Menschen an Energie benötige. „Und vielleicht hat KI da schon aufgeholt, wenn man die Energieeffizienz auf diese Art misst.“
Lesen Sie auch
(nie)
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Apps & Mobile Entwicklungvor 3 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Apps & Mobile Entwicklungvor 3 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
