Künstliche Intelligenz
Ollee Watch im Test: Casio-Uhr zur Smartwatch aufrüsten
Dass eine Designer-Armbanduhr nicht teuer sein muss, beweist die Casio F-91W. Auch wenn das Produktkürzel Ihnen nichts sagen sollte, haben Sie diese Uhr bestimmt schon einmal gesehen: Schätzungsweise 120 Millionen Mal ging die kleine Plastikuhr seit 1989 über die Ladentheke. Kein Wunder, das Kultobjekt kostet ja auch nur knapp 20 Euro.
Trotz Funktionen wie Timer und Alarm ist sie allerdings alles andere als smart. Die Ollee Watch soll das ändern. Mit der Platine erweitern Casio-Träger das Innenleben ihrer Lieblingsuhr um Funktionen einer Smartwatch – Schrittzähler, Pulsmesser, App-Verbindung via Bluetooth. Die Ollee Watch ist aber nicht nur mit Casios Bestseller kompatibel, sondern auch mit weiteren Modellen.
- Die rund 20 Euro teure Casio F91-W gehört zu den weltweit meistverkauften Armbanduhren – obwohl sie keine smarten Funktionen hat.
- Der DIY-Bausatz „Ollee Watch“ rüstet Bluetooth, Schrittzähler und Pulsmesser nach, weitere Funktionen sollen per Softwareupdate folgen.
- Ob Sie für den Einbau das Feingefühl eines Uhrmachers benötigen oder lieber zum Fertig-Set greifen, erklären wir im Test.
Ob F-91W und Co. damit zu einer ernsthaften Konkurrenz für die Apple Watch werden, finden wir in diesem Test heraus. Dafür haben wir die Messwerte der rund 50 Euro teuren Ollee Watch mit dem Marktführer von Apple verglichen. Wir erläutern die „smarten“ Funktionen der Ollee Watch und beschreiben den Umbauvorgang.
Das war die Leseprobe unseres heise-Plus-Artikels „Ollee Watch im Test: Casio-Uhr zur Smartwatch aufrüsten“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Linux-Systemhärtung mit Lynis | heise online
Aufwendige Audits mit umfangreichen Prüfobjekten sind Teil jeder guten Sicherheitsstrategie. Ohne Unterstützung durch Tools sind größere Audits kaum zu leisten. Das Sicherheitsauditing-Werkzeug Lynis ermöglicht ein softwaregestütztes Audit, Systemhärtung sowie die Überprüfung auf Compliance auf Linux-Systemen. Als freie Software (GPLv3) erlaubt Lynis einen direkten Einstieg sowie das Konfigurieren gemäß den eigenen Bedürfnissen. Es basiert auf Shellskripten, was das Nachvollziehen und selbstständige Erweitern der Funktionalität erleichtert.
Das Tool ist dabei vergleichbar mit dem CIS-Benchmark Assessor: Eine vorkonfigurierbare Menge an Testfällen lässt sich gegen ein System prüfen und basierend darauf gibt das System einen Bericht aus, der eine Einschätzung zum Härtungsgrad erlaubt. Darüber hinaus können Nutzerinnen und Nutzer daraus Maßnahmen entnehmen, die die Sicherheit des Systems verbessern. Hinter dem Tool steht das Unternehmen CISOfy, das kommerziellen Support anbietet. Die Entwicklung ist öffentlich in einem Git-Repository dokumentiert.
- Lynis unterstützt als Open-Source-Tool bei Systemhärtung, Auditierung und Complianceprüfungen und ist flexibel an die eigene Umgebung anpassbar.
- Durch den modularen Aufbau und frei erweiterbare Tests lässt sich das Tool individuell konfigurieren und in bestehende Prozesse integrieren.
- Mit der Enterprise-Variante skaliert Lynis vom Einzelsystem bis zur gesamten Unternehmensstruktur und unterstützt CISO-Prozesse durch zentrale Ergebnisaufbereitung.
Lynis installieren
Eine Installation über den Paketmanager ist für die gängigen Distributionen verfügbar, die Pakete sind aber teilweise veraltet. Für aktuelle Versionen lässt sich das Git-Repository direkt klonen. Die Auswahl eines Release über git checkout gewährleistet die Stabilität des Programms. Lynis ist so aufgebaut, dass es ohne weitere externe Abhängigkeiten auskommt. Innerhalb weniger Minuten kann die Untersuchung eines Systems beginnen.
Das war die Leseprobe unseres heise-Plus-Artikels „Linux-Systemhärtung mit Lynis“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
GitLab 18.9: Eigene KI-Modelle und KI-gestützte Sicherheitsfeatures
Nachdem GitLab seine Duo Agent Platform zum Jahresbeginn allgemein verfügbar gemacht hatte – inklusive Agentic Chat, Planner Agent und Security Analyst Agent –, legt das Unternehmen mit dem Release GitLab 18.9 nach. Die Neuerungen konzentrieren sich unter anderem auf die Anbindung eigener KI-Modelle, einen umfangreichen Ausbau der Sicherheitswerkzeuge und die Lieferung eines von Entwicklerinnen und Entwicklern lang gewünschten Features: Project-level Epics.
Weiterlesen nach der Anzeige
Eigene KI-Modelle per Token-Authentifizierung anbinden
Unter dem Motto Bring Your Own Key (BYOK) führt GitLab in einem ersten Schritt die Möglichkeit ein, unternehmenseigene KI-Modell-Abonnements über das GitLab AI Gateway zu nutzen. Unternehmen sollen damit bestehende Verträge mit KI-Anbietern weiterhin nutzen können, während sie gleichzeitig Zugriff auf die agentischen Workflow-Funktionen der Duo Agent Platform erhalten. Die Anbindung erfolgt über tokenbasierte Authentifizierung. Das Feature baut auf der Self-Hosted-Option der Duo Agent Platform und der Modellauswahl aus früheren Releases auf.
Ebenfalls erweitert wird der Agentic Chat: Er soll künftig Datei-Uploads und Web-Inhalte als vollwertigen Kontext verarbeiten können. Teams könnten damit Logs, Spezifikationen und Dokumentationen direkt in Agenten-Konversationen einbringen, ohne zwischen externen Dokumenten und GitLab wechseln zu müssen. Laut Ankündigung soll damit ein Schritt weg von rein Repository-basiertem Reasoning hin zu quellenübergreifender Fehleranalyse und Planung gelingen.
KI gegen Fehlalarme und für automatische Schwachstellenbehebung
In puncto Sicherheit setzt GitLab verstärkt auf KI-Hilfe. Eine neue Funktion zur KI-gestützten False-Positive-Erkennung soll Befunde der Secrets-Erkennung analysieren, bevor sie Entwicklerinnen und Entwickler erreichen. Laut GitLab identifiziert das System Test-Credentials, Beispielwerte und Platzhalter-Secrets und liefert dabei Erklärungen sowie Konfidenzwerte. Validierte Fehlalarme sollen sich per Bulk-Dismiss verwerfen lassen. GitLab betont, dass Präzisions- und Recall-Metriken erhoben werden, um die Erkennungsgenauigkeit kontinuierlich zu verbessern.
Die agentenbasierte Massenbereinigung von Schwachstellen geht einen Schritt weiter: Wenn dasselbe Verwundbarkeitsmuster an mehreren Stellen im Code auftritt, soll das System verwandte Befunde nach gemeinsamer Ursache gruppieren und konsolidierte Merge Requests (MR) erzeugen. Damit will GitLab auch der „Review-Müdigkeit“ entgegenwirken, die auftreten kann, wenn für jede einzelne Instanz ein separater MR erstellt wird. Die Funktion baut auf dem bestehenden SAST-Resolution-Flow auf.
Weiterlesen nach der Anzeige
Ergänzend dazu erweitert GitLab die automatische Behebung durch Dependency Bumping: Die Auto-Remediation soll konfigurierbare Schweregrade von LOW bis CRITICAL unterstützen und die Wahl zwischen Major-, Minor- und Patch-Versionssprüngen ermöglichen. Betroffene Abhängigkeiten lassen sich dann wahlweise in gruppierten oder einzelnen Merge Requests aktualisieren.
Schwachstellenmanagement über den Default-Branch hinaus
Eine laut GitLab häufig geforderte Funktion ist das Tracking von Schwachstellen auf Nicht-Default-Branches. Bisher erfasst die Plattform Verwundbarkeiten ausschließlich auf dem Default-Branch, was Organisationen mit langlebigen Release-Branches keine Sicht auf die Sicherheitslage ihres produktiven Codes bietet. Künftig sollen Teams konfigurieren können, welche Branches für das Schwachstellenmanagement verfolgt werden. Statusänderungen lassen sich lokal auf einzelne Branches oder global anwenden, und der Vulnerability Report erhält Branch-bezogene Filter.
Diese Branch-Awareness soll sich auch auf das Security-Dashboard und die Software Bill of Materials (SBOM) erstrecken: Schwachstellentrends, Abhängigkeitslisten und SBOM-Exporte – in den Formaten CycloneDX, JSON und SPDX – sollen künftig branch-spezifisch abrufbar sein.
Risikobasierte Richtlinien und neue Sicherheitsrolle
GitLab erweitert die Merge-Request-Genehmigungsrichtlinien um KEV- und EPSS-Filter. KEV (Known Exploited Vulnerabilities) und EPSS (Exploit Prediction Scoring System) eröffnen die Möglichkeit, Genehmigungspflichten nicht mehr allein am CVSS-Schweregrad festzumachen, sondern an der tatsächlichen Ausnutzbarkeit einer Schwachstelle. Sicherheitsteams können damit künftig Richtlinien formulieren, wie „Merge blockieren, wenn eine Abhängigkeit einen bekannten Exploit aufweist“.
Mit der neuen Security-Manager-Rolle adressiert GitLab ein Berechtigungsproblem: Bisher benötigten Sicherheitsteams Developer- oder Maintainer-Zugang für das Schwachstellenmanagement und erhielten damit weit mehr Rechte als nötig. Die neue Rolle erbt vom Reporter und ergänzt sicherheitsspezifische Berechtigungen – laut GitLab ein nicht-hierarchisches Modell, das die lineare Guest-to-Owner-Vererbung durchbricht.
CI/CD, DORA-Metriken und Project-level Epics
Für die CI/CD-Pipeline stehen nun Job-Inputs für manuelle Pipeline-Jobs parat. Bisher existieren Inputs nur auf Pipeline-Ebene; wenn sich die Parameter für einzelne manuelle Jobs ändern, ist ein vollständiger Pipeline-Neustart nötig. Künftig sollen individuelle Job-Parameter konfigurierbar sein, auch basierend auf Ergebnissen vorheriger Jobs. GitLab hofft, mit dieser Neuerung insbesondere Teams, die von Jenkins wechseln möchten, die Migration zu erleichtern.
Die DORA-4-Metrics-API soll eine vollständige Abdeckung aller vier DORA-Metriken – Deployment Frequency, Lead Time for Changes, Change Failure Rate und Time to Restore Service – bieten. So sollen Entwicklerinnen und Entwickler programmatischen Zugriff für Dashboards, Executive Reporting und automatisiertes Alerting ohne Abhängigkeit von der GitLab-Oberfläche erhalten.
Mit Project-level Epics liefert GitLab eine der meistgewünschten Funktionen aus. Bisher sind Epics ausschließlich auf Gruppenebene verfügbar, was Teams laut GitLab dazu zwingt, unnötige Untergruppen anzulegen oder Milestones zweckzuentfremden. Künftig sollen Epics im Premium-Tier auch auf Projektebene nutzbar sein, inklusive Roadmap-, Board- und View-Unterstützung. GitLab beschreibt dies als dokumentierten Blocker für Migrationen.
Lesen Sie auch
Einen vollständigen Überblick aller Änderungen sowie mehr Details zu den einzelnen Aspekten in GitLab 18.9 liefern der Blogbeitrag sowie die Release Notes.
(map)
Künstliche Intelligenz
Sam Altman: „Rechenzentren im All sind lächerlich“
Im Rahmen des „India AI Impact Summit“ in Delhi gab OpenAI-Mitbegründer und CEO der Tageszeitung „The Indian Express“ eines seiner seltenen ausführlichen Interviews. Dabei waren auch Fragen aus dem Publikum zugelassen. Davor gab es jedoch ein Gespräch mit dem Geschäftsführer des Express, Anant Goenka. Er fragte unter anderem nach der von Altmans Konkurrent Elon Musk propagierten Idee von Rechenzentren im Weltall.
Weiterlesen nach der Anzeige
„Ganz ehrlich glaube ich, dass mit der gegenwärtigen Umgebung die Idee von Rechenzentren im All lächerlich ist.“ Wenn man nur die „einfachste Berechnung“ der Kosten des Transports ins All durchführe, zeige sich das. Und dann, so Altman, „Rede ja auch noch keiner davon, wie man eine kaputte GPU im All repariert. Und leider gehen die immer noch sehr oft kaputt.“ Es könne zwar sein, dass sich ein Rechenzentrum im Weltraum irgendwann rechnet, im laufenden Jahrzehnt sieht der OpenAI-Chef das jedoch noch nicht.
Enge Beziehungen zu Regierungen nötig
Weil schon auf der Erde die Infrastrukturkosten so hoch sind – Altman träumte einst von Billionen an Investitionen – sei auch eine enge Zusammenarbeit mit Regierungen für die KI-Branche nötig. Dabei sieht er zwar nach wie vor Konflikte, zu den Beziehungen auch mit der aktuellen US-Regierung sagt Altman jedoch: „Je besser sie sein kann, umso besser für uns alle.“ Auf dem Gipfel hatte er an anderer Stelle jedoch auch Regulierung gefordert.
Der Indian Express hat das gesamte Gespräch auch auf YouTube als Video veröffentlicht. Auf eine Frage an dieser Stelle nach den Kosten von KI für Training, insbesondere was Energie betrifft, ließ sich Altman zu einem merkwürdigen Vergleich hinreißen. Oft, so sagte er, werde eine Anfrage bei ChatGPT mit einer Anfrage bei einem Menschen verglichen. „Es braucht 20 Jahre Leben, und all das Essen, das man in dieser Zeit isst, bevor man schlau wird.“ Dazu komme noch die gesamte Evolution der Menschheit. Die bessere Frage sei, wieviel Kosten eine Anfrage bei einer KI gegenüber der bei einem Menschen an Energie benötige. „Und vielleicht hat KI da schon aufgeholt, wenn man die Energieeffizienz auf diese Art misst.“
Lesen Sie auch
(nie)
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Apps & Mobile Entwicklungvor 3 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Apps & Mobile Entwicklungvor 3 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
