Künstliche Intelligenz
Digitale Unabhängigkeit: Berlins vorsichtiger Abschied von Microsoft & Co.
Die Berliner Verwaltung hat ein Problem, das tief in ihrer Geschichte verwurzelt ist. Über Jahrzehnte hinweg betrachtete sie funktionale, proprietäre Softwarelösungen als Goldstandard. „Diese Entwicklung führte jedoch dazu, dass sich in der IT der öffentlichen Verwaltung eine starke Abhängigkeit von diesen Lösungen und deren Technologieanbietern etabliert hat“, räumt der Stadtstaat in seiner neuen Open-Source-Strategie ein. Was in den 1990ern und 2000ern als Effizienzgewinn begann, diktiert heute durch steigende Lizenzkosten und unflexible Verträge den digitalen Handlungsspielraum der Behörden. Nun soll die Kehrtwende kommen.
Weiterlesen nach der Anzeige
Getrieben zeigt sich die schwarz-rote Berliner Regierung in dem jetzt veröffentlichten Papier von einer übergeordneten Erkenntnis: „Angesichts wachsender geopolitischer Spannungen ist es im Kontext der technologischen Verflechtungen und Abhängigkeiten von enormer Bedeutung, die bestehende Technologie- und Infrastrukturstrategie für die öffentliche Verwaltung zu überdenken.“
Das Dokument zeichnet das Bild einer Verwaltung, die ihre Kontrolle über kritische Infrastrukturen, Daten und das nötige Know-how zurückgewinnen muss. Das sei entscheidend, um funktionsfähig zu bleiben. Berlin will sich so nicht länger dem „anbieterseitigen Zwang“ unterwerfen, Hersteller-Cloudsysteme zu nutzen, die mit „nahezu unverhandelbaren Lizenzbedingungen“ einhergehen.
Public Money, Public Code
Die Antwort darauf soll Open-Source-Software sein. Hier ist der Quellcode öffentlich, das Programm kann analysiert, geändert und unabhängig von einem einzelnen Hersteller betrieben werden. Damit verknüpft das Land den in Deutschland schon vielfach praktizierten Grundsatz Public Money, Public Code: Software, die mit Steuergeldern speziell für die Verwaltung entwickelt wird, soll künftig unter freien Lizenzen für alle bereitgestellt werden.
Doch der Weg von der Theorie in die Praxis ist in Berlin traditionell steinig. Ein Blick auf den aktuellen Stand der IT-Modernisierung offenbart eine Kluft zwischen strategischem Anspruch und technischer Realität. Die Verwaltung kämpft seit Jahren damit, ihre unter Windows laufenden Arbeitsplatzrechner auch nur auf einem aktuellen Stand zu halten.
Erst vor Kurzem wurde bekannt, dass nur etwa 12 Prozent der Computer erfolgreich auf Windows 11 umgestellt waren. Dieser Prozess hätte eigentlich längst abgeschlossen sein sollen. Wenn Berlin schon an regulären Updates scheitert, stellt sich die Frage, wie ein Paradigmenwechsel gelingen soll. Die Strategie sieht vor, dass bis zum Jahr 2032 immerhin 70 Prozent des Software-Stacks am Arbeitsplatz auf Open-Source-Lösungen basieren sollen. Das klingt ambitioniert, lässt aber ein Zeitfenster von fast einem Jahrzehnt offen – eine Ewigkeit in der digitalen Welt.
Konkret heißt es etwa: „Als Grundlage wird ein Prototyp eingerichtet, der die OpenDesk Workbench auf einem ‚Linux-Arbeitsplatz‘ bereitstellt“. Dabei soll das Konzept eines „Open-Source-Notfallarbeitsplatzes“ evaluiert werden, „um die Betriebsfähigkeit unter Krisenbedingungen ohne Abhängigkeit von proprietären Systemen sicherzustellen“. Der Prototyp werde dann als Basis und Referenzmodell „für die Machbarkeitsanalyse und die Entwicklung dienen“. Wirklich Tempo machen geht anders.
Weiterlesen nach der Anzeige
Schleswig-Holstein ist deutlich weiter
Kritiker blicken bei diesen Vorgaben unweigerlich nach Norden. Schleswig-Holstein verfolgt einen deutlich konsequenteren Kurs und will Microsoft Adieu sagen. Dort werden bereits zehntausende Arbeitsplätze auf LibreOffice und Linux-basierte Systeme umgestellt, um Millionen an Lizenzgebühren einzusparen und echte technologische Freiheit zu gewinnen.
Berlin agiert vorsichtiger. Zwar betont der Senat die „Wechselmöglichkeit“ und „Gestaltungsfähigkeit“, baut sich aber im Kleingedruckten Hintertüren ein. So meint er, dass eine reine „Nur Open-Source-Strategie“ kurzfristig die Handlungsfähigkeit einschränken könnte. Denn für viele Fachverfahren existieren noch keine freien Alternativen. Besonders schwer wiegen zudem die Finanzoptionen: „Die Umsetzung steht unter Finanzierungsvorbehalt und erfolgt im Rahmen der zur Verfügung stehenden Mittel“. In einem chronisch klammen Land könnte dieser Satz das Todesurteil für viele ambitionierte Teilprojekte bedeuten.
Trotzdem gilt das Papier als Signal. Der Senat erkennt an, dass die bisherigen monopolistischen Strukturen nicht nur teuer, sondern ein Sicherheitsrisiko sind. Die Lizenzpolitiken großer Hyperscaler werden explizit als „kritisch“ beziehungsweise „sehr problematisch“ eingestuft. Um gegenzusteuern, soll das IT-Dienstleistungszentrum Berlin (ITDZ) zu einem Kompetenz-Hub für offene Software ausgebaut werden. Es wird dem Plan nach als „Ankerkunde“ für die regionale Digitalwirtschaft fungieren und gezielt lokale Dienstleister fördern, die auf offene Standards setzen.
Zwischen Anspruch und Zaghaftigkeit
Es bleibt die Sorge, dass die Berliner Strategie an der eigenen Komplexität und der Trägheit des Apparats scheitert. Das Dokument liest sich stellenweise wie eine Absichtserklärung mit eingebauter Handbremse. Die Verwaltung müsste daher beweisen, dass sie den „technologischen Lösungsansatz Open Source“ nicht nur als theoretisches Konstrukt versteht, sondern gegen den Widerstand eingespielter Strukturen durchsetzen kann.
Ohne massive Investitionen in personelle Ressourcen und Schulungen dürfte die digitale Souveränität in der Hauptstadt ein bloßes Schlagwort bleiben. Auch die Grünen drängten in der Opposition lange etwa angesichts des Windows-XP-Debakels vergeblich darauf, an der Spree verstärkt Open-Source-Alternativen einzusetzen. Doch auch in Zeiten ihrer Regierungsbeteiligung konnten sie da wenig erreichen.
(mki)
Künstliche Intelligenz
Security: Die eigene CA mit TPM-Chip einrichten
In einem Projekt, einem Proof of Concept oder in einer Laborumgebung kommt schnell der Bedarf nach einer Certificate Authority (CA) auf, die sich mit Tools wie OpenSSL, certtool oder CFSSL in wenigen Befehlen verwalten lässt. Der kritische private Schlüssel liegt dann jedoch im Dateisystem, möglicherweise sogar unverschlüsselt. Wenn die CA dann ungewollt noch produktiv genutzt wird, ist das Sicherheitsdrama perfekt. Dennoch muss man sich für Ad-hoc-CAs dieser Art kein Hardware Security Module (HSM) anschaffen.
Die Lösung: Die Root-CA speichert ihren privaten Schlüssel im Trusted Platform Module (TPM). Dank der Anforderungen von Windows 11 besitzen nahezu alle neuen PCs einen solchen Sicherheitschip, der entweder auf dem Mainboard sitzt oder in die CPU integriert ist. Somit kann ein herkömmlicher Windows-Rechner zur CA werden und mit dem TPM Kryptoaufgaben erledigen.
- Seit Windows 11 verfügt nahezu jeder PC über den Sicherheitsprozessor Trusted Platform Module (TPM).
- Eine Certification Authority (CA) kann den privaten Schlüssel im TPM erzeugen und sicher ablegen.
- Eine CA mit TPM erhöht die Sicherheit, reicht aber nicht an ein Hardware Security Module (HSM) heran.
- Das grafische Werkzeug XCA fungiert als Frontend und erstellt und verwaltet digitale Zertifikate, Schlüssel sowie CAs.
Auf der Softwareseite kommt XCA hinzu (Dokumentation). Die grafische Anwendung beherrscht das Tagesgeschäft einer CA: Zertifikatsanträge annehmen und Zertifikate ausstellen. Sie ist kostenfrei und erfordert keine Kommandozeilenakrobatik. Die TPM-CA erreicht bestenfalls das Sicherheitsniveau eines Selbsthosters und will auch nicht mit professioneller Software konkurrieren. Sie lässt sich aber einfach bedienen, ist günstig und bringt ein Plus an Sicherheit.
Das war die Leseprobe unseres heise-Plus-Artikels „Security: Die eigene CA mit TPM-Chip einrichten“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Rust Coreutils 0.7: Turbo für die Kommandozeile
Die Entwickler der Rust Coreutils haben Version 0.7 veröffentlicht. Der Fokus der Aktualisierung liegt auf Performance-Optimierungen, die sich über Dutzende Utilities erstrecken. Zu den Verbesserungen gehören schnellere Hash Maps, neue ASCII-Schnellpfade und reduzierte malloc-Aufrufe bei verschiedenen Befehlen. Zusätzlich haben die Entwickler Build-Fixes für NetBSD und PowerPC integriert.
Weiterlesen nach der Anzeige
Ein weiterer Schwerpunkt der Version liegt auf der Reduzierung von unsicherem Code. Konkret haben die Entwickler unsicheren libc-Code durch sichere Rust-Abstraktionen ersetzt, was die Sicherheit der Implementierung weiter erhöht. Dies knüpft an die Arbeit der Vorgängerversion 0.6 an, die bereits Buffer Overflows und Use-After-Free-Fehler durch Rusts Ownership-System eliminiert hatte. Version 0.7 eliminiert zudem Panics beim Schreiben nach /dev/full in über 20 Utilities wie echo, date und sort, was die Produktionsreife weiter erhöht.
GNU-Kompatibilität sinkt prozentual
Bei der Kompatibilität zur GNU Test Suite verzeichnet Version 0.7 einen scheinbaren Rückschritt: Die Quote sank von 96,3 Prozent in Version 0.6 auf 94,6 Prozent. Dieser Rückgang erklärt sich jedoch durch die Integration von 19 neuen Tests aus GNU Coreutils 9.10. Die absolute Anzahl bestandener Tests ist trotz der gesunkenen Prozentquote gestiegen. Zudem sind sechs weitere Tests übersprungen worden und sieben zusätzliche Tests fehlgeschlagen.
Der prozentuale Rückgang ist normal angesichts der sich entwickelnden Referenz-Test-Suite. Die neuen Tests aus GNU Coreutils 9.10 sind schwieriger zu bestehen als die bisherigen, weshalb die Quote sinkt, während die Implementierung gleichzeitig absolut gesehen mehr Tests besteht. Trotzdem strebt das Rust-Coreutils-Projekt weiterhin eine vollständige GNU-Kompatibilität von 100 Prozent an. Dabei arbeiten die Entwickler eng mit dem GNU-Projekt zusammen und haben zahlreiche Patches zu den GNU Coreutils beigesteuert, was beide Projekte stärkt.
Performance-Verbesserungen im Detail
Die Performance-Optimierungen in Version 0.7 sollten für Systemadministratoren und Endnutzer besonders bei Batch-Operationen mit vielen Dateien, der Verarbeitung großer Datenmengen und wiederholten Aufrufen von Utilities in Skripten messbar sein. Konkret bringen zum Beispiel unexpand 14 Prozent Geschwindigkeitsgewinn, du zwischen drei und sechs Prozent und shuf rund vier Prozent. Die schnelleren Hash Maps beschleunigen Operationen, die auf Schlüssel-Wert-Zuordnungen angewiesen sind. Die neuen ASCII-Schnellpfade optimieren die Verarbeitung von ASCII-Zeichen, die in vielen Anwendungsfällen den Großteil der verarbeiteten Daten ausmachen.
Weiterlesen nach der Anzeige
Reduzierte malloc-Aufrufe führen zu weniger Speicher-Fragmentierung und potenziell kürzeren CPU-Aktivitätszeiten, was sich positiv auf die Gesamtperformance auswirkt. Diese Optimierungen reihen sich in eine kontinuierliche Entwicklung ein: Bereits in Version 0.6 wurden die Base-Encoding-Utilities wie base32 und base64 beschleunigt, und Version 0.4 brachte spezifische Optimierungen für factor, cksum, tsort und mkdir.
Die Release Notes zu Version 0.7 stehen auf GitHub zur Verfügung.
(fo)
Künstliche Intelligenz
Google Telefon-App: Update bringt Anrufaufzeichnung und „Anruferansichten“
Nachdem Google die Anrufaufzeichnung in seiner Telefon-App vor wenigen Wochen zunächst in der Betaversion ausprobiert werden konnte, verteilt der Konzern die Funktion nun offenbar nach und nach für alle Nutzerinnen und Nutzer. Zudem führt das Unternehmen Kontaktposter für ausgehende Anrufe ein.
Weiterlesen nach der Anzeige
Googles Telefon-App kann Anrufe aufzeichnen
Anrufe mitschneiden ist auf Samsung-Geräten seit einer Weile möglich, die Funktion wurde im April 2025 mit One UI 7 eingeführt. Jetzt liefert Google nach und integriert die Funktion in seine Telefon-App, die auf vielen Android-Geräten vorinstalliert ist. Laut Google kann die Funktion auf Pixel-Geräten ab dem Pixel 6 genutzt werden, auf denen mindestens Android 14 oder neuer installiert sein muss – aktuell ist Android 16. Auf Smartphones anderer Hersteller muss mindestens Android 9 oder neuer installiert sein.

Google Telefon-App: Vor der Anrufaufnahme erscheint ein großer Warnhinweis.
(Bild: Andreas Floemer / heise medien)
Nutzer der Telefon-App können die Anrufaufnahme direkt über ein Auswahlfenster während eines Anrufs aktivieren. In den App-Einstellungen steht Nutzern überdies die Möglichkeit zur Wahl, sämtliche Anrufe von unbekannten Nummern aufzuzeichnen. Ebenso kann man eine automatische Aufzeichnung für bestimmte Rufnummern festlegen. Die aufgezeichneten Anrufe sind direkt in der Anrufübersicht anhör- und auch teilbar. Laut Google bleiben die gespeicherten Anrufe nur lokal auf dem Gerät und landen nicht in der Cloud.
Nur mit ausdrücklicher Erlaubnis
Bevor man die Funktion nutzt, sollte man wissen, dass man in Deutschland einen Anruf nicht heimlich und ohne Einverständnis des Gegenübers aufzeichnen darf: Nach Paragraph 201 Absatz 1 des Strafgesetzbuchs ist das unbefugte Mitschneiden von Telefongesprächen untersagt – es ist ansonsten eine „Verletzung der Vertraulichkeit des Wortes“. Um einen Anruf aufzeichnen zu dürfen, benötigt man die explizite Zustimmung des Gesprächspartners. Bei Verstoß drohen Freiheitsstrafen von bis zu drei Jahren.
Weiterlesen nach der Anzeige
Die Gesprächspartner werden beim Start „hörbar darüber benachrichtigt, dass der Anruf aufgezeichnet wird“, betont Google. Auch beim Beenden der Aufnahme werden laut Google beide Parteien darüber informiert, dass der Anruf nicht mehr aufgezeichnet wird. Diese Hinweise ersetzen jedoch keine Einverständniserklärung, und es reicht nicht aus, dass die Funktion laut Google hörbar angekündigt wird. Ohne ein ausdrückliches „Ja, ich bin mit der Aufzeichnung des Gesprächs einverstanden“ des Gegenübers sind Nutzer der Funktion rechtlich schlecht aufgestellt. Ebenso verboten ist die Verwendung eines unbefugt aufgenommenen Telefongesprächs und das Weiterreichen an Dritte.
Kontaktkarte für ausgehende Anrufe
Weniger problematisch ist eine weitere Funktion, die Google für seine Telefon-App angekündigt hat: Nach den Kontaktpostern für eingehende Anrufe, die Nutzerinnen und Nutzer eines Android-Smartphones für ihre Kontakte selbst anlegen müssen, erweitert Google das Feature: Nutzer können das Erscheinungsbild der Anruferansichten künftig selbst personalisieren und damit bestimmen, wie ihre „Visitenkarten“ beim Gegenüber aussehen.

Anruferansicht in der Google Telefon-App.
(Bild: Google)
Nutzer können in ihrer „Visitenkarte“ selbst ein Foto von sich auswählen sowie ihre Lieblingsfarbe und Lieblingsschriftart festlegen. Die Funktion wird zuerst auf Android-Smartphones bereitgestellt, später auch für Smartwatches mit Wear OS. Uns wird die Funktion derzeit nur in der Betaversion der Telefon-App angeboten.
Die Funktion ist nicht nur für Pixel-Smartphones und Android 16 bestimmt, sondern sollte alle aktuellen Android-Smartphones erreichen, auf denen Googles Telefon-App standardmäßig vorinstalliert ist.
(afl)
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 4 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Social Mediavor 1 WocheCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Künstliche Intelligenzvor 3 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
-
Künstliche Intelligenzvor 3 MonatenDigital Health: „Den meisten ist nicht klar, wie existenziell IT‑Sicherheit ist“
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
