Künstliche Intelligenz
Slow is smooth and smooth is fast: Was Softwareteams von den Navy SEALs lernen
Es gibt einen Spruch, der vor allem durch die Navy SEALs bekannt geworden ist:
Weiterlesen nach der Anzeige
„Slow is smooth and smooth is fast.“

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.
Gemeint ist damit, dass übereiltes Handeln zu Fehlern führt, die am Ende mehr Zeit kosten als die vermeintlich gesparte. Wer hingegen ruhig und kontrolliert vorgeht, arbeitet präziser, macht weniger Fehler und erreicht das Ziel paradoxerweise früher. In Hochdrucksituationen, in denen Sekunden über Erfolg und Misserfolg entscheiden, mag das kontraintuitiv klingen. Doch genau dort hat sich dieses Prinzip bewährt.
In der Softwareentwicklung begegnet mir ein ähnliches Muster. Die Branche steht unter permanentem Zeitdruck, Deadlines sind eng, Anforderungen ändern sich laufend, und der Reflex, so schnell wie möglich Code zu schreiben, ist tief verankert. Fortschritt wird oft daran gemessen, wie schnell neuer Code entsteht. Doch gerade dieser Reflex führt häufig dazu, dass Projekte am Ende länger dauern als nötig. Die Parallele zu den Navy SEALs ist frappierend, und ich bin überzeugt, dass ihr Grundsatz einer der wertvollsten Ratschläge ist, den Softwareteams beherzigen können.
Wenn Geschwindigkeit zur Falle wird
Die Versuchung liegt auf der Hand: Ein neues Feature steht an, die Anforderungen scheinen klar, also öffnet man den Editor und beginnt zu tippen. Schließlich wird Software in Code gemessen, nicht in Whiteboard-Skizzen. Je früher Code entsteht, desto früher ist man fertig. So zumindest die gängige Annahme.
Die Realität zeichnet ein anderes Bild. Code, der ohne gründliche Vorüberlegung entsteht, basiert auf impliziten Annahmen. Jede und jeder im Team hat eine eigene Vorstellung davon, wie die Lösung funktionieren soll, aber diese Vorstellungen werden selten abgeglichen. Die Annahmen stellen sich oft erst spät als falsch heraus, etwa wenn sich zeigt, dass die gewählte Schnittstelle für die tatsächlichen Anwendungsfälle ungeeignet ist oder dass ein Sonderfall die gesamte Architektur infrage stellt. Was harmlos begann, wird zum strukturellen Problem.
Weiterlesen nach der Anzeige
Was dann folgt, sind Korrekturschleifen. Nicht eine, sondern mehrere. Dazu kommen Diskussionen, die man besser vorher geführt hätte, Refactorings, die im Grunde Neuschreibungen sind, und eine wachsende Menge an technischen Schulden. Der Code, der so schnell entstanden ist, muss erklärt, verteidigt und überarbeitet werden. Aus dem vermeintlich schnellen Start wird ein zähes, kostspieliges Nacharbeiten.
Das Tückische daran ist, dass dieser Effekt selten sichtbar wird. Niemand misst, wie viel Zeit ein Team mit Nacharbeit verbringt, die bei besserem Vorgehen vermeidbar gewesen wäre. Die Stunden versickern in Bugfixes, in „kleinen Anpassungen“ und in Meetings, in denen man klärt, was man vorher hätte klären sollen. Die anfängliche Geschwindigkeit war eine Illusion.
Ein Experiment zu zweit
Vor etlichen Jahren haben ein Kollege und ich einen Entwicklungsprozess etabliert, der von außen betrachtet geradezu verschwenderisch wirkte. Wann immer wir ein neues Modul oder eine neue Komponente entwickeln sollten, haben wir nicht als Erstes den Editor geöffnet. Stattdessen sind wir ans Whiteboard gegangen.
Dort haben wir das Problem von der anderen Seite her aufgerollt: Nicht „Wie bauen wir das?“, sondern „Wie soll es sich anfühlen, wenn jemand diesen Code verwendet?“ Diese Frage klingt simpel, aber sie verändert die gesamte Perspektive. Das Prinzip ist unter dem Begriff „Working backwards“ bekannt, wie es unter anderem bei AWS praktiziert wird. Man beginnt beim gewünschten Ergebnis und arbeitet sich von dort zurück zur Implementierung.
Konkret bedeutete das: Wir haben am Whiteboard Codebeispiele skizziert. Nicht den internen Aufbau, sondern die öffentliche Schnittstelle. Wie würde eine Entwicklerin oder ein Entwickler dieses Modul aufrufen? Welche Parameter wären intuitiv? Welche Rückgabewerte würden erwartet? Welche Fehlerfälle müsste man behandeln, und wie sollte das aussehen?
Dieses Vorgehen erzwang, dass wir uns intensiv mit der Domäne und den Anforderungen auseinandersetzten, bevor eine einzige Zeile produktiven Codes entstand. Es zwang uns, Fragen zu stellen, die beim sofortigen Losprogrammieren untergegangen wären. Häufig stellten wir dabei fest, dass unsere anfänglichen Vorstellungen von der Schnittstelle nicht tragfähig waren. Dann haben wir das Whiteboard gewischt und von vorn begonnen, so oft wie nötig. Das kostete trotzdem nur Stunden, keine Tage oder gar eine Woche.
Am Ende dieser Phase hatten wir ein gemeinsames, explizites Verständnis davon, was wir eigentlich bauen wollten. Nicht ungefähr, nicht implizit, sondern konkret und greifbar. Wir konnten jedem im Team erklären, warum die Schnittstelle genau so aussehen sollte und nicht anders. Diese Klarheit war kein Nebenprodukt, sie war das eigentliche Ziel.
Wegwerfen als Investition
Nach der Whiteboard-Phase folgte ein Schritt, der auf den ersten Blick noch ungewöhnlicher wirkt: Wir haben einen Prototyp geschrieben, mit dem klaren Vorsatz, ihn anschließend wegzuwerfen. Kein sauberer Code, keine Tests, keine Dokumentation. Nur ein schneller, funktionaler Durchstich, um unsere Thesen zu überprüfen.
Dieser Prototyp diente ausschließlich dem Lernen. Am Whiteboard kann man vieles klären, aber bestimmte Dinge zeigen sich erst, wenn man tatsächlich Code schreibt. Theorie und Praxis klaffen in der Softwareentwicklung oft weiter auseinander, als man wahrhaben möchte. Wie verhält sich die Schnittstelle, wenn man sie wirklich benutzt? Wo fühlt sie sich sperrig an? Welche Randfälle tauchen auf, an die man nicht gedacht hat? Wo hat man die Komplexität über- oder unterschätzt? Welche Abhängigkeiten ergeben sich, die auf dem Whiteboard nicht sichtbar waren?
Der entscheidende Punkt war, dass dieser Prototyp keine Verpflichtung mit sich brachte. Weil von Anfang an feststand, dass er weggeworfen würde, konnten wir frei experimentieren. Es gab keinen Druck, die einmal gewählte Struktur beizubehalten, nur weil schon Code da war. Wir konnten Sackgassen ohne schlechtes Gewissen verlassen und Alternativen ausprobieren. Wir konnten Fehler machen, ohne dass diese Fehler sich in der Codebasis festsetzten.
Das Wegwerfen selbst fiel erstaunlich leicht. Nicht, weil uns der Code egal war, sondern weil das eigentliche Ergebnis dieser Phase nicht der Code selbst war. Das Ergebnis war Erkenntnis: ein tiefes, praktisches Verständnis dafür, wie die Lösung aussehen sollte und welche Fallstricke zu vermeiden waren. Dieses Verständnis ließ sich nicht durch Nachdenken allein gewinnen. Es brauchte die Erfahrung des Tuns, das Scheitern in einer sicheren Umgebung.
Die finale Fassung mit Rückenwind
Erst im dritten Anlauf haben wir den eigentlichen, produktiven Code geschrieben. Und hier zeigte sich der Lohn der Vorarbeit: Das Schreiben ging bemerkenswert schnell. Nicht, weil wir uns beeilten, sondern weil wir wussten, was wir taten. Die Unsicherheit, die normalerweise jede Entwicklung begleitet, war weitgehend verschwunden. An ihre Stelle war Zuversicht getreten.
Die Architektur stand, die Schnittstellen waren durchdacht, die typischen Stolperstellen waren bekannt. Wir mussten nicht mehr experimentieren oder grundlegende Entscheidungen treffen, denn das hatten wir bereits hinter uns. Stattdessen konnten wir uns darauf konzentrieren, sauberen, gut strukturierten Code zu schreiben, der von Anfang an den Qualitätsansprüchen genügt.
Genau in dieser Phase kamen auch Tests und Dokumentation hinzu. Beides fällt erheblich leichter, wenn man die Lösung verstanden hat und nicht im Nebel stochert. Tests für eine durchdachte Schnittstelle zu schreiben, ist keine Last, sondern eine Bestätigung. Man weiß, welche Fälle relevant sind, und kann sie gezielt abdecken. Und Dokumentation für ein Modul zu verfassen, dessen Designentscheidungen man bewusst getroffen hat, ist keine Pflichtübung, sondern eine natürliche Ergänzung.
Das gesamte Vorgehen fand im Pair-Programming statt. Zwei Personen am selben Problem, von der Whiteboard-Diskussion über den Prototyp bis zum fertigen Code. Auch das wirkt auf den ersten Blick teuer: Zwei Entwicklerinnen oder Entwickler für eine Aufgabe, das ist doch doppelter Aufwand? Die Praxis erzählte eine andere Geschichte. Vier Augen sehen mehr als zwei, und der ständige Dialog verhindert, dass sich jemand in eine Sackgasse verrennt, ohne es zu bemerken. Was wir an scheinbarer Effizienz aufgaben, gewannen wir an Qualität und Geschwindigkeit zurück.
„Wie könnt ihr euch das leisten?“
Wann immer ich diesen Prozess beschrieben habe, war die häufigste Reaktion eine Mischung aus Interesse und Unglauben. Die Fragen lauteten: „Wie könnt ihr euch das leisten?“ und „Wie bringt ihr eure Kunden dazu, das mitzumachen?“
Die Antwort war einfacher, als die meisten erwartet haben: Wir waren schneller und günstiger als andere. Nicht trotz, sondern wegen dieses Vorgehens. Das klingt nach einer bequemen Behauptung, aber die Zahlen stützten sie.
Der Grund liegt in einer Beobachtung, die sich über Jahre hinweg immer wieder bestätigt hat: Unser Code hat beim ersten echten Versuch mit einer überdurchschnittlich hohen Rate funktioniert. Er war weitgehend fehlerfrei, die Schnittstellen passten zu den tatsächlichen Anforderungen, und die Architektur trug auch dann noch, wenn später Erweiterungen hinzukamen. Was auf dem Papier nach Mehraufwand aussah, war in Wahrheit eine Abkürzung.
Was auf der anderen Seite wegfiel, war erheblich: keine endlosen Korrekturschleifen, keine späten Architekturentscheidungen unter Druck, keine Wochen, in denen das Team im Grunde damit beschäftigt war, frühe Fehler zu reparieren. Kein mühsames Debugging von Code, den man vor drei Wochen geschrieben und inzwischen halb vergessen hatte. Keine hitzigen Diskussionen darüber, ob man den bestehenden Ansatz noch retten kann oder doch lieber neu anfangen sollte. Für unsere Kundinnen und Kunden bedeutete das: zuverlässigere Zeitpläne, weniger Überraschungen und am Ende niedrigere Gesamtkosten.
Der Prozess sah langsamer aus, weil die erste sichtbare Codezeile später entstand. Aber die erste sichtbare Codezeile ist nicht der relevante Messpunkt. Relevant ist, wann funktionierende, zuverlässige Software ausgeliefert wird. Und diesen Punkt haben wir regelmäßig früher erreicht als Teams, die vom ersten Tag an in die Tasten gehauen haben.
Schnell geschriebener Code ist nicht besserer Code
Heute, zahlreiche Jahre später, hat sich das Umfeld grundlegend verändert. KI-gestützte Werkzeuge erzeugen Code in einem Tempo, das noch vor Kurzem undenkbar war. Ein gut formulierter Prompt liefert in Sekunden, wofür früher Stunden nötig waren. Die Geschwindigkeit der Codeerzeugung hat sich vervielfacht, und die Werkzeuge werden mit jeder Generation leistungsfähiger.
Doch Geschwindigkeit bei der Codeerzeugung ist nicht dasselbe wie Geschwindigkeit bei der Problemlösung. Eine KI kann beeindruckend schnell Code produzieren, aber sie kann nicht wissen, ob dieser Code das richtige Problem löst. Sie kann eine Schnittstelle implementieren, aber nicht beurteilen, ob diese Schnittstelle für die tatsächlichen Anwendungsfälle sinnvoll ist. Sie kann Tests generieren, aber nicht entscheiden, welche Fälle wirklich kritisch sind und welche nur Rauschen erzeugen.
Was KI-Werkzeuge im Kern tun, ist verstärken. Sie verstärken das, was man hineinsteckt. Wer genau weiß, was die Lösung leisten soll, wie die Schnittstellen aussehen müssen und welche Randfälle zu beachten sind, bekommt von einer KI beeindruckend guten Code in kürzester Zeit. Die Maschine wird zum Beschleuniger für eine klare Idee. Wer diese Klarheit nicht hat, bekommt schneller das Falsche. Und falscher Code, der in Sekunden statt in Stunden entstanden ist, bleibt falscher Code. Er muss genauso überarbeitet, korrigiert und im schlimmsten Fall weggeworfen werden. Die KI hat dann nichts beschleunigt, sie hat nur die Illusion von Fortschritt erzeugt.
Und genau hier schließt sich der Kreis zum dreistufigen Prozess. Die Phase am Whiteboard, das Durchdenken der Verwenderperspektive, das bewusste Experimentieren mit einem Wegwerf-Prototyp: All das liefert genau die Klarheit, die man braucht, um KI-Werkzeuge sinnvoll einzusetzen. Man füttert die KI nicht mit vagen Vorstellungen, sondern mit präzisen Anforderungen. Die KI übernimmt dann den Teil, der tatsächlich beschleunigt werden kann: das Schreiben von Code, dessen Richtung bereits feststeht.
Die Versuchung ist groß, diesen Schritt zu überspringen. Wenn Code so billig zu erzeugen ist, warum nicht einfach ausprobieren und schauen, was passiert? Die Antwort ist dieselbe wie vor zwanzig Jahren: Weil das Erzeugen von Code nie der Engpass war. Der Engpass war und ist das Verstehen. Und Verstehen lässt sich nicht beschleunigen, indem man schneller tippt, ob mit oder ohne KI.
Langsam anfangen, um schnell anzukommen
„Slow is smooth and smooth is fast.“ Dieser Grundsatz der Navy SEALs hat nichts an Gültigkeit verloren, auch nicht in einer Zeit, in der Maschinen Code schneller schreiben als jeder Mensch.
Bewusst Tempo herauszunehmen, sich die Zeit zu geben, ein Problem wirklich zu durchdringen, bevor man es löst, fühlt sich an wie ein Luxus, den man sich nicht leisten kann. Die Erfahrung zeigt jedoch das Gegenteil: Es ist eine Investition, die sich zuverlässig auszahlt. In weniger Fehlern, in weniger Nacharbeit, in kürzerer Gesamtdauer und in Code, der nicht nur funktioniert, sondern trägt. In Teams, die weniger streiten und mehr liefern.
Ob man diesen Code dann selbst schreibt oder von einer KI schreiben lässt, ist zweitrangig. Entscheidend ist, dass man weiß, was man will, bevor man anfängt. Erst denken, dann experimentieren, dann bauen. In dieser Reihenfolge. Daran hat sich in all den Jahren nichts geändert.
(rme)
Künstliche Intelligenz
Instagrams „Instants“-App lässt ähnlich wie bei Snapchat Fotos verschwinden
Der Social-Media-Konzern Meta zelebriert die Vergänglichkeit. Eine neue iOS- und Android-App der Tochtergesellschaft trägt den etwas sperrigen Namen „Instants, von Instagram“ und lässt die Fotos ihrer Nutzer nach einer gewissen Zeit verschwinden. Das Prinzip dieses Instagram-Ablegers erinnert an die App Snapchat.
Weiterlesen nach der Anzeige
Mit Instants können Nutzer Fotos mit Freunden teilen, die sich beim Empfänger allerdings nur innerhalb von 24 Stunden öffnen oder teilen lassen. Danach verschwindet das Bild für immer, es sei denn, der Empfänger „betrügt“ das System und fertigt anderweitig einen Screenshot an.
Mithilfe einer Bildunterschrift lässt sich Text hinzufügen. So kann man eine spontane Nachricht praktisch mit dem passenden Foto verbinden und einen Moment aus seinem Leben vermitteln. Dabei sind Bilder aus der Smartphone-Galerie tabu. Nur direkt in der App aufgenommene Fotos lassen sich teilen. Ein ähnliches Quicksnap-Feature hatte Meta bereits vorher in der gewöhnlichen Instagram-App getestet. Anders als beim gewöhnlichen Instagram handelt es sich also nicht um Bilder für die Öffentlichkeit, sondern für private Nachrichten. Eine Hilfeseite zum Instants-Feature auf Instagram erklärt das Prinzip bereits im Detail.
Wie Techcrunch berichtet, wurde die App bereits in Spanien und Italien ausgerollt. Im deutschen Google-Play-Store für Android-Apps konnten wir sie noch nicht herunterladen, sondern nur auf die Wunschliste setzen.
Die Konkurrenz-App Snapchat ist zwar unter jungen Nutzern beliebt, doch ein schwächelndes Werbegeschäft und weltweit drohende Social-Media-Verbote für Teenager bremsen das Nutzerwachstum. Im April 2026 strich der US-amerikanische Betreiber Snap weltweit rund 1.000 Arbeitsplätze sowie 300 offene Stellen.
(jpw)
Künstliche Intelligenz
Level 3 per KI – Bosch auf dem Weg zum autonomen Auto
Die Vision vom Roboter-Auto, das weitgehend auf sich selbst aufpasst und den Menschen zum Passagier macht, rückt in greifbarere Nähe. Assistiertes Fahren auf Level 2 gehört für viele schon zum automobilen Alltag. Bosch forciert nun den entscheidenden Übergang zum hochautomatisierten Fahren (SAE Level 3). In dieser Stufe geht die Verantwortung in spezifischen Anwendungsfällen vom Menschen auf die Maschine über. Der Fahrer darf die Hände vom Lenkrad nehmen, ein Nickerchen machen und den Blick von der Straße abwenden – ein technologischer Fortschritt, der über Komfortfunktionen hinausgeht.
Weiterlesen nach der Anzeige
Der Weg zur Autonomie führt bei Bosch über einen neuen Ansatz. Frühere, starre und regelbasierte Programmierungen stoßen in der komplexen Realität des Straßenverkehrs an ihre Grenzen. Die Antwort des Unternehmens lautet: Künstliche Intelligenz in jedem Softwarebaustein. Durch den Einsatz von KI könne das Fahrzeug deutlich flexibler auf unvorhersehbare Situationen reagieren, heißt es. Gepaart mit einer redundanten Sicherheitsarchitektur, die bei Ausfall eines Systems sofort einspringt, will Bosch nach vielen wenig erfolgreichen Versuchen anderer Autobauer und Zulieferer eine Vertrauensbasis für Level 3 schaffen.
Ziel ist ein System, das bei Geschwindigkeiten von bis zu 120 km/h und auch unter schwierigen Bedingungen wie schlechter Sicht zuverlässig agiert. Der Fahrer soll so Bosch zufolge wertvolle Zeit zurückgewinnen – sei es auf der Autobahn oder auf mehrspurigen Schnellstraßen in Ballungsräumen. Die Technik übernimmt laut dem Ausrüster nicht nur das Halten der Spur, sondern leitet auch Wechsel eigenständig ein und koordiniert Beschleunigung sowie Bremsvorgänge.
Wenn Millisekunden über Sicherheit entscheiden
Ein wichtiger Baustein dieser „neuen Freiheit“ ist die Fähigkeit des Fahrzeugs, in Notsituationen blitzschnell und präzise auszuweichen. Mit der Funktion „Autonomous Emergency Steering“ hat Bosch zusammen mit einem chinesischen Fahrzeughersteller angeblich innerhalb von nur sechs Monaten ein System entwickelt, das Fahrassistenz und Fahrzeugsteuerung eng verzahnt. Wenn der Bremsweg vor einem plötzlich auftauchenden Hindernis nicht mehr ausreicht, übernimmt das „Vehicle Motion Management“. Innerhalb von Millisekunden sollen damit Bremse, Lenkung und Antrieb so koordiniert werden, dass das Fahrzeug stabil ausweicht – eine Leistung, die selbst erfahrene Fahrer unter Stress kaum erbringen könnten.
Mit solchen Funktionen will der Zulieferer demonstrieren, dass er Software und Hardware aus einer Hand liefern kann. Von den Hochleistungsrechnern über die Radarsensorik der siebten Generation bis hin zu den Algorithmen ist die gesamte Kette darauf ausgelegt, die Komplexität des autonomen Fahrens beherrschbar zu machen. Der Probebetrieb soll in China erfolgen: Der Konzern hat seit März die Lizenz, in Wuxi in der Nähe von Schanghai Fahrzeuge mit Level-3-Funktionen im Realbetrieb zu testen.
By-Wire: Das digitale Skelett des Autos
Damit Softwarebefehle ohne Verzögerung in mechanische Bewegung umgesetzt werden, setzt Bosch auf By-Wire-Technologien. Bei diesen aus Flugzeug-Cockpits bekannten Systemen gibt es keine physische Verbindung mehr zwischen Pedal oder Lenkrad und den Rädern. Die Übertragung erfolgt rein elektronisch. Das sieht Bosch als Grundvoraussetzung für das künftige „Software-Defined Vehicle“.
Weiterlesen nach der Anzeige
Besonders beim Brake-by-Wire-System soll sich der Reifegrad der Technik zeigen. Durch zwei voneinander unabhängige Bremsgeräte will Bosch die für Level 3 notwendige Redundanz schaffen. Auch die Lenkung profitiert: Steer-by-Wire ermöglicht variable Lenkübersetzungen, die sich der jeweiligen Fahrsituation anpassen – vom entspannten Manövrieren beim Parken bis hin zum hochpräzisen Feedback bei hohen Geschwindigkeiten. Ab Mitte 2026 sollen diese Systeme in Serie gehen und im Individualverkehr sowie auf Robotaxi-Plattformen zum Einsatz kommen.
Globale Skalierung als Ziel
Die Level-3-Entwicklung nimmt derzeit vor allem im dynamischen Umfeld in Fernost an Fahrt auf. Die Strategie der Schwaben ist aber global ausgerichtet. Bosch will Märkte mit hoher Innovationsgeschwindigkeit hauptsächlich in China als Testfeld nutzen, um Erkenntnisse weltweit zu transferieren. Ein Level-3-System, das den Fahrer entlastet, besitzt auf den breiten Highways der USA ebenso ein enormes Potenzial wie auf den Autobahnen Europas.
(nie)
Künstliche Intelligenz
Kommentar: Kein Hack, nur Ignoranz
Bundestagspräsidentin Julia Klöckner, Bundesbildungsministerin Karin Prien, Bundesbauministerin Verena Hubertz – sie alle sollen betroffen sein von einem Phishing-Angriff, der seit zwei Monaten im politischen Berlin für Unruhe sorgt. Signal selbst ist – trotz anderslautender Überschriften in Publikumsmedien – nicht gehackt worden. Die Angreifer haben sich etwas anderes zunutze gemacht: Naivität, Ignoranz und eine Besonderheit der politischen Realität.
Weiterlesen nach der Anzeige
Während Bundestagspräsidentin Julia Klöckner zwar großen Wert auf ihre Social-Media-Auftritte legt, ist vergleichbares Engagement für die IT-Sicherheit nicht überliefert. Und auch bei anderen nun betroffenen Politikern und anderen Akteuren ist kein gesteigertes Problembewusstsein bekannt. Der Vorgang ist ein klassischer Layer-8-Angriff: Der Mensch ist das Ziel. Weshalb fast jede Firma, die mehr als zwei Mitarbeiter hat, inzwischen auch Phishingangriffe simulieren lässt. Und auch im Bundestag ist Phishing spätestens seit der Ghostwriter-Kampagne 2021 alles andere als eine unbekannte Größe.

Falk Steiner ist Journalist in Berlin. Er ist als Autor für heise online, Tageszeitungen, Fachnewsletter sowie Magazine tätig und berichtet unter anderem über die Digitalpolitik im Bund und der EU.
Die Welt der Politik ist voller großer und kleiner Geheimnisse. Kleine Absprachen, von denen vorher keiner wissen soll, Überlegungen zu börsenrelevanten Änderungen an Gesetzen, zu anstehenden und ausbleibenden Kuhhandeln, persönliche Beziehungen von Politikern und Dritten. Das gilt vor allem für jene, die Regierungen angehören, die als relevante Abgeordnete Regierungsfraktionen angehören, die Ämter bekleiden oder an der Politikgestaltung mitwirken. Sei es als Mitarbeiter, als Bediensteter in Ministerien, als Beamter in Behörden oder in der Bundestagsverwaltung.
Und die Politik ist noch etwas: ein Ziel. Von Wirtschaftsspionage, politischer Spionage, um Kompromat gegen Akteure zu finden, um einen Wissensvorsprung für Verhandlungen zu bekommen. Wissen, was andere wissen, von dem sie aber nicht wissen, dass die andere Seite es weiß: seit der Antike ein wesentlicher Faktor der Politik. In Zeiten, in denen nicht ausgeschlossen ist, dass auch Deutschland in einen Krieg verwickelt werden kann, wäre es um so wichtiger, Funkdisziplin zu wahren, wie hochrangige Bundeswehrangehörige vor zwei Jahren lernen mussten.
Loose clicks sink ships
Ja, Fehler lassen sich nicht vollständig vermeiden. Auch Politiker, Minister, Ministeriale, Mitarbeiter und das sonstige Umfeld sind keine IT-Sicherheitsgötter. Und doch ist dieser Fall anders gelagert: In einem Umfeld, in dem in teils schrillen Tönen vor IT-Sicherheitsproblemen, vor Angriffsszenarien, vor Kriegsgefahr gewarnt wird, gibt es einen Teil der IT-Infrastruktur, der weit jenseits aller professionellen Sicherheitsstandards genutzt werden kann. Und das hat etwas mit der Organisation von Politik zu tun.
Denn auf der einen Seite sind Verantwortungsträger wie Julia Klöckner als Bundestagspräsidentin genau dies: Teile einer strukturierten Organisation. Ob das ein Ministerium, das Kanzleramt, der Bundestag oder eine andere ist, ist dabei fast egal. Dort gibt es überall IT-Sicherheitsvorgaben und Richtlinien.
Weiterlesen nach der Anzeige
Bring your own device als Default
Und dann gibt es die zweite Realität: die der Politik als Parteien. Diese sind Zusammenschlüsse vieler einzelner Menschen, die meinen, dass sie gemeinsam etwas verändern wollen und an der politischen Willensbildung dafür mitwirken wollen. Das meint IT-organisatorisch in erster Linie: Jeder bringt sein eigenes Endgerät mit zur Party – und die Interoperabilität wird nur durch Hilfsmittel hergestellt.
Wenn der Bundeskanzler, die Bundestagspräsidentin, der CDU-Generalsekretär und die Parteipräsidiumskollegen miteinander etwas zu klären haben, werden Akteure aus Dutzenden unterschiedlichen Infrastrukturen verbunden – über einen Messenger auf ihrem Endgerät. Und weil Signal längst nicht in jeder Infrastruktur zugelassen ist und Parteipolitik auch gar nicht mit Mitteln von Parlamentsverwaltung oder Regierungsstellen in Bund und Ländern betrieben werden darf – selbst wenn das oft real nicht so trennscharf handhabbar ist – heißt das statt kryptierten, gesicherten Umgebungen meist: Es wird das private Telefon genutzt.
Allein dadurch ist zwar noch keine Kompromittierung der Institutionen verbunden. Dieses Telefon ist aber nach keinem BSI-Standard gesichert. Und seine Integrität hängt komplett von zwei Dingen ab: der Sicherheits-Awareness der Nutzer – und ihrem konsequenten Verhalten. Zugespitzt gefragt: Wer würde Julia Klöckner als Admin für seine IT-Sicherheitsinfrastruktur einstellen?
Fehlende Awareness bei Politikern ist kein Softwareproblem
Nun ist das Problem selbst keinerlei Neuigkeit. Nicht im Jahr 2026. Und nicht für die Spitzenpolitik. Wer als Verantwortungsträger die Wehrfähigkeit des Landes für essenziell erklärt, muss selbst so handeln. Derzeit aber senden die Betroffenen klare Signale: Die deutsche Spitzenpolitik ist nur sehr bedingt abwehrbereit, wenn es um IT-Sicherheit geht.
Egal wie gut die technischen Lösungen sind: Natürlich ist und bleibt der Mensch als Einfallstor ein Kernproblem. Und auch Signal könnte hier vermutlich noch bessere Sicherheitsmechanismen ermöglichen als jene, die es bislang anbietet. Aber Anbieter können das Problem vor dem Bildschirm nicht lösen, wenn dieses sich nicht für Grundsätze der IT-Sicherheit interessiert.
Lesen Sie auch
(nie)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 2 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Social Mediavor 1 MonatVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
