Connect with us

Künstliche Intelligenz

Mini-PC Acemagic M1 für 599 € im Test: Intel i9 mit starker Leistung ist leise


Acemagic liefert einen weiteren Mini-PC mit dem Namen „M1“, dieses Mal mit dem älteren Spitzen-SoC Intel i9-13900HK.

Dem treuen Leser unserer Artikel wird auffallen, dass wir den Acemagic M1 bereits getestet haben. Allerdings hat sich die Mini-PC-Union, genauer Acemagic, dazu entschieden, auch eine Version des Mini-PCs mit Intel-CPU anzubieten. So werkelt jetzt der Intel Core i9-13900HK mit 14 Kernen und 20 Threads in dem kompakten Gehäuse. Zudem gibt es satte 32 GB Arbeitsspeicher (RAM) und eine SDD mit 1 TB Kapazität zum Preis von 599 Euro. Die beiden Varianten des M1 kämpfen allerdings in verschiedenen Preisklassen. So stellt sich nur die Frage, wie gut sich der ältere i9 heutzutage noch schlägt. Antworten gibt unser Testbericht.

Das Testgerät hat uns der Hersteller zur Verfügung gestellt.

Ausstattung: Welche Hardware bietet der Acemagic M1?

Der Acemagic hat mit dem Intel Core i9-13900HK einen leistungsfähigen Prozessor mit 14 Threads und 20 Kernen. Dabei kommt die bigLITTLE-Architektur zum Einsatz, wobei der Chip über 6 Leistungskerne (P-Cores) mit Hyperthreading und 8 Effizienzkerne (E-Cores) ohne Hyperthreading verfügt. Die Leistungskerne takten mit bis zu 5,4 GHz, bei den Effizienzkernen sind es maximal 4,1 GHz.

Die CPU ist bereits seit 2023 erhältlich, als Speerspitze der erstmaligen Auflage von Raptor Lake-H. Die CPU ist im 10-Nm-Verfahren, auch bekannt als Intel 7, gefertigt und damit nicht so effizient, wie neueste Chips im 5-Nm-Verfahren. Das SoC wird mit einer TDP von 45 Watt angegeben, wobei diese auf maximal 115 Watt vom Systemkonfigurator angehoben werden kann.

Als Grafikeinheit kommt die alte, hauseigene Iris Xe zum Einsatz und nicht eine moderne und leistungsfähigere Arc-iGPU. Der Grafikchip verfügt über 96 Kerne (Compute Units) mit einem maximalen Takt von 1,5 GHz.

Der CPU stehen zudem 32 GB RAM in Form von zwei DDR4-Modulen zur Seite. Leider wird hier auf namhafte Hersteller verzichtet. Die Module liefern eine Übertragungsrate von 3200 MT/s (Megatransfers/s). Damit stellen sie zwar die maximal unterstützte Datenrate für die CPU in puncto DDR4 bereit, der Prozessor unterstützt allerdings auch den neueren DDR5-Standard. Hier hat man also grundsätzlich Leistung ungenutzt gelassen, vor allem iGPUs profitieren von schnellem RAM. Mit üblichen DDR5-SO-DIMM-Modulen wären schon 5200 MT/s möglich gewesen. Immerhin kann der RAM laut Hersteller auf bis zu 64 GB aufgerüstet werden.

Acemagic M1 (i9-13900HK) – RAM & SSD

Beim Speicher gibt es 1 TB in Form einer M.2-NVMe-SSD – leider wieder No-Name-Hardware. Im Crystaldiskmark erzielt die SSD Geschwindigkeiten von 3481 MB/s (Megabyte/s) im Lesen und 3391 MB/s im Schreiben. Zudem bietet der Mini-PC noch einen weiteren M.2-Port, allerdings nur mit SATA-Geschwindigkeit (B-Key). Beide M.2-Anschlüsse sind für den Formfaktor 2280 ausgelegt und unterstützen offiziell eine Kapazität bis insgesamt 4 TB.

Der M1 stellt nur einen USB-C-Anschluss im USB4-Standard mit 40 Gb/s (Gigabit/s) auf der Vorderseite bereit. Dieser unterstützt zwar die Bildübertragung via Displayport (4K bei 120 Hz), lässt sich aber nicht für die Stromversorgung des Mini-PCs nutzen – diese erfolgt wie so oft nur per DC-Buchse. Zum Anschließen von Monitoren stehen zudem HDMI in der Version 2.0 (4K bei 60 Hz) und Displayport 1.4 (4K bei 120 Hz) bereit. Der RJ45-Ethernet-Anschluss auf der Rückseite überträgt Daten mit bis zu 2,5 Gb/s und wird von dem Chipsatz RTL8125 Gaming von Realtek verwaltet.

Drahtlos funkt der Mini-PC über den Mediatek MT7922 mit Wi-Fi 6E und Bluetooth 5.2 – ziemlich aktuell, wobei Wi-Fi 7 ideal wäre.

Performance: Wie schnell ist der Acemagic M1?

Der Intel i9-13900HK war einer der stärksten mobilen Prozessoren seiner Zeit. Seit dem Release vor fast drei Jahren hat sich in der Technikwelt allerdings etwas getan, und gerade AMD hat die Effizienz ihrer Chips noch einmal deutlich steigern können. Es ist nicht verwunderlich, dass der i9 in PCMark 10 durchschnittlich 7520 Punkte einfährt. Das ist ein sehr starkes Ergebnis, das nur knapp hinter den Ryzen AI 9 370 HX im Geekom A9 Max (Testbericht) zurückfällt (7684 Punkte).

In 3DMark Time Spy macht sich die schwache Grafik des i9 allerdings deutlich bemerkbar. Das Ergebnis liegt nur bei 1543 Punkten, davon 1347 Punkte für die Grafik und 8971 für den Prozessor. Der A9 Max erzielt hier etwa 3868 Punkte aus 3466 Grafik- und 11305 CPU-Punkten und ist folglich deutlich besser für Gaming und grafikintensive Aufgaben gewappnet.

Die CPU alleine zeigt auch in Cinebench R24 ihre Klasse und erreicht 122 Punkte im Single- und 807 Punkte im Multicore. Abschließend attestiert der Cross-Plattform-Benchmark Geekbench 6.5 der CPU 2813 Punkte im Single- und 9429 Punkte im Multicore. Der OpenGL-Grafikscore beläuft sich auf magere 13.609 Punkte.

Trotz der vergleichsweise schwachen Grafik haben wir uns an die üblichen Spiele getraut: Anno 1800 und Cities Skylines 2. Wir spielen ersteres in Full HD mit aktiviertem FSR (FidelityFX Super Resolution) im Modus „Leistung“ und wählen das niedrige Einstellungspreset. So erhalten wir im fortgeschrittenen Endlosspiel beim Blick auf unsere 50.000-Einwohner-Stadt durchschnittlich 40 FPS. Anno hat aber eine wunderschöne Grafik, die so natürlich nicht mehr ersichtlich ist.

Deshalb wechseln wir zu hohen Einstellungen und FSR im Modus „Qualität“. So sind es im Schnitt nur noch 15 FPS, was das Spielerlebnis trotz schöner Grafik erneut trübt und wir als nahezu unspielbar betiteln müssen. Zum Vergleich: Der Geekom A9 Max erreicht selbst bei ultrahohen Einstellungen und deaktiviertem FSR noch 18 FPS.

Cities Skylines 2 ist noch einmal leistungshungriger, sodass selbst bei niedrigsten Einstellungen und aktiver dynamischer Auflösungsskalierung (Modus „Konstant“) nicht mehr als 11 FPS im Schnitt möglich sind. Die GPU-Auslastung liegt konstant bei 100 Prozent, die der CPU allerdings nur bei rund 15 Prozent – ein klares Bottleneck. Damit ist Cities Skylines 2 in Full HD mit dieser Hardware unspielbar.

Verbrauch: Wie hoch ist die Leistungsaufnahme des Acemagic M1?

Leistungstechnisch konnte der i9 noch ganz gut mit den aktuellen Top-Prozessoren mithalten, doch geht das nur auf Kosten einer hohen Leistungsaufnahme? Wir sehen bereits im Idle einen Verbrauch von 20 Watt, was doch deutlich über den 10 bis 15 Watt der aktuellen Systeme liegt. Unter Volllast steigt der Verbrauch direkt auf 95 Watt an und verweilt dort für rund 90 Sekunden. Der Prozessortakt liegt in dieser Zeit bei 2,7 bis 2,8 GHz, über alle Kerne gemittelt. Anschließend sinkt der Verbrauch dauerhaft auf knappe 81 Watt – dabei liegt die durchschnittliche Taktrate nur mehr bei 2,4 GHz.

Der Geekom A9 Max verhält sich hier sehr ähnlich, bei langer Auslastung liegt der Verbrauch jedoch bei 70 Watt mit 2,9 GHz CPU-Takt – 1 zu 1 lässt sich das aber natürlich nicht vergleichen.

Lüfter: Wie laut ist der Acemagic M1?

Auch die Kühlung macht eine gute Figur, so ist der Lüfter im Idle nicht zu hören. Unter längerer Volllast schafft es die Kühlung, die CPU stets unter 85 Grad zu halten. Dabei messen wir mit dem Smartphone nur 30 dB(A) direkt am Gehäuse des Mini-PCs – ein sehr starkes Ergebnis. In einem Meter Entfernung sind es dann noch 19,5 dB(A) im Schnitt. Damit ist das System gerade in Anbetracht der hohen CPU-Leistung unter Last enorm leise. Die Temperaturen sind zudem im guten Bereich.

Software: Welches Betriebssystem ist auf dem Acemagic M1 installiert?

Auf dem Acemagic M1 ist Windows 11 Pro vorinstalliert. Ein vollständiger Virenscan mit dem Windows Defender bleibt ohne Befund. Das System verzichtet zudem auf jegliche Bloatware mit Ausnahme der Microsoft-Apps und -Dienste.

Auch Linux läuft auf dem System problemlos, so wie es der Hersteller bewirbt. Wir haben Ubuntu 24.04.1 LTS über unseren USB-Stick mit Ventoy gebootet. Dazu sind wir zuvor über das erweiterte Startmenü von Windows in das BIOS gegangen und haben dort die Boot-Reihenfolge angepasst und Secure Boot deaktiviert.

In Ubuntu angekommen, sehen wir, dass die Auflösung unseres Monitors korrekt erkannt ist. Zudem funktionieren Audio via AUX, WLAN, Bluetooth und Ethernet ohne weiteres Zutun. Sogar aus dem Stand-by wacht der Mini-PC zuverlässig auf – besser geht es nicht.

Gehäuse: Wie ist die Verarbeitung des Acemagic M1?

Acemagic M1 (Ryzen 7 6800H) vs Acemagic M1 (i9-13900HK)

Beim Gehäuse setzt der M1 vollständig auf Kunststoff. Das ist hier in einem dunkleren Grauton gefärbt, als bei der AMD-Version. Die Aufteilung der Anschlüsse und die generelle Form sind allerdings identisch. Wir können nur einen wirklichen Unterschied festmachen: Der USB-C-Port auf der Vorderseite hat eine leichte Einbuchtung.

Die Verarbeitung ist in Ordnung, wobei sich das Gerät nicht so hochwertig anfühlt, wie es mit einem Metallgehäuse der Fall wäre. Die hohe Empfindlichkeit der Beschichtung, wie es bei der AMD-Version der Fall ist, ist uns hier nicht so deutlich aufgefallen. Das Gehäuse misst 128,2 × 128,2 × 41 mm und ist damit üblich groß.

Zur Wartung oder Aufrüstung der Hardware lässt sich das Gehäuse mit etwas Vorsicht öffnen. Dazu entfernen wir die vier Gummifüße auf der Unterseite und lösen die darunterliegenden, aber tief eingesetzten Schrauben. An diese gelangt man im Zweifel nur mit einem langen, dünnen Bit, wie von einem elektrischen Präzisionsschraubendreher (Bestenliste). Anschließend müssen wir den Boden aufhebeln und zudem auf der Rückseite die Rahmen der Anschlüsse vom Gehäuse separieren. So können wir den Boden vom Rest des Mini-PCs trennen, wobei nur das Kabel der DC-Buchse mit dem Mainboard verbunden bleibt.

Acemagic M1 (i9-13900HK) – Gehäuseinneres

Um an RAM, SSD und die CMOS-Batterie zu gelangen, nehmen wir das gesamte Mainboard aus der übrigen Gehäusehälfte. Wir biegen den Rahmen seitlich, sodass die Platine an den Vorrichtungen vorbeipasst – dabei ist bei uns schon ein Teil am Gehäuse ausgebrochen. Beim Zusammenbau ist zudem darauf zu achten, dass die Antennenkabel nicht zwischen Gehäuse und Mainboard eingequetscht werden – hier gibt es extra eine Aussparung an der Platine. Der Mini-PC ist in unseren Augen also nicht sonderlich wartungsfreundlich, wenn man mehr als nur den Lüfter vom Staub befreien möchte.

Preis: Was kostet der Acemagic M1?

Der Acemagic ist in der getesteten Ausstattung mit 32 GB RAM und 1 TB Speicher aktuell zum Preis von 599 Euro auf Amazon erhältlich.

Fazit:

Der M1 mit Intel Core i9-13900HK bietet erstaunlich viel Prozessorleistung und kann in diesem Punkt sogar noch mit modernen Chips der Oberklasse mithalten. Auch der Stromverbrauch ist nicht viel höher. Das Defizit liegt hier vor allem bei der Grafikeinheit, die der CPU nicht gerecht wird. Dadurch ist das System etwa für Gaming sehr unausgewogen und die Grafik hält die restliche Hardware stets zurück. Neue Systeme, sowohl von AMD als auch von Intel, legen einen starken Fokus auf eine solide integrierte GPU, die dann gut und gerne doppelt so stark ist.

Nicht gerade hilfreich ist es in diesem Zusammenhang auch, dass nur DDR4-RAM zum Einsatz kommt. Ansonsten macht die Kühlung eine enorm gute und vor allem leise Figur. Wer also vor allem auf der Suche nach einem Mini-PC mit starker CPU ist, für den zählt der Acemagic M1 als echter Geheimtipp. Für die alltägliche Nutzung gibt es aber Alternativen, die ausgewogener und mit DDR5-RAM zukunftssicherer sind, wie etwa den Minisforum UM760 Slim (Testbericht).



Source link

Künstliche Intelligenz

iX-Workshop KRITIS: Zusätzliche Prüfverfahrenskompetenz für § 8a BSIG


Kritische Infrastrukturen (KRITIS) unterliegen nach § 8a Abs. 1 BSIG besonderen Sicherheitsanforderungen. Die Betreiber dieser Unternehmen und öffentlichen Einrichtungen sind verpflichtet, dem Bundesamt für Sicherheit in der Informationstechnik (BSI) regelmäßig nachzuweisen, dass ihre IT-Sicherheit dem aktuellen Stand der Technik entspricht. Dazu müssen sie angemessene organisatorische und technische Maßnahmen ergreifen, um Störungen zu vermeiden, die die Verfügbarkeit, Vertraulichkeit, Integrität und Authentizität ihrer IT-Systeme gefährden können.

Weiterlesen nach der Anzeige

In unserem zweitägigen Workshop KRITIS: Zusätzliche Prüfverfahrenskompetenz für § 8a BSIG erhalten Sie einen umfassenden Überblick über die Anforderungen von KRITIS und können sich gezielt auf Prüfungen für § 8a BSIG vorbereiten. Nach bestandener Abschlussprüfung am Ende der Schulung erhalten die Teilnehmenden die Zusatzqualifikation „Spezielle Prüfverfahrenskompetenz für § 8a BSIG“. Damit sind sie berechtigt, Sicherheitsprüfungen für § 8a BSIG im Auftrag des Bundesamtes für Sicherheit in der Informationstechnik durchzuführen.

Der Workshop wird von Fatih Yilmaz geleitet. Als Senior Consultant bei der HiSolutions AG verantwortet er dort das Themenfeld „Kritische Infrastrukturen“ nach BSI-Gesetz und unterstützt Unternehmen als zertifizierter Information Security Officer (TÜV) sowie zertifizierter IT-Grundschutz Praktiker bei der Vorbereitung und Durchführung von KRITIS-Prüfungen.

Dieser iX-Workshop folgt dem BSI-Schulungskonzept und richtet sich insbesondere an Auditoren wie interne Revisoren, Revisoren, Wirtschaftsprüfer mit IT-Revisionserfahrung sowie Mitarbeitende von Revisionsgesellschaften und Betreibern kritischer Infrastrukturen. Um einen intensiven Austausch untereinander und eine optimale Vorbereitung auf die Prüfung und Zertifizierung zu ermöglichen, ist diese Schulung auf 12 Teilnehmende beschränkt.


Weitere iX-Sicherheitsworkshops

Weitere iX-Sicherheitsworkshops


(ilk)



Source link

Weiterlesen

Künstliche Intelligenz

Slow is smooth and smooth is fast: Was Softwareteams von den Navy SEALs lernen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Es gibt einen Spruch, der vor allem durch die Navy SEALs bekannt geworden ist:

Weiterlesen nach der Anzeige

„Slow is smooth and smooth is fast.“


the next big thing – Golo Roden

the next big thing – Golo Roden

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.

Gemeint ist damit, dass übereiltes Handeln zu Fehlern führt, die am Ende mehr Zeit kosten als die vermeintlich gesparte. Wer hingegen ruhig und kontrolliert vorgeht, arbeitet präziser, macht weniger Fehler und erreicht das Ziel paradoxerweise früher. In Hochdrucksituationen, in denen Sekunden über Erfolg und Misserfolg entscheiden, mag das kontraintuitiv klingen. Doch genau dort hat sich dieses Prinzip bewährt.

In der Softwareentwicklung begegnet mir ein ähnliches Muster. Die Branche steht unter permanentem Zeitdruck, Deadlines sind eng, Anforderungen ändern sich laufend, und der Reflex, so schnell wie möglich Code zu schreiben, ist tief verankert. Fortschritt wird oft daran gemessen, wie schnell neuer Code entsteht. Doch gerade dieser Reflex führt häufig dazu, dass Projekte am Ende länger dauern als nötig. Die Parallele zu den Navy SEALs ist frappierend, und ich bin überzeugt, dass ihr Grundsatz einer der wertvollsten Ratschläge ist, den Softwareteams beherzigen können.

Die Versuchung liegt auf der Hand: Ein neues Feature steht an, die Anforderungen scheinen klar, also öffnet man den Editor und beginnt zu tippen. Schließlich wird Software in Code gemessen, nicht in Whiteboard-Skizzen. Je früher Code entsteht, desto früher ist man fertig. So zumindest die gängige Annahme.

Die Realität zeichnet ein anderes Bild. Code, der ohne gründliche Vorüberlegung entsteht, basiert auf impliziten Annahmen. Jede und jeder im Team hat eine eigene Vorstellung davon, wie die Lösung funktionieren soll, aber diese Vorstellungen werden selten abgeglichen. Die Annahmen stellen sich oft erst spät als falsch heraus, etwa wenn sich zeigt, dass die gewählte Schnittstelle für die tatsächlichen Anwendungsfälle ungeeignet ist oder dass ein Sonderfall die gesamte Architektur infrage stellt. Was harmlos begann, wird zum strukturellen Problem.

Weiterlesen nach der Anzeige

Was dann folgt, sind Korrekturschleifen. Nicht eine, sondern mehrere. Dazu kommen Diskussionen, die man besser vorher geführt hätte, Refactorings, die im Grunde Neuschreibungen sind, und eine wachsende Menge an technischen Schulden. Der Code, der so schnell entstanden ist, muss erklärt, verteidigt und überarbeitet werden. Aus dem vermeintlich schnellen Start wird ein zähes, kostspieliges Nacharbeiten.

Das Tückische daran ist, dass dieser Effekt selten sichtbar wird. Niemand misst, wie viel Zeit ein Team mit Nacharbeit verbringt, die bei besserem Vorgehen vermeidbar gewesen wäre. Die Stunden versickern in Bugfixes, in „kleinen Anpassungen“ und in Meetings, in denen man klärt, was man vorher hätte klären sollen. Die anfängliche Geschwindigkeit war eine Illusion.

Vor etlichen Jahren haben ein Kollege und ich einen Entwicklungsprozess etabliert, der von außen betrachtet geradezu verschwenderisch wirkte. Wann immer wir ein neues Modul oder eine neue Komponente entwickeln sollten, haben wir nicht als Erstes den Editor geöffnet. Stattdessen sind wir ans Whiteboard gegangen.

Dort haben wir das Problem von der anderen Seite her aufgerollt: Nicht „Wie bauen wir das?“, sondern „Wie soll es sich anfühlen, wenn jemand diesen Code verwendet?“ Diese Frage klingt simpel, aber sie verändert die gesamte Perspektive. Das Prinzip ist unter dem Begriff „Working backwards“ bekannt, wie es unter anderem bei AWS praktiziert wird. Man beginnt beim gewünschten Ergebnis und arbeitet sich von dort zurück zur Implementierung.

Konkret bedeutete das: Wir haben am Whiteboard Codebeispiele skizziert. Nicht den internen Aufbau, sondern die öffentliche Schnittstelle. Wie würde eine Entwicklerin oder ein Entwickler dieses Modul aufrufen? Welche Parameter wären intuitiv? Welche Rückgabewerte würden erwartet? Welche Fehlerfälle müsste man behandeln, und wie sollte das aussehen?

Dieses Vorgehen erzwang, dass wir uns intensiv mit der Domäne und den Anforderungen auseinandersetzten, bevor eine einzige Zeile produktiven Codes entstand. Es zwang uns, Fragen zu stellen, die beim sofortigen Losprogrammieren untergegangen wären. Häufig stellten wir dabei fest, dass unsere anfänglichen Vorstellungen von der Schnittstelle nicht tragfähig waren. Dann haben wir das Whiteboard gewischt und von vorn begonnen, so oft wie nötig. Das kostete trotzdem nur Stunden, keine Tage oder gar eine Woche.

Am Ende dieser Phase hatten wir ein gemeinsames, explizites Verständnis davon, was wir eigentlich bauen wollten. Nicht ungefähr, nicht implizit, sondern konkret und greifbar. Wir konnten jedem im Team erklären, warum die Schnittstelle genau so aussehen sollte und nicht anders. Diese Klarheit war kein Nebenprodukt, sie war das eigentliche Ziel.

Nach der Whiteboard-Phase folgte ein Schritt, der auf den ersten Blick noch ungewöhnlicher wirkt: Wir haben einen Prototyp geschrieben, mit dem klaren Vorsatz, ihn anschließend wegzuwerfen. Kein sauberer Code, keine Tests, keine Dokumentation. Nur ein schneller, funktionaler Durchstich, um unsere Thesen zu überprüfen.

Dieser Prototyp diente ausschließlich dem Lernen. Am Whiteboard kann man vieles klären, aber bestimmte Dinge zeigen sich erst, wenn man tatsächlich Code schreibt. Theorie und Praxis klaffen in der Softwareentwicklung oft weiter auseinander, als man wahrhaben möchte. Wie verhält sich die Schnittstelle, wenn man sie wirklich benutzt? Wo fühlt sie sich sperrig an? Welche Randfälle tauchen auf, an die man nicht gedacht hat? Wo hat man die Komplexität über- oder unterschätzt? Welche Abhängigkeiten ergeben sich, die auf dem Whiteboard nicht sichtbar waren?

Der entscheidende Punkt war, dass dieser Prototyp keine Verpflichtung mit sich brachte. Weil von Anfang an feststand, dass er weggeworfen würde, konnten wir frei experimentieren. Es gab keinen Druck, die einmal gewählte Struktur beizubehalten, nur weil schon Code da war. Wir konnten Sackgassen ohne schlechtes Gewissen verlassen und Alternativen ausprobieren. Wir konnten Fehler machen, ohne dass diese Fehler sich in der Codebasis festsetzten.

Das Wegwerfen selbst fiel erstaunlich leicht. Nicht, weil uns der Code egal war, sondern weil das eigentliche Ergebnis dieser Phase nicht der Code selbst war. Das Ergebnis war Erkenntnis: ein tiefes, praktisches Verständnis dafür, wie die Lösung aussehen sollte und welche Fallstricke zu vermeiden waren. Dieses Verständnis ließ sich nicht durch Nachdenken allein gewinnen. Es brauchte die Erfahrung des Tuns, das Scheitern in einer sicheren Umgebung.

Erst im dritten Anlauf haben wir den eigentlichen, produktiven Code geschrieben. Und hier zeigte sich der Lohn der Vorarbeit: Das Schreiben ging bemerkenswert schnell. Nicht, weil wir uns beeilten, sondern weil wir wussten, was wir taten. Die Unsicherheit, die normalerweise jede Entwicklung begleitet, war weitgehend verschwunden. An ihre Stelle war Zuversicht getreten.

Die Architektur stand, die Schnittstellen waren durchdacht, die typischen Stolperstellen waren bekannt. Wir mussten nicht mehr experimentieren oder grundlegende Entscheidungen treffen, denn das hatten wir bereits hinter uns. Stattdessen konnten wir uns darauf konzentrieren, sauberen, gut strukturierten Code zu schreiben, der von Anfang an den Qualitätsansprüchen genügt.

Genau in dieser Phase kamen auch Tests und Dokumentation hinzu. Beides fällt erheblich leichter, wenn man die Lösung verstanden hat und nicht im Nebel stochert. Tests für eine durchdachte Schnittstelle zu schreiben, ist keine Last, sondern eine Bestätigung. Man weiß, welche Fälle relevant sind, und kann sie gezielt abdecken. Und Dokumentation für ein Modul zu verfassen, dessen Designentscheidungen man bewusst getroffen hat, ist keine Pflichtübung, sondern eine natürliche Ergänzung.

Das gesamte Vorgehen fand im Pair-Programming statt. Zwei Personen am selben Problem, von der Whiteboard-Diskussion über den Prototyp bis zum fertigen Code. Auch das wirkt auf den ersten Blick teuer: Zwei Entwicklerinnen oder Entwickler für eine Aufgabe, das ist doch doppelter Aufwand? Die Praxis erzählte eine andere Geschichte. Vier Augen sehen mehr als zwei, und der ständige Dialog verhindert, dass sich jemand in eine Sackgasse verrennt, ohne es zu bemerken. Was wir an scheinbarer Effizienz aufgaben, gewannen wir an Qualität und Geschwindigkeit zurück.

Wann immer ich diesen Prozess beschrieben habe, war die häufigste Reaktion eine Mischung aus Interesse und Unglauben. Die Fragen lauteten: „Wie könnt ihr euch das leisten?“ und „Wie bringt ihr eure Kunden dazu, das mitzumachen?“

Die Antwort war einfacher, als die meisten erwartet haben: Wir waren schneller und günstiger als andere. Nicht trotz, sondern wegen dieses Vorgehens. Das klingt nach einer bequemen Behauptung, aber die Zahlen stützten sie.

Der Grund liegt in einer Beobachtung, die sich über Jahre hinweg immer wieder bestätigt hat: Unser Code hat beim ersten echten Versuch mit einer überdurchschnittlich hohen Rate funktioniert. Er war weitgehend fehlerfrei, die Schnittstellen passten zu den tatsächlichen Anforderungen, und die Architektur trug auch dann noch, wenn später Erweiterungen hinzukamen. Was auf dem Papier nach Mehraufwand aussah, war in Wahrheit eine Abkürzung.

Was auf der anderen Seite wegfiel, war erheblich: keine endlosen Korrekturschleifen, keine späten Architekturentscheidungen unter Druck, keine Wochen, in denen das Team im Grunde damit beschäftigt war, frühe Fehler zu reparieren. Kein mühsames Debugging von Code, den man vor drei Wochen geschrieben und inzwischen halb vergessen hatte. Keine hitzigen Diskussionen darüber, ob man den bestehenden Ansatz noch retten kann oder doch lieber neu anfangen sollte. Für unsere Kundinnen und Kunden bedeutete das: zuverlässigere Zeitpläne, weniger Überraschungen und am Ende niedrigere Gesamtkosten.

Der Prozess sah langsamer aus, weil die erste sichtbare Codezeile später entstand. Aber die erste sichtbare Codezeile ist nicht der relevante Messpunkt. Relevant ist, wann funktionierende, zuverlässige Software ausgeliefert wird. Und diesen Punkt haben wir regelmäßig früher erreicht als Teams, die vom ersten Tag an in die Tasten gehauen haben.

Heute, zahlreiche Jahre später, hat sich das Umfeld grundlegend verändert. KI-gestützte Werkzeuge erzeugen Code in einem Tempo, das noch vor Kurzem undenkbar war. Ein gut formulierter Prompt liefert in Sekunden, wofür früher Stunden nötig waren. Die Geschwindigkeit der Codeerzeugung hat sich vervielfacht, und die Werkzeuge werden mit jeder Generation leistungsfähiger.

Doch Geschwindigkeit bei der Codeerzeugung ist nicht dasselbe wie Geschwindigkeit bei der Problemlösung. Eine KI kann beeindruckend schnell Code produzieren, aber sie kann nicht wissen, ob dieser Code das richtige Problem löst. Sie kann eine Schnittstelle implementieren, aber nicht beurteilen, ob diese Schnittstelle für die tatsächlichen Anwendungsfälle sinnvoll ist. Sie kann Tests generieren, aber nicht entscheiden, welche Fälle wirklich kritisch sind und welche nur Rauschen erzeugen.

Was KI-Werkzeuge im Kern tun, ist verstärken. Sie verstärken das, was man hineinsteckt. Wer genau weiß, was die Lösung leisten soll, wie die Schnittstellen aussehen müssen und welche Randfälle zu beachten sind, bekommt von einer KI beeindruckend guten Code in kürzester Zeit. Die Maschine wird zum Beschleuniger für eine klare Idee. Wer diese Klarheit nicht hat, bekommt schneller das Falsche. Und falscher Code, der in Sekunden statt in Stunden entstanden ist, bleibt falscher Code. Er muss genauso überarbeitet, korrigiert und im schlimmsten Fall weggeworfen werden. Die KI hat dann nichts beschleunigt, sie hat nur die Illusion von Fortschritt erzeugt.

Und genau hier schließt sich der Kreis zum dreistufigen Prozess. Die Phase am Whiteboard, das Durchdenken der Verwenderperspektive, das bewusste Experimentieren mit einem Wegwerf-Prototyp: All das liefert genau die Klarheit, die man braucht, um KI-Werkzeuge sinnvoll einzusetzen. Man füttert die KI nicht mit vagen Vorstellungen, sondern mit präzisen Anforderungen. Die KI übernimmt dann den Teil, der tatsächlich beschleunigt werden kann: das Schreiben von Code, dessen Richtung bereits feststeht.

Die Versuchung ist groß, diesen Schritt zu überspringen. Wenn Code so billig zu erzeugen ist, warum nicht einfach ausprobieren und schauen, was passiert? Die Antwort ist dieselbe wie vor zwanzig Jahren: Weil das Erzeugen von Code nie der Engpass war. Der Engpass war und ist das Verstehen. Und Verstehen lässt sich nicht beschleunigen, indem man schneller tippt, ob mit oder ohne KI.

„Slow is smooth and smooth is fast.“ Dieser Grundsatz der Navy SEALs hat nichts an Gültigkeit verloren, auch nicht in einer Zeit, in der Maschinen Code schneller schreiben als jeder Mensch.

Bewusst Tempo herauszunehmen, sich die Zeit zu geben, ein Problem wirklich zu durchdringen, bevor man es löst, fühlt sich an wie ein Luxus, den man sich nicht leisten kann. Die Erfahrung zeigt jedoch das Gegenteil: Es ist eine Investition, die sich zuverlässig auszahlt. In weniger Fehlern, in weniger Nacharbeit, in kürzerer Gesamtdauer und in Code, der nicht nur funktioniert, sondern trägt. In Teams, die weniger streiten und mehr liefern.

Ob man diesen Code dann selbst schreibt oder von einer KI schreiben lässt, ist zweitrangig. Entscheidend ist, dass man weiß, was man will, bevor man anfängt. Erst denken, dann experimentieren, dann bauen. In dieser Reihenfolge. Daran hat sich in all den Jahren nichts geändert.


(rme)



Source link

Weiterlesen

Künstliche Intelligenz

Public IT: Neue c’t-Konferenz für den öffentlichen Sektor sucht Vorträge


Am 28. und 29. Oktober findet in Hannover erstmals die Public IT statt. Die c’t-Konferenz richtet sich an Entscheider und Praktiker, die im öffentlichen Sektor für IT oder Digitalisierung zuständig sind. Sie stellt zwei Schwerpunktthemen in den Vordergrund: souveräne Cloud- und On-Premise-Lösungen sowie Automatisierung und KI.

Weiterlesen nach der Anzeige

Die Besonderheit der Public IT ist die technische Tiefe: Hier geht es nicht um abstrakte politische Ziele, sondern um die konkrete Umsetzung. Die Redaktion von c’t bietet mit der Konferenz eine unabhängige Plattform für den fachlichen Austausch und Networking.

Im Call for Proposals sucht die c’t-Redaktion bis zum 12. April praxisnahe Vorträge von Menschen, die im öffentlichen Sektor IT- oder Digitalisierungsprojekte leiten und umsetzen. Wir freuen uns insbesondere über Speaker, die selbst im öffentlichen Sektor beschäftigt sind.

Beiträge können sich unter anderem mit folgenden Schwerpunkten befassen:

  • On-Premise, Cloud oder Multi-Cloud: Souveräne Infrastruktur
  • Cloud-Transformation: Container, CI/CD und Orchestrierung
  • Souveräne KI-Infrastruktur
  • Souveräne Arbeitsplatzlösungen
  • Datenschutz, Datensicherheit und Recht
  • Automatisierung und Prozessoptimierung
  • LowCode & NoCode
  • Generative KI / Agentische KI
  • Ende-zu-Ende-Digitalisierung
  • Registermodernisierung

Vorschläge für Vorträge können über die Webseite der Public IT eingereicht werden. Die c’t-Redaktion freut sich auch über Vorschläge zu weiteren Themen, die in den Kontext der Public IT passen. Erfahrungsberichte aus Projekten sind besonders gern gesehen. Das Programm wird Anfang Mai veröffentlicht.


(cwo)



Source link

Weiterlesen

Beliebt