Connect with us

Künstliche Intelligenz

Günstige In-Ear-Kopfhörer mit überraschendem ANC: Google Pixel Buds 2a im Test


Google spendiert seinen günstigen In-Ears erstmals ANC und die Pixel Buds 2a überraschen zum Preis von 111 Euro im Test.

Mit den Pixel Buds 2a wagt Google einen neuen Anlauf im Bereich günstiger True-Wireless-Kopfhörer. Der vor Jahren erschienene Vorgänger Pixel Buds A-Series war zeitweise für unter 60 Euro erhältlich. Er bot soliden Klang und ungewöhnliche Silikonflügel für besseren Halt. Herausragend war er in keinem Bereich – vor allem fehlte die aktive Geräuschunterdrückung (ANC).

Gerade für Pendler ist ANC inzwischen unverzichtbar. Die Funktion hat sich über viele Preisklassen verbreitet. Das Fehlen bei den A-Series war deshalb ein echter Nachteil. Mit den Pixel Buds 2a behebt Google diesen Malus. Erstmals gibt es bei den günstigen Kopfhörern eine aktive Geräuschunterdrückung. Und die überrascht im Test direkt: Im Vergleich zu den ebenfalls getesteten Pixel Buds Pro 2 arbeitet sie bei tieffrequenten Geräuschen sogar effektiver. Das alles für 111 Euro. Ob die Buds 2a auch bei Klang und Ausstattung überzeugen, zeigt unser Test.

Das Testgerät hat uns der Hersteller zur Verfügung gestellt.

Design & Tragekomfort

Das Design steht in der Tradition der Vorgänger. Am Case hat Google seit Jahren nur minimale Änderungen vorgenommen. Das ist auch nicht nötig: Die Form ist funktional und passt zu Googles Designsprache. Die Pixel Buds 2a sind dabei etwas schlanker und kleiner geworden, das Case misst 50 × 24,5 × 57,2 mm.

Pixel Buds 2a in der Farbgebung "Iris"

Die Farben fallen knalliger aus als beim Pro-Modell. Unser Testgerät trägt das lavendelblaue Farbkleid „Iris“. Daneben gibt es auch noch Hazel, was einem Grauton entspricht.

Der gewählte Farbton zieht sich als schmaler Zierstreifen über die Außenseite und die Innenschalen des Cases. Der Rest bleibt weiß. Das Material fühlt sich griffig und solide an. Der Deckel knarzt allerdings etwas. Insgesamt wirkt der Schließmechanismus aber stabil. Der Magnet sorgt für ein sattes Klacken beim Zuklappen.

Die Kopfhörer lassen sich dank einer Lücke in der Mitte des Cases einfach entnehmen – ein Fortschritt gegenüber der ersten Generation. Die Silikonflügel sorgen im Test für guten Halt ohne Drücken. Auch bei kleineren oder größeren Ohren passen die Buds gut. Das Gewicht von nur 4,7 Gramm pro Ohrhörer fällt kaum auf. Mit IP54 sind die Kopfhörer gegen Spritzwasser und Staub geschützt.

Lieferumfang

Google liefert die Pixel Buds 2a mit dem kompakten Ladeetui, das 38 Gramm wiegt. Dazu kommen verschiedene Silikonaufsätze in unterschiedlichen Größen für die optimale Passform. Ein USB-C-Ladekabel liegt nicht bei. Eine drahtlose Ladefunktion wie bei den Pro 2 fehlt – das Case lässt sich nur per Kabel aufladen.

Klang & ANC

Klanglich bewegen sich die Pixel Buds 2a auf einem sehr guten Niveau für ihre Preisklasse. Die 11-mm-Treiber liefern bei verschiedenen Genres ordentliche Ergebnisse – von Pop und Rock über Rap bis zu Klavier- und Orchestermusik. Potenzial gibt es bei der Klangfülle und Tiefe. Diese klingen manchmal etwas unsauber und verwaschen. Gerade im Bassbereich fehlt es an Volumen. Die Pixel Buds Pro 2 erscheinen im Vergleich ausgewogener und feiner. Der Preisunterschied rechtfertigt das aber.

Die eigentliche Überraschung ist das ANC. Die aktive Geräuschunterdrückung arbeitet im Test überraschend effektiv. Bei der Fahrt mit der Bahn filtert sie tieffrequente Umgebungsgeräusche sogar besser als das teurere Pro-Modell. Das fällt besonders bei Gesprächen in der Umgebung sowie bei Abroll- und Beschleunigungsgeräuschen des Zuges auf.

Der Transparenzmodus kann hingegen nicht mit den Pro 2 mithalten. Während wir bei den Pro-Modellen mitunter vergessen haben, dass wir Kopfhörer tragen, klingt es bei den 2a wie Watte auf den Ohren. Bei Gegenwind schalten die Mikrofone automatisch ab, um Windgeräusche zu verhindern. Einen Ambient-Modus als Zwischenstufe zwischen voller Transparenz und vollem ANC gibt es nicht. Die Intensität lässt sich bei beiden Modi nicht feinstufig anpassen.

Spatial Audio für räumlichen Klang unterstützen auch die 2a. Das Feature erfasst Kopfbewegungen und passt den Klang entsprechend an – als würde man um die Musik herumwandern.

Ausstattung

Die Pixel Buds 2a arbeiten mit Bluetooth 5.4. Hochwertige Audiocodecs wie Opus oder LC3/LE Audio fehlen allerdings. Multipoint für die Verbindung mehrerer Geräte gleichzeitig ist dagegen an Bord.

Google Fast Pair beschleunigt die Einrichtung auf Android-Smartphones erheblich. Beim Aufklappen des Ladecases erscheint automatisch ein Popup-Fenster. Darüber startet man direkt die Kopplung. Nach Aktivierung der Berechtigung für Geräte in der Nähe folgt ein Tutorial mit den wichtigsten Funktionen.

Direkt mit den Kopfhörern nutzen kann man Googles KI-Assistenten Gemini, der sich optional auch per Wakeword (Hey Google) aktivieren lässt. Er kann eingehende Benachrichtigungen vorlesen – etwa von WhatsApp. Die Touch-Gesten sind konfigurierbar: Je nach Einstellung wechselt man auf einer Seite zwischen den ANC-Modi oder aktiviert Gemini ohne Sprachbefehl.

Ab Werk kommen die Kopfhörer mit Firmware-Version release_1.174.2. Ein Software-Update steht direkt nach der Einrichtung bereit. Der Updateprozess dauert bis zu 15 Minuten. Währenddessen müssen die Kopfhörer außerhalb des Cases bleiben. Nutzen kann man sie trotzdem – nur Spatial Audio ist dann deaktiviert. Das Update bringt die Kopfhörer auf Version release_4.467.

 Pixel Buds 2a vs. Pixel Buds Pro 2: Kein Lautsprecher im Case

Zum Koppeln weiterer Geräte dient ein Knopf auf der Rückseite des Cases. Hält man diesen bei geöffnetem Deckel gedrückt, wechseln die Kopfhörer in den Kopplungsmodus. Eine LED auf der Vorderseite zeigt den Status an. Orange leuchtet sie ab 20 Prozent Restakkustand.

Ein Bestätigungston beim Einsetzen fehlt – anders als bei den Pro-Modellen gibt es keinen Lautsprecher im Case. Falsch einlegen kann man die Buds trotzdem nicht: Das Case schließt nur, wenn die Kopfhörer richtig sitzen. Die Auto-Pause erkennt, wenn ein Hörer aus dem Ohr genommen wird. Per „Gerät finden“-App kann man die Kopfhörer dennoch bei Verlust klingeln lassen, die Buds werden so laut gestellt, dass sie durch das geschlossene Case zu hören sind.

Bedienung & App

Die Steuerung erfolgt über Touch-Gesten an den Ohrhörern. Diese lassen sich in den Einstellungen anpassen. Zur Wahl stehen die Steuerung der Geräuschunterdrückung oder der Zugriff auf den digitalen Assistenten Gemini. Je nach Konfiguration schaltet man etwa auf der rechten Seite die ANC-Modi durch oder weckt Gemini ohne Sprachbefehl.

Die Einrichtung über die Pixel-Buds-App geht schnell vonstatten. Ein Willkommensbildschirm führt durch die Grundlagen. Ein kurzer Testsound prüft den ordnungsgemäßen Sitz. Danach wählt man aus, ob Gemini per Wakeword aktiv sein soll.

Über die App lässt sich auch ein individueller Equalizer einstellen. Die Ortungsfunktion hilft beim Wiederfinden verlegter Kopfhörer. Updates für die Firmware werden automatisch angezeigt und lassen sich direkt installieren.

Akku

Die Akkulaufzeit überzeugt. Mit aktiviertem ANC halten die Pixel Buds 2a bis zu 7 Stunden durch. Ohne Geräuschunterdrückung steigt die Laufzeit auf 10 Stunden. Mit dem Ladeetui kommen insgesamt 20 Stunden zusammen – das halten wir im Test für realistisch.

Die Schnellladefunktion ist praktisch: 5 Minuten Laden reichen für eine Stunde Wiedergabe. Der USB-C-Anschluss am Case entspricht dem aktuellen Standard. Kabelloses Laden wie bei den Pro 2 fehlt allerdings.

Preis: Was kosten die Google Pixel Buds 2a?

Die Google Pixel Buds 2a kosten 111 Euro. Damit positioniert Google sie deutlich unter den Pixel Buds Pro 2 und macht ANC auch für sein Budget-Modell zugänglich.

Fazit

Die Google Pixel Buds 2a sind eine echte Überraschung. Für 111 Euro liefert Google True-Wireless-Kopfhörer mit einer Geräuschunterdrückung, die bei tieffrequenten Tönen sogar das teurere Pro-Modell etwas übertrifft. Der Klang ist ordentlich, auch wenn er bei Bässen etwas an Präzision vermissen lässt. Die Gemini-Integration, Spatial Audio und Multipoint runden das Paket ab.

Abstriche gibt es beim Transparenzmodus – der klingt deutlich gedämpfter als bei der Konkurrenz. Auch hochwertige Audiocodecs und kabelloses Laden fehlen. Dafür überzeugen die Silikonflügel mit gutem Halt, das Case mit solidem Magnetverschluss und die Akkulaufzeit mit bis zu 7 Stunden bei aktivem ANC.

Wer günstige In-Ears mit starkem ANC sucht und ein Android-Smartphone nutzt, macht mit den Pixel Buds 2a wenig falsch. Die schnelle Einrichtung per Fast Pair und die Gemini-Features sind klare Vorteile im Google-Ökosystem.



Source link

Künstliche Intelligenz

MacBook Neo: SSD deutlich langsamer als beim M5, SoC hinter iPhone 17e


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Heute ist es soweit: Das MacBook Neo geht in die Auslieferung bei Vorbestellern, außerdem kommt es in die Apple-Läden und den Einzelhandel. Das billigste macOS-Notebook aller Zeiten kommt mit einigen Kompromissen, wie unser Test des Macbook Neo zeigt. Käufer müssen sich bewusst sein, dass sie zum Preis ab 699 Euro (799 Euro maximal mit 512 GByte statt 256 GByte und Touch-ID-Funktion) kein Topgerät erhalten. Das Gesamtpaket dürfte den Markt dennoch aufwirbeln.

Weiterlesen nach der Anzeige

Beispiel SSD: Insbesondere die Variante mit 256 GByte lahmt. Moderne Mac-SSDs wie etwa die im MacBook Air M5 erreichen das vierfache Tempo, in einzelnen Benchmarks sind sogar bis zu achtmal mehr Leistung drin (MacBook Pro M5 Max mit 4 TByte). Ein Test ergab, dass das MacBook Air mit M1 und 512 GByte doppelt so schnell lesen konnte. Allerdings liegen uns bislang noch keine Daten zur 512-GByte-Variante des Neo vor. Üblicherweise sind größere SSDs schneller als kleinere, da Apple diese anders anbindet. Ob das bei iPhone-Chips wie im Neo auch der Fall ist, muss sich noch zeigen.

Wenig überraschend ist außerdem, dass der Chip (SoC) im Neo bereits vom iPhone 17e, Apples aktuellem Einsteiger-Smartphone, überholt wird. Im Neo steckt ein A18 Pro, der dem im iPhone 16 Pro entspricht, abzüglich eines GPU-Kerns (5 statt 6). Im iPhone 17e spielt hingegen der neuere A19 aus dem iPhone 17. Im Geekbench-Vergleich kommt das 17e so auf einen Mehr-Kern-Score von bis zu 9541, während das Neo leicht darunter liegt. Auch beim Einzel-Kern-Test liegt das 17e mit gut 200 Punkten vor dem Neo.

Die Frage ist nun, was das für die Praxis bedeutet. Im Mac & i-Test des Neo zeigte sich, dass Apple mit dem Neo ein interessantes Notebook gelungen ist: Die Verarbeitung ist Apple-typisch hochwertig, der Bildschirm in der Einstiegsklasse konkurrenzlos. Andere Tester kamen im Alltag gut mit dem Gerät klar, nutzten es sogar für – relativ ruckelfreien – Videoschnitt.

Weiterlesen nach der Anzeige

Ein Tipp bleibt allerdings, sich auch das MacBook Air M4 anzusehen, das Apple nun in den Abverkauf geschickt hat, im Handel aber noch recht gut zu kriegen ist. Die Hardware ist noch besser verarbeitet, genauso leicht, hat bessere Schnittstellen, Tastatur mit Hintergrundbeleuchtung und ist deutlich flotter. Der Preis: Für das 256-GByte-Modell unter 900 Euro, die 512-GByte-Variante kostet unter 1000 Euro.


(bsc)



Source link

Weiterlesen

Künstliche Intelligenz

iX-Workshop KRITIS: Zusätzliche Prüfverfahrenskompetenz für § 8a BSIG


Kritische Infrastrukturen (KRITIS) unterliegen nach § 8a Abs. 1 BSIG besonderen Sicherheitsanforderungen. Die Betreiber dieser Unternehmen und öffentlichen Einrichtungen sind verpflichtet, dem Bundesamt für Sicherheit in der Informationstechnik (BSI) regelmäßig nachzuweisen, dass ihre IT-Sicherheit dem aktuellen Stand der Technik entspricht. Dazu müssen sie angemessene organisatorische und technische Maßnahmen ergreifen, um Störungen zu vermeiden, die die Verfügbarkeit, Vertraulichkeit, Integrität und Authentizität ihrer IT-Systeme gefährden können.

Weiterlesen nach der Anzeige

In unserem zweitägigen Workshop KRITIS: Zusätzliche Prüfverfahrenskompetenz für § 8a BSIG erhalten Sie einen umfassenden Überblick über die Anforderungen von KRITIS und können sich gezielt auf Prüfungen für § 8a BSIG vorbereiten. Nach bestandener Abschlussprüfung am Ende der Schulung erhalten die Teilnehmenden die Zusatzqualifikation „Spezielle Prüfverfahrenskompetenz für § 8a BSIG“. Damit sind sie berechtigt, Sicherheitsprüfungen für § 8a BSIG im Auftrag des Bundesamtes für Sicherheit in der Informationstechnik durchzuführen.

Der Workshop wird von Fatih Yilmaz geleitet. Als Senior Consultant bei der HiSolutions AG verantwortet er dort das Themenfeld „Kritische Infrastrukturen“ nach BSI-Gesetz und unterstützt Unternehmen als zertifizierter Information Security Officer (TÜV) sowie zertifizierter IT-Grundschutz Praktiker bei der Vorbereitung und Durchführung von KRITIS-Prüfungen.

Dieser iX-Workshop folgt dem BSI-Schulungskonzept und richtet sich insbesondere an Auditoren wie interne Revisoren, Revisoren, Wirtschaftsprüfer mit IT-Revisionserfahrung sowie Mitarbeitende von Revisionsgesellschaften und Betreibern kritischer Infrastrukturen. Um einen intensiven Austausch untereinander und eine optimale Vorbereitung auf die Prüfung und Zertifizierung zu ermöglichen, ist diese Schulung auf 12 Teilnehmende beschränkt.


Weitere iX-Sicherheitsworkshops

Weitere iX-Sicherheitsworkshops


(ilk)



Source link

Weiterlesen

Künstliche Intelligenz

Slow is smooth and smooth is fast: Was Softwareteams von den Navy SEALs lernen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Es gibt einen Spruch, der vor allem durch die Navy SEALs bekannt geworden ist:

Weiterlesen nach der Anzeige

„Slow is smooth and smooth is fast.“


the next big thing – Golo Roden

the next big thing – Golo Roden

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.

Gemeint ist damit, dass übereiltes Handeln zu Fehlern führt, die am Ende mehr Zeit kosten als die vermeintlich gesparte. Wer hingegen ruhig und kontrolliert vorgeht, arbeitet präziser, macht weniger Fehler und erreicht das Ziel paradoxerweise früher. In Hochdrucksituationen, in denen Sekunden über Erfolg und Misserfolg entscheiden, mag das kontraintuitiv klingen. Doch genau dort hat sich dieses Prinzip bewährt.

In der Softwareentwicklung begegnet mir ein ähnliches Muster. Die Branche steht unter permanentem Zeitdruck, Deadlines sind eng, Anforderungen ändern sich laufend, und der Reflex, so schnell wie möglich Code zu schreiben, ist tief verankert. Fortschritt wird oft daran gemessen, wie schnell neuer Code entsteht. Doch gerade dieser Reflex führt häufig dazu, dass Projekte am Ende länger dauern als nötig. Die Parallele zu den Navy SEALs ist frappierend, und ich bin überzeugt, dass ihr Grundsatz einer der wertvollsten Ratschläge ist, den Softwareteams beherzigen können.

Die Versuchung liegt auf der Hand: Ein neues Feature steht an, die Anforderungen scheinen klar, also öffnet man den Editor und beginnt zu tippen. Schließlich wird Software in Code gemessen, nicht in Whiteboard-Skizzen. Je früher Code entsteht, desto früher ist man fertig. So zumindest die gängige Annahme.

Die Realität zeichnet ein anderes Bild. Code, der ohne gründliche Vorüberlegung entsteht, basiert auf impliziten Annahmen. Jede und jeder im Team hat eine eigene Vorstellung davon, wie die Lösung funktionieren soll, aber diese Vorstellungen werden selten abgeglichen. Die Annahmen stellen sich oft erst spät als falsch heraus, etwa wenn sich zeigt, dass die gewählte Schnittstelle für die tatsächlichen Anwendungsfälle ungeeignet ist oder dass ein Sonderfall die gesamte Architektur infrage stellt. Was harmlos begann, wird zum strukturellen Problem.

Weiterlesen nach der Anzeige

Was dann folgt, sind Korrekturschleifen. Nicht eine, sondern mehrere. Dazu kommen Diskussionen, die man besser vorher geführt hätte, Refactorings, die im Grunde Neuschreibungen sind, und eine wachsende Menge an technischen Schulden. Der Code, der so schnell entstanden ist, muss erklärt, verteidigt und überarbeitet werden. Aus dem vermeintlich schnellen Start wird ein zähes, kostspieliges Nacharbeiten.

Das Tückische daran ist, dass dieser Effekt selten sichtbar wird. Niemand misst, wie viel Zeit ein Team mit Nacharbeit verbringt, die bei besserem Vorgehen vermeidbar gewesen wäre. Die Stunden versickern in Bugfixes, in „kleinen Anpassungen“ und in Meetings, in denen man klärt, was man vorher hätte klären sollen. Die anfängliche Geschwindigkeit war eine Illusion.

Vor etlichen Jahren haben ein Kollege und ich einen Entwicklungsprozess etabliert, der von außen betrachtet geradezu verschwenderisch wirkte. Wann immer wir ein neues Modul oder eine neue Komponente entwickeln sollten, haben wir nicht als Erstes den Editor geöffnet. Stattdessen sind wir ans Whiteboard gegangen.

Dort haben wir das Problem von der anderen Seite her aufgerollt: Nicht „Wie bauen wir das?“, sondern „Wie soll es sich anfühlen, wenn jemand diesen Code verwendet?“ Diese Frage klingt simpel, aber sie verändert die gesamte Perspektive. Das Prinzip ist unter dem Begriff „Working backwards“ bekannt, wie es unter anderem bei AWS praktiziert wird. Man beginnt beim gewünschten Ergebnis und arbeitet sich von dort zurück zur Implementierung.

Konkret bedeutete das: Wir haben am Whiteboard Codebeispiele skizziert. Nicht den internen Aufbau, sondern die öffentliche Schnittstelle. Wie würde eine Entwicklerin oder ein Entwickler dieses Modul aufrufen? Welche Parameter wären intuitiv? Welche Rückgabewerte würden erwartet? Welche Fehlerfälle müsste man behandeln, und wie sollte das aussehen?

Dieses Vorgehen erzwang, dass wir uns intensiv mit der Domäne und den Anforderungen auseinandersetzten, bevor eine einzige Zeile produktiven Codes entstand. Es zwang uns, Fragen zu stellen, die beim sofortigen Losprogrammieren untergegangen wären. Häufig stellten wir dabei fest, dass unsere anfänglichen Vorstellungen von der Schnittstelle nicht tragfähig waren. Dann haben wir das Whiteboard gewischt und von vorn begonnen, so oft wie nötig. Das kostete trotzdem nur Stunden, keine Tage oder gar eine Woche.

Am Ende dieser Phase hatten wir ein gemeinsames, explizites Verständnis davon, was wir eigentlich bauen wollten. Nicht ungefähr, nicht implizit, sondern konkret und greifbar. Wir konnten jedem im Team erklären, warum die Schnittstelle genau so aussehen sollte und nicht anders. Diese Klarheit war kein Nebenprodukt, sie war das eigentliche Ziel.

Nach der Whiteboard-Phase folgte ein Schritt, der auf den ersten Blick noch ungewöhnlicher wirkt: Wir haben einen Prototyp geschrieben, mit dem klaren Vorsatz, ihn anschließend wegzuwerfen. Kein sauberer Code, keine Tests, keine Dokumentation. Nur ein schneller, funktionaler Durchstich, um unsere Thesen zu überprüfen.

Dieser Prototyp diente ausschließlich dem Lernen. Am Whiteboard kann man vieles klären, aber bestimmte Dinge zeigen sich erst, wenn man tatsächlich Code schreibt. Theorie und Praxis klaffen in der Softwareentwicklung oft weiter auseinander, als man wahrhaben möchte. Wie verhält sich die Schnittstelle, wenn man sie wirklich benutzt? Wo fühlt sie sich sperrig an? Welche Randfälle tauchen auf, an die man nicht gedacht hat? Wo hat man die Komplexität über- oder unterschätzt? Welche Abhängigkeiten ergeben sich, die auf dem Whiteboard nicht sichtbar waren?

Der entscheidende Punkt war, dass dieser Prototyp keine Verpflichtung mit sich brachte. Weil von Anfang an feststand, dass er weggeworfen würde, konnten wir frei experimentieren. Es gab keinen Druck, die einmal gewählte Struktur beizubehalten, nur weil schon Code da war. Wir konnten Sackgassen ohne schlechtes Gewissen verlassen und Alternativen ausprobieren. Wir konnten Fehler machen, ohne dass diese Fehler sich in der Codebasis festsetzten.

Das Wegwerfen selbst fiel erstaunlich leicht. Nicht, weil uns der Code egal war, sondern weil das eigentliche Ergebnis dieser Phase nicht der Code selbst war. Das Ergebnis war Erkenntnis: ein tiefes, praktisches Verständnis dafür, wie die Lösung aussehen sollte und welche Fallstricke zu vermeiden waren. Dieses Verständnis ließ sich nicht durch Nachdenken allein gewinnen. Es brauchte die Erfahrung des Tuns, das Scheitern in einer sicheren Umgebung.

Erst im dritten Anlauf haben wir den eigentlichen, produktiven Code geschrieben. Und hier zeigte sich der Lohn der Vorarbeit: Das Schreiben ging bemerkenswert schnell. Nicht, weil wir uns beeilten, sondern weil wir wussten, was wir taten. Die Unsicherheit, die normalerweise jede Entwicklung begleitet, war weitgehend verschwunden. An ihre Stelle war Zuversicht getreten.

Die Architektur stand, die Schnittstellen waren durchdacht, die typischen Stolperstellen waren bekannt. Wir mussten nicht mehr experimentieren oder grundlegende Entscheidungen treffen, denn das hatten wir bereits hinter uns. Stattdessen konnten wir uns darauf konzentrieren, sauberen, gut strukturierten Code zu schreiben, der von Anfang an den Qualitätsansprüchen genügt.

Genau in dieser Phase kamen auch Tests und Dokumentation hinzu. Beides fällt erheblich leichter, wenn man die Lösung verstanden hat und nicht im Nebel stochert. Tests für eine durchdachte Schnittstelle zu schreiben, ist keine Last, sondern eine Bestätigung. Man weiß, welche Fälle relevant sind, und kann sie gezielt abdecken. Und Dokumentation für ein Modul zu verfassen, dessen Designentscheidungen man bewusst getroffen hat, ist keine Pflichtübung, sondern eine natürliche Ergänzung.

Das gesamte Vorgehen fand im Pair-Programming statt. Zwei Personen am selben Problem, von der Whiteboard-Diskussion über den Prototyp bis zum fertigen Code. Auch das wirkt auf den ersten Blick teuer: Zwei Entwicklerinnen oder Entwickler für eine Aufgabe, das ist doch doppelter Aufwand? Die Praxis erzählte eine andere Geschichte. Vier Augen sehen mehr als zwei, und der ständige Dialog verhindert, dass sich jemand in eine Sackgasse verrennt, ohne es zu bemerken. Was wir an scheinbarer Effizienz aufgaben, gewannen wir an Qualität und Geschwindigkeit zurück.

Wann immer ich diesen Prozess beschrieben habe, war die häufigste Reaktion eine Mischung aus Interesse und Unglauben. Die Fragen lauteten: „Wie könnt ihr euch das leisten?“ und „Wie bringt ihr eure Kunden dazu, das mitzumachen?“

Die Antwort war einfacher, als die meisten erwartet haben: Wir waren schneller und günstiger als andere. Nicht trotz, sondern wegen dieses Vorgehens. Das klingt nach einer bequemen Behauptung, aber die Zahlen stützten sie.

Der Grund liegt in einer Beobachtung, die sich über Jahre hinweg immer wieder bestätigt hat: Unser Code hat beim ersten echten Versuch mit einer überdurchschnittlich hohen Rate funktioniert. Er war weitgehend fehlerfrei, die Schnittstellen passten zu den tatsächlichen Anforderungen, und die Architektur trug auch dann noch, wenn später Erweiterungen hinzukamen. Was auf dem Papier nach Mehraufwand aussah, war in Wahrheit eine Abkürzung.

Was auf der anderen Seite wegfiel, war erheblich: keine endlosen Korrekturschleifen, keine späten Architekturentscheidungen unter Druck, keine Wochen, in denen das Team im Grunde damit beschäftigt war, frühe Fehler zu reparieren. Kein mühsames Debugging von Code, den man vor drei Wochen geschrieben und inzwischen halb vergessen hatte. Keine hitzigen Diskussionen darüber, ob man den bestehenden Ansatz noch retten kann oder doch lieber neu anfangen sollte. Für unsere Kundinnen und Kunden bedeutete das: zuverlässigere Zeitpläne, weniger Überraschungen und am Ende niedrigere Gesamtkosten.

Der Prozess sah langsamer aus, weil die erste sichtbare Codezeile später entstand. Aber die erste sichtbare Codezeile ist nicht der relevante Messpunkt. Relevant ist, wann funktionierende, zuverlässige Software ausgeliefert wird. Und diesen Punkt haben wir regelmäßig früher erreicht als Teams, die vom ersten Tag an in die Tasten gehauen haben.

Heute, zahlreiche Jahre später, hat sich das Umfeld grundlegend verändert. KI-gestützte Werkzeuge erzeugen Code in einem Tempo, das noch vor Kurzem undenkbar war. Ein gut formulierter Prompt liefert in Sekunden, wofür früher Stunden nötig waren. Die Geschwindigkeit der Codeerzeugung hat sich vervielfacht, und die Werkzeuge werden mit jeder Generation leistungsfähiger.

Doch Geschwindigkeit bei der Codeerzeugung ist nicht dasselbe wie Geschwindigkeit bei der Problemlösung. Eine KI kann beeindruckend schnell Code produzieren, aber sie kann nicht wissen, ob dieser Code das richtige Problem löst. Sie kann eine Schnittstelle implementieren, aber nicht beurteilen, ob diese Schnittstelle für die tatsächlichen Anwendungsfälle sinnvoll ist. Sie kann Tests generieren, aber nicht entscheiden, welche Fälle wirklich kritisch sind und welche nur Rauschen erzeugen.

Was KI-Werkzeuge im Kern tun, ist verstärken. Sie verstärken das, was man hineinsteckt. Wer genau weiß, was die Lösung leisten soll, wie die Schnittstellen aussehen müssen und welche Randfälle zu beachten sind, bekommt von einer KI beeindruckend guten Code in kürzester Zeit. Die Maschine wird zum Beschleuniger für eine klare Idee. Wer diese Klarheit nicht hat, bekommt schneller das Falsche. Und falscher Code, der in Sekunden statt in Stunden entstanden ist, bleibt falscher Code. Er muss genauso überarbeitet, korrigiert und im schlimmsten Fall weggeworfen werden. Die KI hat dann nichts beschleunigt, sie hat nur die Illusion von Fortschritt erzeugt.

Und genau hier schließt sich der Kreis zum dreistufigen Prozess. Die Phase am Whiteboard, das Durchdenken der Verwenderperspektive, das bewusste Experimentieren mit einem Wegwerf-Prototyp: All das liefert genau die Klarheit, die man braucht, um KI-Werkzeuge sinnvoll einzusetzen. Man füttert die KI nicht mit vagen Vorstellungen, sondern mit präzisen Anforderungen. Die KI übernimmt dann den Teil, der tatsächlich beschleunigt werden kann: das Schreiben von Code, dessen Richtung bereits feststeht.

Die Versuchung ist groß, diesen Schritt zu überspringen. Wenn Code so billig zu erzeugen ist, warum nicht einfach ausprobieren und schauen, was passiert? Die Antwort ist dieselbe wie vor zwanzig Jahren: Weil das Erzeugen von Code nie der Engpass war. Der Engpass war und ist das Verstehen. Und Verstehen lässt sich nicht beschleunigen, indem man schneller tippt, ob mit oder ohne KI.

„Slow is smooth and smooth is fast.“ Dieser Grundsatz der Navy SEALs hat nichts an Gültigkeit verloren, auch nicht in einer Zeit, in der Maschinen Code schneller schreiben als jeder Mensch.

Bewusst Tempo herauszunehmen, sich die Zeit zu geben, ein Problem wirklich zu durchdringen, bevor man es löst, fühlt sich an wie ein Luxus, den man sich nicht leisten kann. Die Erfahrung zeigt jedoch das Gegenteil: Es ist eine Investition, die sich zuverlässig auszahlt. In weniger Fehlern, in weniger Nacharbeit, in kürzerer Gesamtdauer und in Code, der nicht nur funktioniert, sondern trägt. In Teams, die weniger streiten und mehr liefern.

Ob man diesen Code dann selbst schreibt oder von einer KI schreiben lässt, ist zweitrangig. Entscheidend ist, dass man weiß, was man will, bevor man anfängt. Erst denken, dann experimentieren, dann bauen. In dieser Reihenfolge. Daran hat sich in all den Jahren nichts geändert.


(rme)



Source link

Weiterlesen

Beliebt