Künstliche Intelligenz
Slow is smooth and smooth is fast: Was Softwareteams von den Navy SEALs lernen
Es gibt einen Spruch, der vor allem durch die Navy SEALs bekannt geworden ist:
Weiterlesen nach der Anzeige
„Slow is smooth and smooth is fast.“

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.
Gemeint ist damit, dass übereiltes Handeln zu Fehlern führt, die am Ende mehr Zeit kosten als die vermeintlich gesparte. Wer hingegen ruhig und kontrolliert vorgeht, arbeitet präziser, macht weniger Fehler und erreicht das Ziel paradoxerweise früher. In Hochdrucksituationen, in denen Sekunden über Erfolg und Misserfolg entscheiden, mag das kontraintuitiv klingen. Doch genau dort hat sich dieses Prinzip bewährt.
In der Softwareentwicklung begegnet mir ein ähnliches Muster. Die Branche steht unter permanentem Zeitdruck, Deadlines sind eng, Anforderungen ändern sich laufend, und der Reflex, so schnell wie möglich Code zu schreiben, ist tief verankert. Fortschritt wird oft daran gemessen, wie schnell neuer Code entsteht. Doch gerade dieser Reflex führt häufig dazu, dass Projekte am Ende länger dauern als nötig. Die Parallele zu den Navy SEALs ist frappierend, und ich bin überzeugt, dass ihr Grundsatz einer der wertvollsten Ratschläge ist, den Softwareteams beherzigen können.
Wenn Geschwindigkeit zur Falle wird
Die Versuchung liegt auf der Hand: Ein neues Feature steht an, die Anforderungen scheinen klar, also öffnet man den Editor und beginnt zu tippen. Schließlich wird Software in Code gemessen, nicht in Whiteboard-Skizzen. Je früher Code entsteht, desto früher ist man fertig. So zumindest die gängige Annahme.
Die Realität zeichnet ein anderes Bild. Code, der ohne gründliche Vorüberlegung entsteht, basiert auf impliziten Annahmen. Jede und jeder im Team hat eine eigene Vorstellung davon, wie die Lösung funktionieren soll, aber diese Vorstellungen werden selten abgeglichen. Die Annahmen stellen sich oft erst spät als falsch heraus, etwa wenn sich zeigt, dass die gewählte Schnittstelle für die tatsächlichen Anwendungsfälle ungeeignet ist oder dass ein Sonderfall die gesamte Architektur infrage stellt. Was harmlos begann, wird zum strukturellen Problem.
Weiterlesen nach der Anzeige
Was dann folgt, sind Korrekturschleifen. Nicht eine, sondern mehrere. Dazu kommen Diskussionen, die man besser vorher geführt hätte, Refactorings, die im Grunde Neuschreibungen sind, und eine wachsende Menge an technischen Schulden. Der Code, der so schnell entstanden ist, muss erklärt, verteidigt und überarbeitet werden. Aus dem vermeintlich schnellen Start wird ein zähes, kostspieliges Nacharbeiten.
Das Tückische daran ist, dass dieser Effekt selten sichtbar wird. Niemand misst, wie viel Zeit ein Team mit Nacharbeit verbringt, die bei besserem Vorgehen vermeidbar gewesen wäre. Die Stunden versickern in Bugfixes, in „kleinen Anpassungen“ und in Meetings, in denen man klärt, was man vorher hätte klären sollen. Die anfängliche Geschwindigkeit war eine Illusion.
Ein Experiment zu zweit
Vor etlichen Jahren haben ein Kollege und ich einen Entwicklungsprozess etabliert, der von außen betrachtet geradezu verschwenderisch wirkte. Wann immer wir ein neues Modul oder eine neue Komponente entwickeln sollten, haben wir nicht als Erstes den Editor geöffnet. Stattdessen sind wir ans Whiteboard gegangen.
Dort haben wir das Problem von der anderen Seite her aufgerollt: Nicht „Wie bauen wir das?“, sondern „Wie soll es sich anfühlen, wenn jemand diesen Code verwendet?“ Diese Frage klingt simpel, aber sie verändert die gesamte Perspektive. Das Prinzip ist unter dem Begriff „Working backwards“ bekannt, wie es unter anderem bei AWS praktiziert wird. Man beginnt beim gewünschten Ergebnis und arbeitet sich von dort zurück zur Implementierung.
Konkret bedeutete das: Wir haben am Whiteboard Codebeispiele skizziert. Nicht den internen Aufbau, sondern die öffentliche Schnittstelle. Wie würde eine Entwicklerin oder ein Entwickler dieses Modul aufrufen? Welche Parameter wären intuitiv? Welche Rückgabewerte würden erwartet? Welche Fehlerfälle müsste man behandeln, und wie sollte das aussehen?
Dieses Vorgehen erzwang, dass wir uns intensiv mit der Domäne und den Anforderungen auseinandersetzten, bevor eine einzige Zeile produktiven Codes entstand. Es zwang uns, Fragen zu stellen, die beim sofortigen Losprogrammieren untergegangen wären. Häufig stellten wir dabei fest, dass unsere anfänglichen Vorstellungen von der Schnittstelle nicht tragfähig waren. Dann haben wir das Whiteboard gewischt und von vorn begonnen, so oft wie nötig. Das kostete trotzdem nur Stunden, keine Tage oder gar eine Woche.
Am Ende dieser Phase hatten wir ein gemeinsames, explizites Verständnis davon, was wir eigentlich bauen wollten. Nicht ungefähr, nicht implizit, sondern konkret und greifbar. Wir konnten jedem im Team erklären, warum die Schnittstelle genau so aussehen sollte und nicht anders. Diese Klarheit war kein Nebenprodukt, sie war das eigentliche Ziel.
Wegwerfen als Investition
Nach der Whiteboard-Phase folgte ein Schritt, der auf den ersten Blick noch ungewöhnlicher wirkt: Wir haben einen Prototyp geschrieben, mit dem klaren Vorsatz, ihn anschließend wegzuwerfen. Kein sauberer Code, keine Tests, keine Dokumentation. Nur ein schneller, funktionaler Durchstich, um unsere Thesen zu überprüfen.
Dieser Prototyp diente ausschließlich dem Lernen. Am Whiteboard kann man vieles klären, aber bestimmte Dinge zeigen sich erst, wenn man tatsächlich Code schreibt. Theorie und Praxis klaffen in der Softwareentwicklung oft weiter auseinander, als man wahrhaben möchte. Wie verhält sich die Schnittstelle, wenn man sie wirklich benutzt? Wo fühlt sie sich sperrig an? Welche Randfälle tauchen auf, an die man nicht gedacht hat? Wo hat man die Komplexität über- oder unterschätzt? Welche Abhängigkeiten ergeben sich, die auf dem Whiteboard nicht sichtbar waren?
Der entscheidende Punkt war, dass dieser Prototyp keine Verpflichtung mit sich brachte. Weil von Anfang an feststand, dass er weggeworfen würde, konnten wir frei experimentieren. Es gab keinen Druck, die einmal gewählte Struktur beizubehalten, nur weil schon Code da war. Wir konnten Sackgassen ohne schlechtes Gewissen verlassen und Alternativen ausprobieren. Wir konnten Fehler machen, ohne dass diese Fehler sich in der Codebasis festsetzten.
Das Wegwerfen selbst fiel erstaunlich leicht. Nicht, weil uns der Code egal war, sondern weil das eigentliche Ergebnis dieser Phase nicht der Code selbst war. Das Ergebnis war Erkenntnis: ein tiefes, praktisches Verständnis dafür, wie die Lösung aussehen sollte und welche Fallstricke zu vermeiden waren. Dieses Verständnis ließ sich nicht durch Nachdenken allein gewinnen. Es brauchte die Erfahrung des Tuns, das Scheitern in einer sicheren Umgebung.
Die finale Fassung mit Rückenwind
Erst im dritten Anlauf haben wir den eigentlichen, produktiven Code geschrieben. Und hier zeigte sich der Lohn der Vorarbeit: Das Schreiben ging bemerkenswert schnell. Nicht, weil wir uns beeilten, sondern weil wir wussten, was wir taten. Die Unsicherheit, die normalerweise jede Entwicklung begleitet, war weitgehend verschwunden. An ihre Stelle war Zuversicht getreten.
Die Architektur stand, die Schnittstellen waren durchdacht, die typischen Stolperstellen waren bekannt. Wir mussten nicht mehr experimentieren oder grundlegende Entscheidungen treffen, denn das hatten wir bereits hinter uns. Stattdessen konnten wir uns darauf konzentrieren, sauberen, gut strukturierten Code zu schreiben, der von Anfang an den Qualitätsansprüchen genügt.
Genau in dieser Phase kamen auch Tests und Dokumentation hinzu. Beides fällt erheblich leichter, wenn man die Lösung verstanden hat und nicht im Nebel stochert. Tests für eine durchdachte Schnittstelle zu schreiben, ist keine Last, sondern eine Bestätigung. Man weiß, welche Fälle relevant sind, und kann sie gezielt abdecken. Und Dokumentation für ein Modul zu verfassen, dessen Designentscheidungen man bewusst getroffen hat, ist keine Pflichtübung, sondern eine natürliche Ergänzung.
Das gesamte Vorgehen fand im Pair-Programming statt. Zwei Personen am selben Problem, von der Whiteboard-Diskussion über den Prototyp bis zum fertigen Code. Auch das wirkt auf den ersten Blick teuer: Zwei Entwicklerinnen oder Entwickler für eine Aufgabe, das ist doch doppelter Aufwand? Die Praxis erzählte eine andere Geschichte. Vier Augen sehen mehr als zwei, und der ständige Dialog verhindert, dass sich jemand in eine Sackgasse verrennt, ohne es zu bemerken. Was wir an scheinbarer Effizienz aufgaben, gewannen wir an Qualität und Geschwindigkeit zurück.
„Wie könnt ihr euch das leisten?“
Wann immer ich diesen Prozess beschrieben habe, war die häufigste Reaktion eine Mischung aus Interesse und Unglauben. Die Fragen lauteten: „Wie könnt ihr euch das leisten?“ und „Wie bringt ihr eure Kunden dazu, das mitzumachen?“
Die Antwort war einfacher, als die meisten erwartet haben: Wir waren schneller und günstiger als andere. Nicht trotz, sondern wegen dieses Vorgehens. Das klingt nach einer bequemen Behauptung, aber die Zahlen stützten sie.
Der Grund liegt in einer Beobachtung, die sich über Jahre hinweg immer wieder bestätigt hat: Unser Code hat beim ersten echten Versuch mit einer überdurchschnittlich hohen Rate funktioniert. Er war weitgehend fehlerfrei, die Schnittstellen passten zu den tatsächlichen Anforderungen, und die Architektur trug auch dann noch, wenn später Erweiterungen hinzukamen. Was auf dem Papier nach Mehraufwand aussah, war in Wahrheit eine Abkürzung.
Was auf der anderen Seite wegfiel, war erheblich: keine endlosen Korrekturschleifen, keine späten Architekturentscheidungen unter Druck, keine Wochen, in denen das Team im Grunde damit beschäftigt war, frühe Fehler zu reparieren. Kein mühsames Debugging von Code, den man vor drei Wochen geschrieben und inzwischen halb vergessen hatte. Keine hitzigen Diskussionen darüber, ob man den bestehenden Ansatz noch retten kann oder doch lieber neu anfangen sollte. Für unsere Kundinnen und Kunden bedeutete das: zuverlässigere Zeitpläne, weniger Überraschungen und am Ende niedrigere Gesamtkosten.
Der Prozess sah langsamer aus, weil die erste sichtbare Codezeile später entstand. Aber die erste sichtbare Codezeile ist nicht der relevante Messpunkt. Relevant ist, wann funktionierende, zuverlässige Software ausgeliefert wird. Und diesen Punkt haben wir regelmäßig früher erreicht als Teams, die vom ersten Tag an in die Tasten gehauen haben.
Schnell geschriebener Code ist nicht besserer Code
Heute, zahlreiche Jahre später, hat sich das Umfeld grundlegend verändert. KI-gestützte Werkzeuge erzeugen Code in einem Tempo, das noch vor Kurzem undenkbar war. Ein gut formulierter Prompt liefert in Sekunden, wofür früher Stunden nötig waren. Die Geschwindigkeit der Codeerzeugung hat sich vervielfacht, und die Werkzeuge werden mit jeder Generation leistungsfähiger.
Doch Geschwindigkeit bei der Codeerzeugung ist nicht dasselbe wie Geschwindigkeit bei der Problemlösung. Eine KI kann beeindruckend schnell Code produzieren, aber sie kann nicht wissen, ob dieser Code das richtige Problem löst. Sie kann eine Schnittstelle implementieren, aber nicht beurteilen, ob diese Schnittstelle für die tatsächlichen Anwendungsfälle sinnvoll ist. Sie kann Tests generieren, aber nicht entscheiden, welche Fälle wirklich kritisch sind und welche nur Rauschen erzeugen.
Was KI-Werkzeuge im Kern tun, ist verstärken. Sie verstärken das, was man hineinsteckt. Wer genau weiß, was die Lösung leisten soll, wie die Schnittstellen aussehen müssen und welche Randfälle zu beachten sind, bekommt von einer KI beeindruckend guten Code in kürzester Zeit. Die Maschine wird zum Beschleuniger für eine klare Idee. Wer diese Klarheit nicht hat, bekommt schneller das Falsche. Und falscher Code, der in Sekunden statt in Stunden entstanden ist, bleibt falscher Code. Er muss genauso überarbeitet, korrigiert und im schlimmsten Fall weggeworfen werden. Die KI hat dann nichts beschleunigt, sie hat nur die Illusion von Fortschritt erzeugt.
Und genau hier schließt sich der Kreis zum dreistufigen Prozess. Die Phase am Whiteboard, das Durchdenken der Verwenderperspektive, das bewusste Experimentieren mit einem Wegwerf-Prototyp: All das liefert genau die Klarheit, die man braucht, um KI-Werkzeuge sinnvoll einzusetzen. Man füttert die KI nicht mit vagen Vorstellungen, sondern mit präzisen Anforderungen. Die KI übernimmt dann den Teil, der tatsächlich beschleunigt werden kann: das Schreiben von Code, dessen Richtung bereits feststeht.
Die Versuchung ist groß, diesen Schritt zu überspringen. Wenn Code so billig zu erzeugen ist, warum nicht einfach ausprobieren und schauen, was passiert? Die Antwort ist dieselbe wie vor zwanzig Jahren: Weil das Erzeugen von Code nie der Engpass war. Der Engpass war und ist das Verstehen. Und Verstehen lässt sich nicht beschleunigen, indem man schneller tippt, ob mit oder ohne KI.
Langsam anfangen, um schnell anzukommen
„Slow is smooth and smooth is fast.“ Dieser Grundsatz der Navy SEALs hat nichts an Gültigkeit verloren, auch nicht in einer Zeit, in der Maschinen Code schneller schreiben als jeder Mensch.
Bewusst Tempo herauszunehmen, sich die Zeit zu geben, ein Problem wirklich zu durchdringen, bevor man es löst, fühlt sich an wie ein Luxus, den man sich nicht leisten kann. Die Erfahrung zeigt jedoch das Gegenteil: Es ist eine Investition, die sich zuverlässig auszahlt. In weniger Fehlern, in weniger Nacharbeit, in kürzerer Gesamtdauer und in Code, der nicht nur funktioniert, sondern trägt. In Teams, die weniger streiten und mehr liefern.
Ob man diesen Code dann selbst schreibt oder von einer KI schreiben lässt, ist zweitrangig. Entscheidend ist, dass man weiß, was man will, bevor man anfängt. Erst denken, dann experimentieren, dann bauen. In dieser Reihenfolge. Daran hat sich in all den Jahren nichts geändert.
(rme)
Künstliche Intelligenz
Avatar-Leak: 26-Jähriger in Singapur verhaftet
In Singapur ist ein 26-jähriger Mann verhaftet worden, der den Film „Die Legende von Aang: Der Herr der Elemente“ („The Legend of Aang: The Last Airbender“) im Internet verteilt haben soll.
Weiterlesen nach der Anzeige
Laut der in Singapur erscheinenden englischsprachigen Tageszeitung The Straits Times hat die Polizei den Mann verhaftet, der den Film auf Social-Media-Plattformen verteilt haben soll.
Erst kleine Häppchen, dann der ganze Film
Mitte April hatte ein User aus Singapur mit dem Handle @ImStillDissin auf X geschrieben, dass Nickelodeon ihm versehentlich den vollständigen Film per E-Mail geschickt habe. Diese vermeintliche Panne von Nickelodeon, das den Film produziert hat, hat er jedoch kurz darauf richtiggestellt. Offenbar hatte ein Freund aus seinen „Hacker-Tagen“ ihm Ausschnitte aus dem Film zugeschickt. Inzwischen sind alle Posts des Users auf X gelöscht.
Allerdings steckt hinter dem Leak des vollständigen Films offenbar ein anderer Mann in Singapur, der sich Zugriff auf die Produktionsserver verschafft haben soll. Der Leak des vollständigen Films hat wohl eine deutlich bessere Qualität als die Clips von @ImStillDissin.
Statt im Kino auf Paramount+ und illegal auf Social Media
Ursprünglich hatte Paramount geplant, den Animationsfilm im Oktober 2026 ins Kino zu bringen. Ende Dezember 2025 hatte das Unternehmen aber angekündigt, dass „The Last Airbender“ stattdessen exklusiv auf der Streaming-Plattform Paramount+ erscheinen solle.
Weiterlesen nach der Anzeige

Legend of Aaang – The Last Airbender
(Bild: Paramount Pictures)
Gegen den festgenommenen Mann wird wegen unbefugten Zugriffs auf Computerdaten ermittelt. Darauf stehen in Singapur eine Freiheitsstrafe von bis zu sieben Jahren, eine Geldstrafe von bis zu 50.000 Singapur-Dollar oder beides.
(rme)
Künstliche Intelligenz
Redmagic 11 Air im Test: Flaches Gaming-Smartphone mit Ausdauer, RGB und Lüfter
Das Redmagic 11 Air ist ein dünnes Smartphone mit 144-Hz-OLED, aktivem Lüfter und großem Akku. Schultertasten und starke Leistung sichern flüssiges Gaming.
Das Redmagic 11 Air ist ein Allrounder, der jedem gefallen will – nicht nur Gamern. Es kombiniert einen Snapdragon 8 Elite mit aktiver Kühlung, seitlichen Schultertasten und einem großen Akku mit satten 7000 mAh. Dazu kommt ein nahezu randloses OLED-Display mit 144 Hz und die Frontkamera, die unter dem Screen versteckt ist. Vorn und hinten gibt es viel Glas und zumindest auf den ersten Blick schauen den Interessenten vier Kameraobjektive an. Ist das alles nur Show oder taugt das schicke Gerät auch im Alltag? Das zeigt unser Test.
Design
Schon beim ersten Anfassen merkt man, dass das 11 Air anders ist als die meisten Smartphones. Trotz des großen Akkus ist das Gehäuse nur knapp 8 mm dick, dabei sehr kantig und wirkt besonders auf der Rückseite bewusst technisch. Unter der dortigen Glasabdeckung bringt Redmagic eine Zeichnung an, die auf den ersten Blick Leiterbahnen zu zeigen scheint, und gibt zugleich den Blick auf einen großen, RGB-beleuchteten Lüfter frei.
Vorn kommt Gorilla Glass 7i zum Einsatz, hinten Gorilla Glass 5. Trotz des seitlich offenen Lüfters ist das Gerät nach IP54 gegen Staub und Spritzwasser geschützt – ungewöhnlich, denn der Lüfter muss Luft in das Gehäuse hinein- und wieder herausführen und benötigt dafür zwangsläufig eine Öffnung. Die Materialwahl verleiht dem Smartphone ein hochwertiges Finish, allerdings ist das Gerät schnell mit Fingerabdrücken übersät und manchem dürfte es zu rutschig sein. Die Verarbeitung ist dafür hervorragend.
Das Kameramodul passt zum auffälligen Design: Es steht sichtbar hervor und macht Eindruck, ist aber vergleichsweise schlicht bestückt. Von den vermeintlich vier Linsen sind nur zwei echt. Mehr High End gibt es vorn: Die Frontkamera kommt komplett ohne Notch aus und sitzt unter dem nahezu formatfüllenden Display. In der Praxis wirkt das sehr modern – vor allem beim Spielen und beim Schauen von Videos, da kein Ausschnitt den Gesamteindruck trübt. Dafür muss man mit den bekannten Nachteilen einer Kamera unter dem Display leben: Es gelangt etwas weniger Licht zum Sensor.
Display
Das 6,8 Zoll messende OLED-Panel gehört zu den Stärken des Geräts. Es löst mit 2688 × 1216 Pixeln auf und erreicht bis zu 144 Hz. Die Touch-Abtastrate von bis zu 2500 Hz richtet sich klar an Gamer.
Im Alltag überzeugt das Display mit gleichmäßig schmalen Rändern und hoher Helligkeit. Messungen lagen bei knapp 1500 cd/m², waren aber nicht reproduzierbar. Subjektiv ist die Ablesbarkeit im Freien gut. Die unter dem Display versteckte Frontkamera bleibt im Betrieb praktisch unsichtbar. Gerade beim Spielen ist das ein echter Vorteil. Ein Always-on-Display ist ebenfalls vorhanden.
Kamera
Bei der Hauptkamera beschränkt sich Redmagic auf das Nötigste: Auf der Rückseite sitzen ein 50-Megapixel-Sensor (Omnivision OV50E) mit optischer Bildstabilisierung sowie eine 8-Megapixel-Weitwinkelkamera. Eine Telekamera fehlt – für ein Gaming-Smartphone ist das üblich, angesichts des Preises wäre sie aber drin gewesen. Die Blenden liegen bei f/1.89 für die Haupt- und f/2.2 für die Weitwinkeloptik.
In der Praxis liefert die Hauptkamera solide, wenn auch keine herausragenden Ergebnisse – für ein Gaming-Smartphone ist das überdurchschnittlich, für die Preisklasse insgesamt in Ordnung. Bei gutem Licht gelingen klare, scharfe Aufnahmen, die Nachbearbeitung greift allerdings recht aggressiv ein. Die Weitwinkelkamera fällt deutlich ab: Ihre Bilder wirken kühler, zeigen schneller Bildrauschen und halten weniger Details fest als die der Hauptoptik. Für Social-Media-Posts reicht das, mehr sollte man aber nicht erwarten.
Die Frontkamera mit 16 Megapixeln sitzt unter dem Display. Diese ungewöhnliche Platzierung erkauft sich Redmagic mit eher weichen Selfies, die anschließend per Software geglättet werden – Farben und Flächen wirken dadurch schnell unnatürlich. Bei guten Lichtverhältnissen ist das Ergebnis dennoch akzeptabel.
Bei Videos sind mit der Hauptkamera maximal 8K (4320p) mit 30 Bildern pro Sekunde möglich. Praxisgerechter und gerade bei seitlichen Schwenks sinnvoller sind allerdings 4K mit 60 fps. Die Qualität ist in beiden Fällen gut. Die Frontkamera nimmt mit 1080p bei 60 fps auf und liefert für Videochats absolut ausreichende Ergebnisse.
Testfotos – Redmagic 11 Air
Ausstattung
Im Inneren des Redmagic 11 Air arbeitet Qualcomms Snapdragon 8 Elite. Zwar handelt es sich dabei nicht um den aktuellen, sondern um den Chipsatz der vorherigen Generation, dennoch liefert er weiterhin eine sehr hohe Rechenleistung – insbesondere bei Spielen. Je nach Variante stehen 12 oder 16 GB RAM sowie 256 oder 512 GB interner UFS-4.1-Speicher zur Verfügung. Einen microSD-Slot gibt es nicht.
Im Alltag überzeugt das Smartphone durch schnelle Reaktionszeiten und eine insgesamt sehr flüssige Performance. In unseren Benchmarks erreicht das Gerät im PCMark Work 3.0 rund 25.800 Punkte, im 3DMark Wild Life Extreme sind es 6850 Punkte. Die Ergebnisse unterstreichen die starke Gaming-Ausrichtung: Neben dem Hauptprozessor kommt ein zusätzlicher Redcore-R4-Chip zum Einsatz, der für stabilere Bildraten und geringere Latenzen sorgen soll – auch in anspruchsvollen Titeln.
Eine weitere Besonderheit des Redmagic 11 Air ist die Kühlung, denn die ist bei diesem Modell aktiv ausgelegt. Der kleine Kühler soll bis zu 24.000 Umdrehungen pro Minute leisten und wird mit einer Vapor Chamber und weiteren Schichten zur Wärmeverteilung kombiniert. Im Alltag springt der allerdings in erster Linie in Games und Benchmarks an – und das ist auch gut so, denn das Rauschen des Lüfters ist in direkter Nähe deutlich zu hören. Zwar kommt Wärme bei längeren Benchmark-Sessions trotz aktiven Lüfters an der Rückseite an, bleibt aber zumindest moderat und hilft spürbar, Maximalleistung länger zu halten.
Das hilft auch beim Dauerzocken. Seitlich sitzen dafür kapazitive Schultertasten, die mit einer Abtastrate von 520 Hz arbeiten und im Test verlässlich funktionierten. Die Touch-Tasten fallen ansonsten im Alltag kaum auf und stören daher nicht, sind in Games, die sie unterstützen, aber ein echter Mehrwert.
Etwas schade ist – in Anbetracht der restlichen Ausstattung des Oberklasse-Phones – die Geschwindigkeit des USB-C-Anschlusses. Sie ist mit USB 2.0 angegeben und entsprechend langsam. Beim Funk bleibt das 11 Air ebenfalls eher konservativ, mit Wi-Fi 6 und Bluetooth 5.4. Positiv sind hingegen NFC und ein Infrarot-Port zur Steuerung von Haushaltsgeräten, den viele aktuelle Flaggschiffe nicht mehr bieten.
Der Fingerabdrucksensor ist zwar gut platziert, zeigte sich im Test aber anfangs nicht immer beim ersten Mal „freigiebig“. Allerdings legte sich das nach einem weiteren Firmware-Update, der optische Sensor reagierte dann zuverlässig. Die Stereo-Lautsprecher sind kräftig und müssen sich in dieser Preisklasse nicht verstecken.
Software
Auf dem 11 Air läuft ab Werk Redmagic OS 11, das auf Android 16 basiert. Zentral ist der Game Space, der ab Werk per Seitentaste (der „Magic Key“ lässt sich aber auch anders belegen, etwa mit der Taschenlampenfunktion) gestartet wird und dann aus dem Smartphone eine Konsole macht – inklusive Leistungsprofilen, Overlays und einem KI-Trainer, der beim Zocken Tipps gibt.
Rund um die Oberfläche baut Redmagic zusätzliche KI-Funktionen ein. Dazu gehören etwa Objekterkennung über die Kamera, Suche direkt vom Bildschirm sowie ein Tactical Coach, der aus Spieldaten Hinweise ableiten soll. Außerdem gibt es die Redmagic KI+ mit Funktionen wie Live-Übersetzer, KI-Transkript und KI-Notizblock.
Bei der Updateversorgung steckt der Hersteller hinter der Pixel- oder Galaxy-Konkurrenz von Google und Samsung kaum mehr zurück. Redmagic nennt für das 11 Air und neuere Modelle fünf Generationen an Android-Versionsupdates sowie Sicherheitsupdates ab Marktstart – wenn der Hersteller das so umsetzt, ist das stark! Da das 11 Air mit Android 16 startet, wären theoretisch Versionen bis Android 21 abgedeckt.
Akku
Der Akku ist ein echtes Statement: 7000 mAh in einem derart schlanken Gaming-Smartphone sind selten – auch in höheren Preisklassen. Im Praxistest hielt das Smartphone rund zwei Tage durch. Im normalen Alltag dürften für die meisten Nutzer gut drei Tage drin sein – ein hervorragender Wert, gerade angesichts der flachen Bauform. Wer viel zockt, muss allerdings damit rechnen, dass schon nach wenigen Stunden Schicht im Schacht ist.
Auch das Aufladen geht zügig vonstatten. In Ankündigungen war teils von 120 Watt die Rede, im Lieferumfang findet sich allerdings ein 80-Watt-Netzteil. Damit dauert eine vollständige Ladung knapp über eine Stunde – für 7000 mAh ein angenehm kurzer Wert. Interessant für Spieler ist der Bypass-Modus: Er leitet den Strom beim Spielen direkt an die Hardware, soll so den Akku entlasten und die Hitzeentwicklung weiter senken. Im Test war dieser Vorteil allerdings bestenfalls messbar, aber kaum spürbar. Einzig kabelloses Laden fehlt.
Preis
Das Redmagic 11 Air gibt es in zwei Speichervarianten. Die Version mit 12/256 GB kostet direkt beim Hersteller 499 Euro. Bei Amazon bekommt man es für 529 Euro. Die Version mit 16/512 GB liegt direkt beim Hersteller bei 599 Euro. Auf Amazon sind es rund 619 Euro. Als Farben gibt es Phantom (Schwarz/transparent), Prism (Weiß/transparent) und ganz neu auch Trace (Orange/transparent)
Fazit
Das Redmagic 11 Air ist eigentlich ein Spezialist – aber einer, der trotz vergleichsweise niedrigem Preis fast alles kann. Aktiver Lüfter, Schultertasten, großes OLED-Display mit hohen Abtastraten, eine unter dem Screen versteckte Selfiecam, viel Speicher, ein enorm schneller Chipsatz und obendrein ein 7000-mAh-Akku: Diese Kombination findet man im klassischen Smartphone-Markt kaum.
Im Gegenzug ist die Hauptkamera zwar in Ordnung, letztlich aber nur Mittelmaß. Die Weitwinkeloptik fällt noch deutlicher ab, und eine Telekamera fehlt komplett. Auch kabelloses Laden wäre die Kirsche auf der Sahnetorte gewesen – Fehlanzeige. Hinzu kommt der USB-C-Anschluss, der lediglich nach 2.0-Standard arbeitet und den ansonsten hervorragenden Eindruck des dünnen und sehr schicken Smartphones zusätzlich trübt. Verschmerzbare Punkte sind das aber allesamt: Das Redmagic 11 Air ist ein richtig gutes Smartphone mit fantastischem Preis-Leistungs-Verhältnis – nur Hobbyfotografen kommen nicht voll auf ihre Kosten.
Künstliche Intelligenz
Hannover Messe verliert Besucher: Künftige Auflage verkürzt sich
Die Hannover Messe stellt sich nach einem deutlichen Besucherrückgang im Jahr 2026 neu auf. Im kommenden Jahr verkürzt sie sich auf vier statt bisher fünf Tage, und zwar vom 5. bis 8. April 2027. Das teilte die Deutsche Messe AG am letzten Ausstellungstag mit. In diesem Jahr besuchten rund 110.000 Menschen die Industriemesse, das sind 13.000 weniger als im Vorjahr. Auch die Zahl der Aussteller ging zurück, und zwar um ein Viertel. Im Mittelpunkt der Fachmesse standen Künstliche Intelligenz, Automatisierung, Robotik und erstmals auch Rüstungstechnik.
Weiterlesen nach der Anzeige
Die Messe begründete den Besucherrückgang unter anderem mit Warnstreiks im Flug- und Nahverkehr, die die Anreise erschwert hätten. Rund 40 Prozent der Gäste seien aus dem Ausland gekommen. Auch einige heise-Redakteure nahmen an den Warnstreiktagen Montag und Dienstag lieber das Fahrrad, da der Großteil des Nahverkehrs stillstand und sich vor dem Messegelände Staus bildeten.
In einem Statement gegenüber der dpa sieht Messe-Chef Jochen Köckler die künftige Verkürzung als eine konsequente Weiterentwicklung für mehr Effizienz und Nähe zur Industrie. Auch der Hauptgeschäftsführer der Unternehmerverbände Niedersachsen, Benedikt Hüppe, sieht in der Kürzung auf die vier besucherstärksten Tage von Montag bis Donnerstag einen konsequenten Schritt für einen klareren Fokus.
Landespolitik streitet um künftigen Kurs
Die AfD kritisierte die Entwicklung: „Die diesjährige Hannover Messe war kein Aufbruchssignal, sondern ein Stresstest – und dieser fällt ernüchternd aus“, sagte der AfD-Landtagsabgeordnete Omid Najafi der dpa. Nicht einmal die Hälfte der Messehallen sei belegt gewesen. „Das ist nicht Verdichtung, das ist Rückbau.“
Kritik kam auch von der CDU im Landtag. Fraktionschef Sebastian Lechner äußerte Besorgnis über den Standort Hannover und die wirtschaftliche Entwicklung des Landes. Niedersachsen hält 50 Prozent der Anteile an der Deutschen Messe AG. Lechner forderte ein Zukunftskonzept für die Messe, auch mit Blick auf ihre Größe. Zudem brachte er einen strategischen Investor ins Spiel, der neben Kapital auch Know-how einbringen solle. Der Landesregierung warf er vor, nicht entschlossen genug zu handeln: „Auf mich wirkt es so, dass es noch keine Grundsatzentscheidung gibt, wo die Messe hin will“, sagte Lechner.
Die Landesregierung widersprach der Kritik. Politisch sei die Messe ein „voller Erfolg“ gewesen, so ein Regierungssprecher. Als Beleg dafür verwies er unter anderem auf den Besuch von Bundeskanzler Friedrich Merz (CDU) und den des Präsidenten des Partnerlands Brasilien, Luiz Inácio Lula da Silva, sowie auf zahlreiche Gespräche zu internationalen Handelsbeziehungen. Zugleich räumte die Landesregierung ein, dass sich die wirtschaftlichen Herausforderungen negativ auf die Zahl der Besucher und Aussteller ausgewirkt hätten. Ein Zukunftskonzept und die weitere Ausrichtung der Messe würden im Aufsichtsrat der Messegesellschaft beraten, so der Regierungssprecher. Im Aufsichtsrat sitzen unter anderem Wirtschaftsminister Grant Hendrik Tonne (SPD) und Umweltminister Christian Meyer (Grüne).
Weiterlesen nach der Anzeige
Suche nach einem Zukunftskonzept
Vom Wirtschaftsministerium hieß es, alle Beteiligten seien sich darüber im Klaren, dass Handlungsbedarf bestehe. Ein Konzept sei in Vorbereitung. Sobald die Planungen abgeschlossen seien, solle darüber informiert werden: „Da braucht sich Herr Lechner wirklich keine Sorgen zu machen, dass die Messe nicht im Fokus dieser Landesregierung steht“, so das Wirtschaftsministerium gegenüber der dpa.
Bei unseren Besuchen auf der Hannover Messe wurde vor allem die Robotik als treibendes Thema sichtbar. An kaum einer Ecke marschierte oder rollte kein Roboter durch die Gänge. Bis die humanoiden Exemplare in der Fertigung helfen können, sind aber noch einige Hürden zu nehmen. Auch Exoskelette für leichteres Heben und die KI-gestützte Diagnose von Hautkrankheiten wurden in Hannover vorgestellt. Im kommenden Jahr ist Spanien das Partnerland der Messe.
(jpw)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 2 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Social Mediavor 1 MonatVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
