Connect with us

Künstliche Intelligenz

Softwareentwicklung: Debugger? Nein, danke! | heise online


Ich benutze seit vielen Jahren keinen Debugger mehr. Stattdessen füge ich console.log oder fmt.Println an den Stellen in meinen Code ein, wo ich es für sinnvoll erachte. Dafür werde ich oft belächelt und gelegentlich kritisiert, weil das vermeintlich kein „richtiges“ Fehlersuchen wäre.

Weiterlesen nach der Anzeige


the next big thing – Golo Roden

the next big thing – Golo Roden

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.

Ich habe jedoch meine Gründe, und die sind – aus meiner Sicht – durchaus gut. Am Ende des Tages bin nämlich oft ich derjenige, der gefragt oder gerufen wird, wenn anderen Entwicklern (trotz Debugger) die Ideen ausgehen. Und ich finde den Fehler dann in der Regel nach einer Weile. Nicht weil ich keinen Debugger benutze, sondern weil letztlich die Methodik entscheidet und nicht das Tool.

Fangen wir damit an, was mir vorgeworfen wird. Da heißt es oft:

„Ach, du benutzt console.log? Wie niedlich!“

Oder:

„Das ist doch kein richtiges Debugging!“

Oder:

Weiterlesen nach der Anzeige

„Den Typen sollte man niemals wichtigen Code schreiben lassen, das ist kein richtiger Entwickler, der benutzt ja noch nicht mal einen Debugger!“

Die implizite Annahme dahinter ist immer: Ein guter Entwickler muss einen Debugger beherrschen. Interessanterweise ist das allerdings stark von der Community abhängig, in der man sich bewegt. In der Go- und in der JavaScript-Community beispielsweise sind fmt.Println beziehungsweise console.log völlig normal und akzeptiert. Niemand guckt einen da schräg an. In der Java- oder C#-Welt hingegen wird der Einsatz eines Debuggers oft als Pflicht angesehen. Das zeigt bereits: Es gibt nicht die eine richtige Art zu debuggen. Das ist stark davon abhängig, in welchem Ökosystem man sich bewegt.

Warum benutze ich nun keinen Debugger? Dafür habe ich vier konkrete Gründe. Erstens: Der Set-up-Aufwand. Einen Debugger zu starten, zu attachen und zu konfigurieren kann je nach Set-up des Projekts (auf das man eventuell gar keinen Einfluss hat) sehr aufwendig sein. Besonders in fremden Projekten, wo man nicht genau weiß, wie die Infrastruktur aufgebaut ist, verliert man unter Umständen sehr schnell viel Zeit. Zeit, die man eigentlich für etwas anderes bräuchte, nämlich um den Fehler zu finden. Stattdessen konfiguriert man zunächst eine halbe Stunde lang Tools und ärgert sich, dass es nicht so funktioniert, wie man sich das vorstellt.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Debugger? Nein, Danke! // deutsch

Zweitens: Die fehlende Übung. Wenn man viele Tests schreibt – und das sollte man tun –, erübrigen sich die einfachen Fälle. Die landen gar nicht erst auf dem Tisch, weil die Tests sie bereits abfangen. Was übrig bleibt, sind die schwierigen Fälle. Die gibt es jedoch gar nicht so oft. Vielleicht alle paar Wochen einmal, vielleicht alle paar Monate. Deswegen fehlt dann die Übung mit dem Debugger. Man ist aus der Routine raus, und wenn man ihn dann braucht, steht man da und muss sich erst wieder zurechtfinden. Man weiß dann oft gar nicht mehr so richtig, wie das funktioniert, wo welche Buttons sind, und so weiter. Genau das verstärkt natürlich auch den ersten Punkt, weil man wieder von vorn anfängt, um herauszufinden, wie man ihn überhaupt startet und attached.

Drittens: Die Timing-Verzerrung. Das ist für mich ein wichtiger Punkt, der viel zu oft ignoriert wird. Ein Debugger und dort insbesondere der Einsatz von Breakpoints verzerren nämlich das Zeitverhalten der Anwendung dramatisch. Ich habe vor vielen Jahren einmal in einem Projekt mit hunderten parallel laufenden Threads gearbeitet. Da war es praktisch unmöglich, mit einem Debugger etwas ausfindig zu machen. Warum? Weil jeder Breakpoint zum einen das Zeitverhalten komplett verändert hat. Hielt man einen Thread an, liefen die anderen weiter, und auf einmal hatte man ein völlig anderes Timing, und dann war der Fehler unter Umständen plötzlich weg. Oder es tauchten neue Fehler auf. Zum anderen hatte man bei zwei Läufen sowieso nie denselben Stand, weil Threads nebenläufig sind und das Scheduling von ihnen nicht deterministisch ist. Das heißt, hier kam es sehr darauf an, nachvollziehen zu können, welcher Thread etwas macht, was dann bei einem anderen Thread etwas verursacht. Das geht nur, indem man Code liest, sich Dinge notiert und vor allem, indem man sehr viel über den Code nachdenkt. Ein Debugger hilft einem da tatsächlich überhaupt nicht weiter, im Gegenteil: Er macht die Sache eigentlich nur schlimmer.

Viertens – und das ist aus meiner Sicht der wichtigste Punkt überhaupt: Der Debugger nimmt einem nicht das Denken ab. Die eigentliche Arbeit ist nämlich vor allem das Nachvollziehen und Nachdenken darüber, wie es zu einer bestimmten Situation überhaupt gekommen ist. Das kann ein Debugger naturgemäß nicht. Er ist nur ein Werkzeug. Er zeigt, was passiert ist, aber nicht warum. Man sieht die Werte in den Variablen, man sieht, welche Funktionen gerade aufgerufen werden, aber man versteht nicht die Kausalkette, wie es überhaupt dazu gekommen ist. Genau dieses Warum ist die Arbeit, die man als Entwicklerin oder als Entwickler leisten muss. Und das ist leider das, was vielen häufig schwerfällt.

Genau das ist der springende Punkt: Was wirklich zählt, ist systematisches Denken. Die Kernkompetenz beim Debuggen ist nämlich nicht, einen Debugger bedienen zu können. Die Kernkompetenz ist, Fehler systematisch eingrenzen zu können. Durch logisches Schlussfolgern die Zahl der Optionen, die als Ursache infrage kommen, immer weiter zu reduzieren. Und genau das macht der Mensch, nicht das Tool. Der Debugger kann einem zeigen, wie der Stand der Dinge ist, aber er kann einem nicht sagen, was sein sollte und warum es anders ist als erwartet.

Ich möchte dazu ein konkretes Beispiel geben, das zeigt, was ich meine. Vor einer Weile hatten wir bei einem Kunden ein Problem mit asynchronem Rendering in einer React-App. Keiner von uns wusste, dass an besagter Stelle etwas Asynchrones passierte; es war uns einfach nicht bewusst. Nachdem dann zwei Entwickler daran schon mehrere Stunden gesucht hatten, haben sie mich gefragt, ob ich einmal mit nach dem Fehler schauen könne. Beide hatten mit dem Debugger gearbeitet, hatten sich die Komponenten-Hierarchie angeschaut, hatten sich die Props angeschaut, hatten alles Mögliche gemacht. Ich habe es durch das Verwenden von console.log, das Beobachten des Verhaltens, Lesen des Codes und Nachdenken geschafft, den Fehler nach und nach immer weiter einzugrenzen. Und nach einer knappen Stunde blieb nur noch eine Möglichkeit als Ursache übrig: Diese und jene Zeile musste anscheinend asynchron verarbeitet werden, es war die einzig mögliche Erklärung, wie es zu dem gezeigten Verhalten kommen konnte.

Dann haben wir in die Dokumentation von React geschaut, und genau so war es dann auch. Natürlich hätte man das auch am Anfang nachschauen können, nur kam niemand auf die Idee, ausgerechnet an dieser Stelle zu suchen. Die Lektion dabei ist: Der Debugger hat das Problem offensichtlich nicht gelöst. Sondern: Das systematische Eingrenzen hat es am Ende gebracht. Eben die Frage:

„Wo könnte das Problem liegen?“

und dann Schritt für Schritt, nach und nach, alle Möglichkeiten bis auf eine ausschließen.

Wenn wir damit jetzt zu der Erkenntnis gekommen sind, dass systematisches Denken wichtiger ist als das Tool, stellt sich natürlich die Frage: Was ist dann an console.log oder fmt.Println eigentlich vermeintlich so falsch? Oder andersherum gefragt: Warum funktioniert das so gut? Dafür gibt es tatsächlich drei ausgezeichnete Gründe.

Erstens: das Observability-Mindset. Im Grunde macht man nämlich Observability im Kleinen. In Production hat man oft auch keinen Debugger – nur Logging, Tracing, Metrics. Wer gewohnt ist, durch gezieltes Logging zu debuggen, denkt automatisch in die Richtung:

„Was muss ich wissen, um das System zu verstehen?“

Man überlegt sich: An welcher Stelle brauche ich welche Informationen? Was ist relevant? Was hilft mir weiter? Das ist eine wertvolle Fähigkeit, gerade für moderne verteilte Systeme, bei denen man nicht mehr mit einem Debugger arbeiten kann, weil die einzelnen Services auf verschiedenen Maschinen laufen.

Zweitens: Reproduzierbarkeit und Dokumentation. Mit Logs hat man eine dauerhafte Spur. Man kann den Code laufen lassen, die Ausgabe analysieren, den Code erneut laufen lassen, die Ausgaben vergleichen. Man sieht:

„Ah, beim ersten Mal war der Wert hier 42, beim zweiten Mal ist er aber 43, da muss irgendwo ein Zähler sein, der nicht zurückgesetzt wird.“

Mit einem Debugger ist das oft sehr viel flüchtiger. Man klickt sich durch, sieht etwas, aber hat es nicht festgehalten. Beim nächsten Durchlauf muss man sich dann wieder durchklicken, und wenn man nicht aufgepasst hat, weiß man gar nicht mehr so genau, was man beim letzten Mal eigentlich gesehen hat.

Drittens: Bewusstes Denken wird erzwungen. Man muss sich überlegen: Was will ich eigentlich wissen? Wo könnte das Problem liegen? Welche Variablen sind relevant? An welcher Stelle im Code muss ich schauen? All das fördert systematisches Denken. Gerade für weniger erfahrene Entwicklerinnen und Entwickler kann ein Debugger dann nämlich schnell ein schlechtes Hilfsmittel werden: Sie setzen dann einen Breakpoint, schauen sich Variablen an, klicken sich durch den Call-Stack, verstehen aber nicht den größeren Zusammenhang. Sie sehen zwar Daten, aber sie verstehen nicht, was sie bedeuten. Durch bewusstes Logging muss man sich diese Fragen aber stellen. Man muss sich überlegen, was relevant ist. Das ist eine wertvolle Übung.

Jetzt kommt eine Beobachtung aus der Praxis, die das Ganze noch unterstreicht: Ich bin, wie eingangs bereits erwähnt, in Kundenprojekten oft derjenige, der gefragt wird, wenn anderen die Ideen ausgehen. Die Leute kommen zu mir und sagen:

„Golo, wir suchen jetzt seit Tagen nach der Ursache für diesen Bug, wir finden ihn einfach nicht, kannst du mal draufschauen?“

Trotz Debugger finden sie den Fehler nicht. Ich finde ihn dann über kurz oder lang – ohne Debugger. Warum? Weil die Methodik entscheidet, nicht das Tool. Genau das können leider viel zu viele Entwicklerinnen und Entwickler nicht allzu gut: systematisch eingrenzen und logisch schlussfolgern. Die verlassen sich darauf, dass der Debugger ihnen die Antwort quasi auf dem Silbertablett präsentieren wird. So funktioniert das jedoch nicht. Der Debugger ist nur ein Werkzeug, das einem Daten zeigt. Die Interpretation dessen, also das Verstehen, das logische Schlussfolgern, das muss man selbst machen.

Ich will es aber auch nicht so darstellen, als wären Debugger per se schlecht oder als ob man sie nie benutzen sollte. Das wäre unseriös, und das wäre auch falsch. Es gibt durchaus Situationen, in denen ein Debugger legitim und sinnvoll ist. Zum Beispiel beim Verstehen von fremdem Code, den man noch gar nicht kennt. Man steigt in ein neues Projekt ein, und da kann ein Debugger natürlich helfen, schnell einen Überblick zu bekommen, im Sinne von:

„Ah, diese Funktion ruft jene auf, die ruft wiederum diese andere auf.“

Oder bei sehr komplexen Objektgraphen, die man visualisieren möchte. Wenn man eine verschachtelte Datenstruktur hat, die man sich in einer schönen Baumansicht anschauen will, ist ein Debugger praktisch. Aber auch hier gilt: Der Debugger ersetzt nicht das Denken. Er ist ein Hilfsmittel, mehr nicht. Es geht mir also, um das noch einmal zu betonen, nicht darum, Debugger an sich zu verteufeln. Sondern es geht mir darum, zu sagen: Bloß weil jemand keinen Debugger verwendet, macht das sie oder ihn nicht zu einem schlechten Developer. Unter Umständen bewirkt es das genaue Gegenteil.

Das heißt: Nicht das Tool macht gute Developer aus, sondern die Methodik macht es. Systematisches Eingrenzen, logisches Denken, die Fähigkeit, eine Kausalkette nachzuvollziehen – das sind die Fähigkeiten, die zählen. Nur weil jemand keinen Debugger benutzt, ist sie oder er nicht schlecht oder falsch aufgehoben in der Entwicklung. Im Gegenteil: Wer ohne Debugger auskommt, hat oft die bessere Methodik, weil sie oder er sich nicht auf ein Tool verlässt, sondern auf das eigene Denken.

Mein Rat daher: Probieren Sie es einmal aus. Versuchen Sie beim nächsten Problem einmal, bewusst ohne Debugger auszukommen. Setzen Sie bewusst console.log oder fmt.Println ein, grenzen Sie systematisch ein und denken Sie nach. Stellen Sie sich die Frage: Was könnte die Ursache sein? Wie kann ich das überprüfen? Was schließe ich damit aus? Das wird vermutlich anstrengend, weil man es vielleicht nicht so geübt ist, so zu arbeiten. Je öfter man das macht, desto überraschter wird man aber sein, wie gut das funktioniert. Und irgendwann wird man merken, dass man auf einmal viel bewusster über seinen Code nachdenkt.


(rme)



Source link

Künstliche Intelligenz

Attacken von APT28 und Co.: Was die Bundesregierung Russland vorwirft


Annalena Baerbock und der Gigolo, Friedrich Merz und das Eisbärenbaby, Stimmzettel und die AfD: Die Bundesregierung wirft Russland Falschinformationen im Bundestagswahlkampf und eine massive Cyberattacke vor. Die „gezielte Informationsmanipulation“ reihe sich in eine Serie von Aktivitäten ein, die das Ziel hätten, das Vertrauen in demokratische Institutionen und Prozesse in Deutschland zu untergraben, teilte das Auswärtige Amt in Berlin am Freitag mit. Der russische Botschafter sei daher ins Ministerium einbestellt worden. Wie bereits berichtet, dauerte die Zuordnung der Angriffe mehrere Monate.

Weiterlesen nach der Anzeige

Nach Überzeugung der Bundesregierung gehen die hybriden Angriffe auf das Konto des russischen Militärgeheimdienstes GRU. So könne ein Cyberangriff gegen die Deutsche Flugsicherung (DFS) im August 2024 klar der russischen Hackergruppe „Fancy Bear“ zugeordnet werden, erklärte ein Sprecher des Auswärtigen Amts: „Unsere nachrichtendienstlichen Erkenntnisse belegen, dass der russische Militärgeheimdienst GRU die Verantwortung für diesen Angriff trägt.“ Die Gruppe wird auch als „APT28“ bezeichnet.

Die DFS hatte nach dem Angriff auf Nachfrage mitgeteilt: „Unsere Bürokommunikation wurde gehackt, wir befinden uns derzeit in den Abwehrmaßnahmen.“ Man versuche, die Auswirkungen auf ein Minimum zu begrenzen. Der Flugverkehr sei nicht betroffen und laufe normal weiter.

Zum anderen könne man nun verbindlich sagen, dass Russland mit der Kampagne „Storm 1516“ versucht habe, „sowohl die letzte Bundestagswahl als auch fortlaufend die inneren Angelegenheiten der Bundesrepublik Deutschland zu beeinflussen und zu destabilisieren“, sagte der Sprecher des Auswärtigen Amts. Er verwies auf belastbare Informationen deutscher Sicherheitsbehörden, dass dahinter Organisationen stünden, die vom GRU unterstützt würden.

Die Kampagne „Storm 1516“ läuft seit 2024. Sie zielt vor allem auf die Beeinflussung von Wahlen in westlichen Ländern ab. In einer Gemeinschaftsaktion hatten der deutsche Auslandsgeheimdienst Bundesnachrichtendienst (BND) und das für Spionageabwehr im Innern zuständige Bundesamt für Verfassungsschutz zwischen Juli 2024 und Juli 2025 zehn Veröffentlichungen in Sozialen Medien wie X oder Telegram untersucht.

Weiterlesen nach der Anzeige

Im Fokus standen vor der Bundestagswahl unter anderem der Grünen-Spitzenkandidat Robert Habeck und der damalige Unions-Kanzlerkandidat Friedrich Merz (CDU). Um sie in Misskredit zu bringen, wurden unter anderem falsche Zeugenaussagen produziert und ins Netz gestellt sowie Websites mit erfundenen Inhalten aufgesetzt.

Zwei Tage vor der vorgezogenen Wahl vom 23. Februar 2025 hatte die Bundesregierung mitgeteilt, die deutschen Sicherheitsbehörden hätten Hinweise, dass Fake-Videos über angebliche Manipulationen bei Stimmzetteln Teil einer russischen Desinformationskampagne seien.

  • In einem Video vom 29. Juli 2024 wird der damaligen Außenministerin Baerbock (Grüne) vorgeworfen, auf einer Afrikareise eine Affäre mit einem afrikanischen Gigolo gehabt zu haben.
  • Dem damaligen Wirtschaftsminister Robert Habeck (Grüne) wird in einem Video vom 5. Dezember 2024 sexueller Missbrauch unterstellt
  • Ein angeblicher Islamist posiert in einem Video vom 22. Januar 2025 und behauptet, er habe einen Menschen enthauptet.
  • Habeck wird in einem Video vom 30. Januar 2025 unter anderem vorgeworfen, gestohlene Kunst zu verkaufen.
  • Dem CDU-Vorsitzenden und damaligen Unions-Kanzlerkandidaten Merz wird am 3. Februar 2025 und damit wenige Wochen vor der Bundestagswahl am 23. Februar unterstellt, er sei psychisch instabil und vor einigen Jahren in die Psychiatrie eingewiesen worden.
  • In einem Video vom 17. Februar 2025 wird behauptet, dass die AfD in Leipzig auf Stimmzetteln zur Briefwahl nicht aufgeführt worden sei.
  • In einem Video vom 20. Februar 2025 wird behauptet, in Hamburg seien Briefwahlunterlagen vernichtet worden, in denen die AfD angekreuzt worden sei.
  • Auf einer vermeintlich offiziellen Webseite wird am 6. Mai 2025 ein angebliches Programm der neuen Bundesregierung angekündigt, mit dem Einwanderung gezielt gefördert werden solle.
  • In einem Video vom 27. Mai 2025 wird Kanzler Merz vorgeworfen, er habe sich bei einer vermeintlichen Lieferung deutscher Taurus-Marschflugkörper persönlich bereichert
  • In einem Video vom 4. Juli 2025 wird der Kanzler beschuldigt, er habe während eines Jagdausfluges in Kanada Eisbärbabys getötet.

BND-Präsident Martin Jäger erklärte, Moskau wolle europäische Demokratien destabilisieren und Gesellschaften spalten und einschüchtern. „Wir müssen unsere Gegner konfrontieren, wo immer dies nötig ist“, fügte er hinzu. BfV-Präsident Sinan Selen sagte, die Kampagne „Storm 1516“ zeige sehr konkret, wie die demokratische Ordnung angegriffen werde. Das „Desinformations-Ökosystem“ umfasse prorussische Influencer mit hoher Reichweite, Verschwörungsideologen und rechtsextremistische Milieus, die über ihre Kanäle russische Falschinformationen verbreiteten.

Hybride Angriffe haben zugenommen. Die Bundesregierung beobachtet nach eigenen Angaben seit geraumer Zeit eine Zunahme hybrider Bedrohungen durch Russland. Unter hybrider Kriegsführung wird eine Kombination aus militärischen, wirtschaftlichen, geheimdienstlichen und propagandistischen Mitteln verstanden, mit der auch die öffentliche Meinung beeinflusst werden kann, auch staatlich gelenkte Cyberattacken zählen dazu.

Das Auswärtige Amt teilte mit, die Bundesregierung werde in enger Abstimmung mit europäischen Partnern eine Reihe von Gegenmaßnahmen ergreifen, um Russland „einen Preis für sein hybrides Agieren aufzuzeigen“. Auf europäischer Ebene unterstütze man zudem neue Sanktionen gegen einzelne Akteure. Dazu zählten etwa Einreisesperren für bestimmte Personen und das Einfrieren von Vermögenswerten.

Es sei gut, dass die Sicherheitsbehörden nun die Spuren nach Russland glasklar aufgedeckt hätten, sagte die Grünen-Vorsitzende Franziska Brantner. Es reiche aber nicht aus, den Botschafter einzubestellen. Die Bundesregierung müsse in Zukunft „viel konsequenter gegen Kampagnen vorgehen, die im Auftrag Russlands Lügen verbreiten, um unsere Gesellschaft zu spalten“. Ein weiterer notwendiger Schritt wäre es, die eingefrorenen russischen Vermögenswerte für die Ukraine nutzbar zu machen, damit diese ihre Verteidigungsfähigkeit stärken könne.


(nie)



Source link

Weiterlesen

Künstliche Intelligenz

Intels Übernahme von SambaNova für 1,6 Milliarden wohl kurz vor Abschluss


Übereinstimmenden Berichten von US-Medien zufolge steht Intel kurz vor der Übernahme des KI-Startups SambaNova. Erste Gerüchte über einen entsprechenden Deal gab es bereits im November 2025. Bereits Mitte 2021 soll das Unternehmen auf Investitionen von über einer Milliarde US-Dollar gekommen sein, bewertet wurde es dann im selben Jahr mit fünf Milliarden US-Dollar – dennoch soll Intel nun für nur 1,6 Milliarden Dollar den Zuschlag erhalten.

Weiterlesen nach der Anzeige

Dies berichtet jedenfalls Bloomberg. Bereits kurz zuvor gab Wired an, dass sich die beiden Firmen auf ein Eckpunktepapier für die Übernahme geeinigt hätten, gab jedoch keinen Kaufbetrag an. Beide Medien berufen sich auf namentlich nicht genannte Quellen, zitieren sich jedoch nicht gegenseitig. Bloomberg zufolge soll die Transaktion im kommenden Monat abgeschlossen werden. Dann findet auch die CES in Las Vegas statt, das größte Branchenevent der US-High-Tech-Industrie.

Dass Intel mutmaßlich recht billig an das Know-how von SambaNova kommt, dürfte an den Verflechtungen der beiden Unternehmen liegen. Intel-CEO Lip-Bu Tan ist auch der Chairman von SambaNova. Zudem hat Intel Capital in das Startup investiert, Intel versucht derzeit, seine Investitionssparte auszugliedern. Zu einem weiteren Investor bei SambaNova gehört Softbank, das seinerseits 2025 mit zwei Milliarden bei Intel eingestiegen war. Ein Teil des Wertes, den SambaNova heute darstellt, könnte also auf Umwegen offenbar schon Intel gehören.

Der Übernahmekandidat war erst 2017 gegründet worden und entwickelt Chips für KI-Anwendungen, vornehmlich für das Inferencing in Rechenzentren. Über Partner wie Hugging Face bietet SambaNova seine Lösungen bereits an. Der Chipentwickler gehört zu einer Reihe von Unternehmen, die Teile der Berechnungen für künstliche Intelligenz mit neuartigen Schaltungen beschleunigen wollen. Dabei soll sich die Architektur, spezialisiert auf Teilbereiche der KI-Entwicklung, stark von GPUs wie denen von AMD und Nvidia unterscheiden, die bisher bei KI-Beschleunigern führend sind.

Lesen Sie auch


(nie)



Source link

Weiterlesen

Künstliche Intelligenz

Ottocast Mini Cube im Test: Wireless-Adapter für Carplay und Android Auto


Winzig und günstig: Der Ottocast Mini Cube macht Carplay und Android Auto drahtlos.

Mit diesem Dongle muss man nie wieder sein iPhone oder Android-Smartphone einstecken. Der winzige Ottocast Mini Cube ergänzt die Verbindung per Carplay oder Android Auto im Fahrzeug um eine drahtlose Option. Gerade ältere PKW bieten oft nur eine kabelgebundene Verbindung für die Schnittstellen Android Auto oder Carplay. Wie sich der kleine Dongle in der Praxis schlägt, zeigen wir im Test.

Hinweis: Der Adapter fügt Android Auto oder Carplay nicht hinzu, sondern ergänzt eine drahtlose Verbindungsmöglichkeit. Das Infotainment-System des Fahrzeugs selbst muss die Standards bereits unterstützen.

Design & Lieferumfang

Der Name ist Programm beim Mini Cube: Der ultrakleine USB-Dongle für drahtloses Carplay und Android Auto ist kaum größer als ein Daumennagel. Das Gehäuse ist etwa so dick wie ein Finger und misst 1,6 × 21,6 × 23,5 mm. Damit bleibt er deutlich kompakter als frühere Box‑Lösungen mit Kabel – ideal fürs Cockpit, weil er unauffällig ist.

Der Dongle besitzt einen USB-A-Stecker. Ein USB-A-auf-USB-C-Adapter liegt praktischerweise bei, sodass er in Fahrzeugen mit beiden Anschlussvarianten eingesetzt werden kann.

Zur Auswahl stehen drei Gehäuseformen: Modell A hat ein quadratisches Gehäuse samt Kerbe in der Mitte sowie abgerundeten Ecken. Als Farben gibt es Silber mit Schwarz oder für Apple-Fans auch Cosmic Orange. Modell B bietet geriffelte Kanten, Modell C hat eine oktogonale Form. Diese Varianten gibt es in Schwarz oder Silber.

Einrichtung & Funktionen

Getestet haben wir den Ottocast Mini Cube mit dem Honor Magic V3 sowie iPhone 12 Pro Max in einem Opel Astra K (2017). Auf der Herstellerseite finden sich Informationen zu kompatiblen Fahrzeugen. Wichtig: Das Auto darf werksseitig kein kabelloses Carplay oder Android Auto bieten – sonst funktioniert der Adapter nicht. Er wäre in dem Fall aber ohnehin überflüssig.

Die Einrichtung ist einfach: Dongle einstecken, die LED unter dem Logo leuchtet dann auf. Anschließend erscheint auf dem Infotainment-System eine Anleitung zum Verbinden des Handys per Bluetooth mit der exakten Bezeichnung des Produkts – sehr praktisch. Eine knappe Anleitung auf Deutsch gibt es auch.

Beim iPhone klappte die Kopplung sofort, nach erfolgter Erstverbindung war Carplay nach knapp über 10 Sekunden schon startklar. Mit Android Auto gab es zunächst Probleme – vermutlich, weil zuvor der Dongle per Carplay verbunden war. Die genaue Ursache kennen wir nicht. Erst beim zweiten Versuch gelang die Verbindung zum Honor Magic V3. Nach längerer Standzeit braucht der Aufbau etwa 45 Sekunden, später dann ebenfalls nur noch rund 10 Sekunden – was sehr flott ist für solch einen Adapter. Die Verbindung wurde im Test stabil aufrechterhalten.

Ottocast Mini Cube 3.0

Preis

Der Ottocast Mini Cube kostet direkt beim Hersteller 50 Euro. Mit dem Code TS20 gibt es einen dauerhaften Rabatt von 20 Prozent – damit kostet der Adapter nur 40 Euro.

Hinweis: Der Hersteller sitzt in China, auch wenn die Ware aus deutschen Lagern versendet wird. Kaufbedingungen können daher von EU-Verbraucherschutzrechten abweichen (Gewährleistung, Widerruf, Käuferschutz). Die 30-Tage-Rückgabe ist möglich, kann aber Versandkosten verursachen. Für Transportversicherung und Garantie kommen zusätzliche Gebühren hinzu.

Fazit

Der Ottocast Mini Cube ist eine praktische Ergänzung fürs Auto – ideal für alle, die Carplay oder Android Auto kabellos nutzen möchten, deren Infotainment-System dies aber ab Werk nicht unterstützt. Der kompakte Dongle zählt zu den kleinsten Modellen im Test und bleibt dadurch unauffällig im Cockpit.

Die Einrichtung ist einfach. Die Verbindung mit dem iPhone klappte auf Anhieb, und Carplay ist nach gut 15 Sekunden startklar. Mit Android Auto brauchte es zur Erstkopplung zwei Versuche, danach funktionierte die Verbindung jedoch dauerhaft zuverlässig und stabil.

Insgesamt überzeugt der Ottocast Mini Cube als unauffällige, günstige und verlässliche Lösung für drahtloses Carplay und Android Auto – eine der besten Optionen in seiner Klasse.



Source link

Weiterlesen

Beliebt