Connect with us

Künstliche Intelligenz

Roborock F25 Ace Pro im Test: Wischsauger, der auf Knopfdruck Schaum versprüht


Der F25 Ace Pro ist der neueste Wischsauger aus dem Hause Roborock. Er saugt mit 25.000 Pa und wischt mit Schaum.

Die neueste Iteration der Wischsauger aus dem Hause Roborock, der F25 Ace Pro, versprüht auf Knopfdruck gezielt Schaum für eine bessere Fleckenreinigung. Alles andere bleibt größtenteils beim Alten: Selbstreinigung und Trocknung per Ladestation, Einrichtung per App. Lohnt sich das Upgrade für den Schaum oder bleibt man besser beim Vorgängermodell? Wir haben den Roborock F25 Ace Pro getestet und klären auf. Das Testgerät hat uns der Hersteller zur Verfügung gestellt.

Lieferumfang

Zum Roborock F25 Ace Pro gibt es die Ladestation samt Stromkabel, die Wischwalze, ein Reinigungskonzentrat, einen Ersatz-HEPA-Filter und eine Handbürste für die Wartung. Selbstverständlich liegen auch ein Quick-Start-Guide sowie eine ausführlichere Betriebsanleitung bei. Alle Einzelteile sind dank Styroporeinlagen sicher verstaut. Der Quick-Start-Guide zeigt zudem visuell die Anordnung der einzelnen Komponenten innerhalb der Box, was für ein späteres Verstauen extrem hilfreich ist.

Design

Hier ändert sich nicht wirklich etwas. Wie bisher setzt Roborock mit dem F25 Ace Pro auf schlichtes Schwarz und viel Plastik. Der Wischsauger kommt mit den Maßen 265 x 1100 x 250 mm und wirkt äußerst robust. Alle Einzelteile klicken problemlos ineinander und sitzen fest. Das Auffangsieb aus Kunststoff wirkt allerdings etwas fragil. Das liegt hauptsächlich an den Verbindungsstücken, die sich durch Drücken an beiden Seiten vom Rest des Schmutzwasserfiltersystems lösen.

Die Ladestation ist kompakt und ebenfalls in unspektakulärem Schwarz gehalten. Das Stromkabel ist hingegen grau und bricht mit der sonst sehr einheitlichen Optik. Auch hier wirkt alles top verarbeitet.

Einrichtung

Die Einrichtung des Wischsaugers ist gewohnt einfach und schnell erledigt. Für die erste Inbetriebnahme muss man sämtliche Schutzfolien vom Gehäuse entfernen, die Wischwalze anbringen und den Griff in die dafür vorgesehene Öffnung stecken, bis er einrastet. Anschließend stellt man den F25 Ace Pro an die angeschlossene Ladestation, um den Akku aufzuladen. Zeitgleich kann die Koppelung mit der Roborock-App starten. Hinter dem Schmutzwassertank ist ein QR-Code versteckt, den man mit der Roborock-App einscannt, anschließend verbindet das Gerät mit dem heimischen WLAN. Etwaige anstehende Firmware-Updates können jetzt gestartet werden.

Für den ersten Einsatz steht zum Schluss noch das Auffüllen des Frischwassertanks und des Reinigungsmittelfachs an. Alles in allem ist die Einrichtung auch beim F25 Ace Pro super schnell und einfach erledigt.

Steuerung

Die Steuerung per App funktioniert erneut super. Man wechselt schnell zwischen den einzelnen Modi hin und her, justiert die Saugstärke und Wassermenge oder passt die Stärke der motorisierten Räder an. Auch die anschließende Selbstreinigung und Trocknung startet man bequem per App. Selbstverständlich steuert sich der Wischsauger auch über die Knöpfe am Gerät selbst.

Das LCD gibt Aufschluss über den gerade aktiven Modus sowie den derzeitigen Akkustand, wobei die Prozentanzeige der App aufschlussreicher ist als die Batterieanzeige auf dem Display.

Fester Bestandteil des Roborock F25 Ace Pro ist die Ansagerstimme, die jeden Moduswechsel und generell jede Zustandsänderung des Wischsaugers vertont. Uns stört das während des Tests nicht, auch wenn sie relativ laut ist. Das relativiert sich jedoch, sobald der Wischsauger in Betrieb ist. Die vertonten Informationen beschränken sich wirklich nur auf das Nötigste. Etwa der Wechsel in einen anderen Modus, die Information, dass der Ladevorgang beginnt oder die Aufforderung, dass man die Selbstreinigung starten soll. Man kann sie aber, wenn gewünscht, jederzeit leiser stellen oder auch ganz verstummen lassen. Es stehen neben Englisch und Deutsch auch viele andere Sprachausgaben, wie etwa Japanisch, Spanisch und Polnisch zur Auswahl. Beim

Über den Trigger am Griffinneren aktiviert sich die Düse am Bürstenkopf und verwandelt einen Teil des Reinigungskonzentrats in Schaum, der vor dem Wischsauger verteilt wird. Die motorisierten Räder fahren mit einer angenehmen Beschleunigung, die in Kombination mit der 70-Grad-Schwenkung des Wischsaugers für eine super präzise und komfortable Steuerung sorgt.

Auch den Roborock F25 Ace Pro kann man für die Reinigung senkrecht auf den Boden legen. Die App dient dann als Fernbedienung, mit der man den Wischsauger auch unter Möbel fahren kann, ohne sich dabei verrenken zu müssen. Eine Kamera, um unter den Möbeln sehen zu können, wo der Sauger gerade lang fährt, fehlt leider. Generell bietet sich die Fernsteuerung per App nur für punktuelle Bewegungen an, da sie sehr verzögert und grob auf die Eingaben reagiert.

Reinigung

Bei der täglichen Reinigung macht der F25 Ace Pro eine durchaus gute Figur. Mit 25.000 Pa saugt er gröbere Schmutzpartikel problemlos auf, während die Wischfunktion im Automatikmodus ideal das Parkett befeuchtet. Wir beseitigen mit ihm problemlos eingetrocknete Kakaoflecken, aber auch Flüssigkeiten wie verschüttete Hafermilch sind keine Herausforderung.

Mit der Schaumfunktion bearbeiten wir hartnäckigere Flecken und zum Großteil bemerken wir, dass sich die Verschmutzung im Anschluss tatsächlich leichter löst. Ein Allheilmittel ist das allerdings nicht, denn auch der F25 Ace Pro kommt an seine Grenzen. Eine besonders hartnäckige und festgetretene Verschmutzung auf dem Parkettboden bekommt er auch mit Schaum und mehrmaligem Darüberfahren nicht ohne weiteres gelöst. Hier müssen wir von Hand reinigen.

Auf Fliesen kann er verhältnismäßig gut sauber machen, auch wenn er in erster Linie für Parkettböden gedacht ist. Er muss sich aber deutlich schneller mit Flecken geschlagen geben als auf dem Holzboden. Hier hilft ebenso der zusätzliche Schaum beim Lösen der Verschmutzungen. Mit dem Schaum die gewünschte Stelle zu treffen, erfordert ein, zwei Versuche, bis man den Sprühradius raus hat. Die Düse beginnt nämlich unmittelbar vor dem Bürstenkopf zu sprühen und verteilt den Schaum dann in etwa bis zu 15 cm nach vorne.

Die Selbstreinigung mit der Ladestation erfolgt mit 95 °C heißem Wasser und reinigt die Wischwalze während unseres Tests rundum zufriedenstellend innerhalb von fünf Minuten. Auch die anschließende Lufttrocknung findet bei 95 °C statt, wahlweise in fünfminütiger Schnelltrocknung oder in der deutlich entspannteren dreißigminütigen Trocknung. Wir entscheiden uns für letztere und begrüßen das leise, angenehme Surren während des Vorgangs.

Was die Lautstärke angeht, ist der Roborock F25 Ace Pro im Betrieb vollkommen in Ordnung. Im Automatik-Modus und Max-Modus arbeitet er mit 50 bis 60 dB(A), die wir per Smartphone-App direkt am Gerät messen. 60 dB(A) waren aber tatsächlich auch die Obergrenze, die wir hier feststellen konnten. Die Werte dienen selbstverständlich nur als Richtwert und sind nicht mit Messwerten von professionellem Equipment zu vergleichen.

Die Lautstärke der Selbstreinigung fährt ebenfalls bis auf 60 dB(A) hoch, bewegt sich aber überwiegend bei etwa 55 dB(A). Das leise Surren der dreißigminütigen Selbsttrocknung pegelt sich bei etwa 35 dB(A) unmittelbar an der Station ein, ist aber bei laufendem Fernseher oder Musik nicht mehr wirklich zu hören.

Die anschließende Reinigung des Schmutzwassertanks findet nach wie vor von Hand statt. Hier gibt es nichts zu beanstanden, denn das Auffangsieb löst sich mit nur einem Handgriff vom Tank und hinterlässt größtenteils nur Plörre. Der feste Schmutz bleibt am Sieb hängen und kann einfach in den Mülleimer verfrachtet werden. Anschließend noch den HEPA-Filter, das Sieb und den Tank durchspülen, abtrocknen und wieder einsetzen, und der F25 Ace Pro ist erneut einsatzbereit.

Akkulaufzeit

Roborock verspricht bis zu 60 Minuten Betrieb im Eco-Modus, 40 Minuten im Auto-Modus und 30 Minuten im Max-Modus mit dem F25 Ace Pro. Die Werte decken sich mit unseren Beobachtungen, denn nach etwa 15 Minuten im Auto-Modus mit mehrmaligem Wechsel in den Max-Modus verbleiben noch gut 60 Prozent Akkuladung. Das sollte ausreichen, um die meisten Wohnungen problemlos durchzuwischsaugen.

Preis

Die UVP des Roborock F25 Ace Pro liegt bei 649 Euro. Aktuell gibt es den Wischsauger für 549 Euro auf der Roborock-Website. Alternativ ist er zum gleichen Preis auch bei Amazon verfügbar.

Fazit

Für 549 Euro reinigt der Roborock F25 Ace Pro zuverlässig die meisten Verschmutzungen – sowohl durch Wischen als auch Saugen. Unterstützt wird er hierbei durch die neu hinzugekommene Schaumdüse, die in unserem Test einen guten Job macht und tatsächlich eine nützliche Ergänzung für die regelmäßige Putzaktion ist.

Mit 25.000 Pa hat er zwar auf dem Papier eine höhere Saugleistung als noch der F25 Ace, saugt für uns aber nicht merklich besser oder schlechter. Auch die restlichen Funktionen gleichen sich mehr oder weniger mit denen älterer Modelle. Für Besitzer eines aktuelleren Roborock-Saugwischers lohnt sich also ein Upgrade auf den F25 Ace Pro nicht wirklich, da hier die Schaumdüse die einzige tatsächliche Neuerung darstellt.

Wer noch keinen Wischsauger hat, bekommt mit dem Roborock F25 Ace Pro aber ein kompetentes Modell, das im Hinblick auf Reinigung, Verarbeitung und Handhabung überzeugt.



Source link

Künstliche Intelligenz

Model-Schau 2: Neue Architekturansätze bei den Sprachmodellen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Das neue Jahr ist noch jung, aber die Sprachmodell-Community hat sich keine Pause gegönnt. So geht es munter mit neuen Modellen, aber auch mit neuen Architekturansätzen ins Jahr 2026, auch wenn einige der vorgestellten Neuerungen noch aus den letzten Wochen von 2025 stammen.

Weiterlesen nach der Anzeige




Prof. Dr. Christian Winkler beschäftigt sich speziell mit der automatisierten Analyse natürlichsprachiger Texte (NLP). Als Professor an der TH Nürnberg konzentriert er sich bei seiner Forschung auf die Optimierung der User Experience.

Bisher kämpfen fast alle Sprachmodelle mit Amnesie. Sobald sie lange Texte verarbeiten sollen, vergessen sie entscheidende Details. Diese Tendenz verstärkt sich mit längerem Kontext. Besonders die Teile in der Mitte gehen dann verloren (lost in the middle). Es gibt zahlreiche Ansätze, Modelle in dieser Hinsicht zu verbessern. Einige Modelle setzen beispielsweise alternierend sogenannte Mamba-Layer (oder State Space Models) ein, die besonders bei langen Sequenzen besser skalieren und weniger Speicherplatz benötigen, dafür aber nicht so präzise arbeiten wie Transformer. Andere Modelle setzen auf rekurrente neuronale Netze (RNNs), die man nach der Erfindung der Transformer eigentlich schon fast abgeschrieben hatte.


Chatbot umringt von Laptops

Chatbot umringt von Laptops

(Bild: Golden Sikorka/Shutterstock)

Die Online-Konferenz LLMs im Unternehmen zeigt am 19. März, wie KI-Agenten Arbeitsprozesse übernehmen können, wie LLMs beim Extrahieren der Daten helfen und wie man Modelle effizient im eigenen Rechenzentrum betreibt.

Google hat nun zwei neue Forschungsartikel dazu veröffentlicht. Der erste nennt sich „Titans“ und führt eine Architektur ein, die nach ihren eigenen Worten „die Geschwindigkeit von RNNs mit der Genauigkeit von Transformern zusammenbringt“. Google erreicht das durch den Einsatz von Transformern und dem Attention-Mechanismus für das Kurzzeitgedächtnis, für das Langzeitgedächtnis verwendet der Ansatz tiefe neuronale Netze (und nicht etwa RNNs). Eine sogenannte Überraschungs-Metrik soll sich besonders auf die Textteile konzentrieren, die nicht erwartete Wörter enthalten. Mit einem adaptiven Verfallmechanismus vergisst das Modell dann die Informationen, die es nicht mehr benötigt.

Google stellt mit „MIRAS“ auch gleich einen Blueprint zur Implementierung vor. Das dahinterliegende KI-Modell fokussiert sich auf eine Memory-Architektur, den Attention-Bias (mit dem es wichtige von unwichtigen Informationen unterscheidet) und die Mechanismen zum Vergessen beziehungsweise zum Aktualisieren des Gedächtnisses. Statt des mittleren quadratischen Fehlers oder des Skalarprodukts optimiert Google nichteuklidische Metriken und nennt dafür drei Beispielmodelle, die auf dem Huber-Loss, generalisierten Normen oder einer Wahrscheinlichkeitsabbildung basieren.

Das klingt äußerst mathematisch, aber Google kann damit in ersten Demos bessere Ergebnisse als mit einer reinen Mamba-Architektur erzielen. Den am Schluss erklärten Extrem Long-Context Recall vergleicht der Artikel allerdings nur mit Modellen wie GPT-4 oder Qwen2.5-72B, die schon mindestens ein Jahr alt sind. Diese Ergebnisse sollte man also mit Vorsicht genießen. Spannend wird es, wenn Google damit richtig große Modelle trainiert und zur Verfügung stellt.

Weiterlesen nach der Anzeige

Eine ganz andere Architektur setzen die Liquid Foundation Models ein. Lange waren die Liquid Models schon mit Demos präsent, in denen sie mit kleinen Modellen erstaunliche Fähigkeiten entwickeln konnten. Der Durchbruch kam dann mit LFM2. Teile der Modelle setzen die Transformer-Architektur mit Attention ein, andere nutzen Multiplikations-Gates und Konvolutionen mit kurzen Sequenzen. Allerdings war bisher die Performance der darauf aufbauenden Modelle noch nicht gut genug.

Geändert hat sich das mit LFM2.5, einer ganzen Serie von kleinen Modellen mit nur gut einer Milliarde Parametern. Vorerst sind die Modelle für Edge-Devices gedacht, sie lassen sich aber auch mit hoher Geschwindigkeit auf üblicher Hardware ausführen. Die in Abbildung 1 dargestellten Ergebnisse sind mit Vorsicht zu genießen, da sie vom Anbieter stammen. Unabhängig davon machen die Modelle für ihre Größe einen hervorragenden Eindruck. Für viele Anwendungen wie Retrieval-Augmented Generation (RAG) könnten diese gut zum Einsatz kommen, weil das Wissen dafür nicht in den Modellen selbst stecken muss, die hier nur zum Feinabgleich und für Formulierungen eingesetzt werden. Mit einer kleinen GPU lassen sich die Modelle extrem schnell ausführen. Auf einer performanten CPU arbeiten sie immer noch schnell.


Bild zum Erdbeertest

Bild zum Erdbeertest

Beim Erdbeertest kann LFM 2.5 ebenso wenig überzeugen (Abb. 1) …


Bild zur LLM-Ausgabe

Bild zur LLM-Ausgabe

wie mit der Erklärung von heise (Abb. 2).

Neben den Modellen zur Textgenerierung gibt es auch ein hybrides Modell, das gesprochenen Text sowohl verstehen, als auch erzeugen kann. Gerade für mobile Endgeräte kann die Funktion sinnvoll sein, damit man auch ohne Internet- und Cloud-Zugriff Sprache in Text und umgekehrt umwandeln kann.


Performancevergleich

Performancevergleich

Performance von LFM2.5-1.2B-Instruct im Vergleich zu ähnlich großen Modellen (Abb.3)

(Bild: Hugging Face)

Bei IQuest-Coder handelt es sich um ein neues Modell mit 40 Milliarden Parametern, das insbesondere in der Loop-Variante interessante Ideen mit einbringt. Der Transformer arbeitet rekurrent, verarbeitet also die Tokens mehrfach – zunächst doppelt in zwei Iterationen. IQuestLab verspricht damit deutlich höhere Performance. Seine Entwickler behaupten, in den einschlägigen Benchmarks wesentlich bessere Ergebnisse erzielen zu können als vergleichbar große Modelle. Trotz anfänglicher Euphorie scheint das Modell aber nicht besonders populär zu sein.

Einen anderen Weg geht NousResearch. Es nutzt Qwen-14B als Basismodell, um mit modernen Methoden daraus ein Coding-Modell zu erzeugen. Auch wenn es nicht mit den deutlich größeren Modellen konkurrieren kann, erzielt es für seine Größe gute Ergebnisse und zeigt einen möglichen weiteren Weg für Coding-Modelle auf.

Die seit Kurzem an der Börse in Hong Kong notierte Firma Z.ai hat mit GLM-4.7 ein lang erwartetes Modell veröffentlicht, das sich in vielen Benchmarks an die Spitze der Modelle mit offenen Gewichten gesetzt hat. Mit 355 Milliarden Parametern verfügt es zwar über eine stattliche Größe, ist aber immer noch viel kleiner als die Modelle von DeepSeek oder Kimi. Laut Benchmarks ist GLM 4.7 besonders gut bei Coding-Aufgaben und bei komplexen Denkaufgaben.

Im Vergleich zum Vorgänger GLM 4.6 ist es praktisch in allen Dimensionen besser, außerdem hat Z.ai die Kontextlänge auf 200.000 Token erhöht. Das führt zu einem sehr großen Modell mit 335 Milliarden Parametern. Das Modell verfügt dazu über 160 Experten, von denen immer acht (und ein geteilter) aktiv sind. Zusammen mit den ersten dichten Layern ergeben sich damit 32 Milliarden Parameter, die bei jedem Aufruf aktiv sind. Um den RAM-Bedarf der (quantisierten) Modelle etwas zu verkleinern, haben einige User versucht, die Experten zu eliminieren, die häufig schlechte Antworten erzeugen. Das Verfahren dazu nennt sich REAP (Reflection, Explicit Problem Deconstruction, and Advanced Prompting) und produziert schlankere Modelle, deren Ausgabe sich kaum von der des vollen Modells unterscheiden lässt.


Erdbeertest

Erdbeertest

Den Erdbertest besteht GLM-4.7 (Abb. 4).


Heise-Test

Heise-Test

Die heise-Erklärung ist im Vergleich zu vielen anderen Modellen auffällig stimmig, auch wenn sie ausgerechnet bei Heise Developer etwas dazu erfindet. (Abb. 5)


Ausgabe zu Taiwan

Ausgabe zu Taiwan

Bei Taiwan gibt sich GLM-4.7 recht offen (Abb. 6).


Ausgabe zu Tiananmen

Ausgabe zu Tiananmen

Auch zu Tiananmen hält sich das Modell kaum zurück (Abb. 7).


Ausgabe zu Tiananmen und der Rolle der chinesischen Führung

Ausgabe zu Tiananmen und der Rolle der chinesischen Führung

Und erklärt sogar die Unterdrückung durch die chinesische Parteiführung (Abb. 8).

Bei MiniMax 2.1 handelt es sich um ein weiteres Modell aus China, das sich ebenso wie GLM 4.7 auf Coding, Nutzung von Werkzeugen und agentische Workflows fokussiert. Der Anbieter veröffentlicht wesentlich weniger Informationen als Z.ai, aber in den entsprechenden Dateien lässt sich einiges finden. Wenig überraschend handelt es sich auch bei MiniMax 2.1 um ein MoE-Modell, allerdings mit 256 Experten, von denen immer acht befragt werden. Von den insgesamt 230 Milliarden Parametern sind dann jeweils immer 10 Milliarden aktiv. Auch MiniMax kann wie GLM 4.7 mit knapp 200.000K Token umgehen.

Die Community ist sich nicht einig, ob GLM 4.7 oder MiniMax 2.1 sich besser für Programmieraufgaben eignet. Zweifellos sind beides sehr starke Modelle, die dank (relativ) weniger aktiver Parameter auch noch verhältnismäßig schnell ausgeführt werden können.


Erdbeertest

Erdbeertest

Auch Minimax-M2.1 zählt beim Erdbeertest richtig (Abb. 9).


Heise-Test

Heise-Test

Bei der heise-Erklärung gibt es eine Mischung aus korrekten und erfundenen Informationen (Abb. 10).


Taiwan-Test

Taiwan-Test

Bei der Taiwan-Frage gibt es eine differenzierte, aber recht knappe Antwort (Abb. 11).


Tiananmen-Test

Tiananmen-Test

Die Tiananmen-Ereignisse verharmlost das Modell (Abb. 12).


Tiananmen-Test und Unterdrückung durch das Regime

Tiananmen-Test und Unterdrückung durch das Regime

Und es äußerst sich zur Zensur, auch wenn es hier den Bezug zu dem zuvor als Referenz genannten Tiananmen auslässt (Abb. 13).

Aus Südkorea hat man bisher wenige Modelle gesehen. Das hat sich nun geändert, mit K-EXAONE stellt LG ein entsprechendes Modell zur Verfügung. Wie nicht anders zu erwarten, ist es vor allem auf englische und koreanische Texte trainiert, spricht aber auch Spanisch, Deutsch, Japanisch und Vietnamesisch. Mit 236 Milliarden Parametern ist es sehr groß, auch wenn nur jeweils immer 23 Milliarden Parameter aktiv sind. Es nutzt Sliding Window Attention und kann damit lange Kontexte von bis zu 256K Token verarbeiten. In den Benchmarks performt das Modell ähnlich gut wie das (deutlich kleinere) gpt-oss-120b oder das (ebenso große) Qwen-235B-A22B-Thinking.

Es hat sich in den letzten Wochen einiges getan – in ganz unterschiedlichen Richtungen. Ob sich Googles Ideen umsetzen lassen und durchsetzen können, wird sich erst in einer ganzen Weile zeigen. Unstrittig dürfte hingegen sein, dass die Liquid Foundation Models für ihre Größe wirklich Beachtliches leisten. Das trifft auch für die (scheinbar wenig zensierten) großen chinesischen Modelle zu, die sich sehr gut für agentische Aufgaben eignen. Schließlich taucht auch erstmals ein großes koreanisches Modell auf, das konkurrenzfähig ist. Das lässt auf eine weitere Diversifizierung in der Zukunft hoffen.


(rme)



Source link

Weiterlesen

Künstliche Intelligenz

programmier.bar: Headless Apps mit Marcel Koch


In dieser Podcastfolge der programmier.bar blicken Joachim Böhmer und Dennis Becker gemeinsam mit Marcel Koch, Softwareberater, Coach und Rust-Autor, über den Tellerrand klassischer Cross-Platform-Frameworks. Im Mittelpunkt steht das Konzept sogenannter Headless Apps und die Frage, wie sich Anwendungslogik unabhängig von konkreten UI-Technologien umsetzen lässt.

Weiterlesen nach der Anzeige

Die drei diskutieren, wie sich die Business-Logik einer Anwendung vollständig in Rust kapseln lässt, um sie plattformübergreifend einzusetzen – unabhängig davon, ob die Benutzeroberfläche mit Flutter, SwiftUI oder Jetpack Compose umgesetzt wird. Auch der Einsatz im Web über WebAssembly (Wasm) sowie auf Mikrocontrollern ist Teil der Betrachtung. Es geht um die Trennung von Core-Logik und UI für die Reduktion technologischer Abhängigkeiten.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Inhalt geladen.

In dieser Folge gibt es außerdem einen Architektur-Deep-Dive zu Headless Apps sowie zur Rolle von Rust in diesem Kontext, insbesondere mit Blick auf Performance, Memory Safety und Portabilität. Zudem stellt Marcel Koch das Crux-Framework von Red Badger vor, das den Datenaustausch zwischen dem Rust-Core und den jeweiligen UI-Shells automatisiert. Abschließend diskutieren die drei, in welchen Fällen sich der Mehraufwand einer Headless-Architektur lohnt und wann klassische Lösungen wie Flutter oder Kotlin Multiplatform die sinnvollere Wahl sind.

Die aktuelle Ausgabe des Podcasts steht auch im Blog der programmier.bar bereit: „Headless Apps mit Marcel Koch“. Fragen und Anregungen gerne per Mail oder via Mastodon, Bluesky, LinkedIn oder Instagram.

Weiterlesen nach der Anzeige


(mdo)





Source link

Weiterlesen

Künstliche Intelligenz

Ukraine will den Verbündeten Drohnenvideos für KI-Training zur Verfügung stellen


Die Ukraine will es verbündeten Staaten ermöglichen, KI-Modelle mit den immensen Mengen an Daten zu trainieren, die unter anderem von ukrainischen Drohnen im Zuge des Verteidigungskriegs gesammelt werden. Das berichtet die Nachrichtenagentur Reuters unter Berufung auf Äußerungen des neuen ukrainischen Verteidigungsministers Mychajlo Fedorow. Der ist seit vergangener Woche im Amt und war vorher Digitalminister. Die Ukraine hat demnach Millionen Stunden an Videomaterial, das unter anderem die Front aus der Perspektive von Drohnen zeigt und deshalb vor dem Hintergrund des zunehmenden KI-Einsatzes bei der Kriegsführung als extrem wertvolle Ressource gilt.

Weiterlesen nach der Anzeige

„Wenn du KI trainieren willst, dann gib ihr zwei Millionen Stunden Videomaterial und sie wird übernatürlich werden“, hat Reuters erst vor wenigen Wochen den Gründer einer ukrainischen Organisation zitiert, die die täglich zusammenkommenden fünf bis sechs Terabyte an Daten von Drohnen sammelt und analysiert. Dieses wertvolle KI-Training soll den Verbündeten nun ermöglicht werden, erklärte Fedorow. Bei der Umsetzung möchte sein Land laut der Financial Times mit dem umstrittenen US-Unternehmen Palantir zusammenarbeiten. Das soll bei der Einrichtung eines Datenzentrums helfen, in dem die KI-Modelle trainiert werden sollen. Die sollen dabei etwas über Kampftaktiken und die Zielerkennung lernen.

Gegenüber Reuters hat Fedorow zudem angekündigt, dass noch in diesem Monat eine Alternative zu den weitverbreiteten Drohnen des chinesischen Herstellers DJI getestet werden soll. Die werden demnach sowohl von ukrainischen als auch russischen Truppen eingesetzt, um die Front aus der Luft zu erkunden. Wer solche Geräte jetzt in der Ukraine herstellen soll, sagte der Minister nicht. Seine Regierung hat demnach schon vorher darauf verwiesen, dass die hohe Abhängigkeit von DJI ein Problem darstellt, weil China immer enger mit Russland kooperiert. Die Drohne aus eigener Produktion soll laut Fedorow eine genauso gute Kamera, aber eine längere Flugreichweite haben.

Seit Russland Anfang 2022 versucht hat, die ganze Ukraine zu erobern und dabei zurückgeschlagen wurde, spielen Drohnen im Verteidigungskampf eine immer zentralere Rolle. Die Ukraine hat vor allem zu Beginn erhebliche Erfolge mit der neuen Waffentechnik erzielt, danach hat Russland den Einsatz ebenfalls forciert. Entlang der Fronten wurden Drohnen anfangs effektiv eingesetzt, um dem russischen Militär schwere Verluste zuzufügen. Später führte die Ukraine auch im Schwarzen Meer erfolgreiche Angriffe auf die russische Schwarzmeerflotte durch. Russland wiederum setzt unter anderem auf Kamikaze-Drohnen aus iranischer Fertigung. Die Ankündigung zum KI-Training verweist nun darauf, dass die Automatisierung der Geräte zuletzt enorm vorangeschritten ist.


(mho)



Source link

Weiterlesen

Beliebt