Künstliche Intelligenz
Rover Perseverance bekommt eigenes Navigationssystem
Fünf Jahre nach der Landung hat die US-Raumfahrtbehörde National Aeronautics and Space Administration (NASA) ein Navigationssystem auf dem Rover Perseverance installiert. Damit kann dieser selbstständig seine Position auf dem Mars bestimmen. Vorher bekam der Marsroboter diese Angaben von der Erde.
Weiterlesen nach der Anzeige
Mars Global Localization nennt die NASA das System, das den Standort auf optischer Basis ermittelt. Das System sei erstmals am 2. Februar eingesetzt worden, teilte die NASA mit, danach noch einmal am 16. Februar.
Die Basis sind die Panoramen, die die Navigationskamera von der Umgebung des Rovers aufnimmt. Der Algorithmus vergleicht diese Bilder mit einer Geländekarte. Diese ist aus den Bildern der Sonde Mars Reconnaissance Orbiter (MRO), die um den Mars kreist, erstellt worden und auf Perservances Bordcomputer gespeichert.
Positionsbestimmung bis auf 25 Zentimeter
So kann die Position des Rovers auf etwa 25 Zentimeter genau bestimmt werden. Das dauert etwa zwei Minuten. Der Algorithmus läuft auf dem leistungsstarken Prozessor, den der Rover früher nutzte, um mit dem Mars-Hubschrauber Ingenuity zu kommunizieren.
Bisher nutzt Perseverance – wie auch seine Vorgänger – visuelle Odometrie (VO) zur Positionsbestimmung. Dabei wird alle paar Meter ein Bild der Umgebung aufgenommen. Anhand geologischer Merkmale auf den Bildern wird errechnet, welche Entfernung der Rover zurückgelegt hat.
Doch auch wenn dabei Faktoren wie durchdrehende Räder berücksichtigt werden, wird die Positionsbestimmung laut NASA auf größeren Etappen immer ungenauer. Bei langen Fahrten könne die Abweichung bis zu 35 Meter betragen. In schwierigem Gelände kann der Rover dadurch in Gefahr geraten.
Weiterlesen nach der Anzeige
Hilfe bei autonomer Fahrt
Das Mars-Global-Localization-System sei vor allem hilfreich, wenn der Rover autonom und ohne Anleitung von der Erde agiere. „Jetzt kann er selbst seinen Standort auf dem Mars bestimmen“, sagte Vandi Verma, der für die autonomen Operationen des Rovers zuständig ist. „Das bedeutet, der Rover kann viel längere Strecken autonom zurücklegen, sodass wir mehr von dem Planeten erkunden und mehr wissenschaftliche Erkenntnisse gewinnen können. Es könnte von beinahe jedem anderen Rover genutzt werden, um schnell und weit zu fahren.“
Perseverance, der weitgehend baugleich mit dem Rover Curiosity ist, ist seit fünf Jahren, seit dem 18. Februar 2021, auf dem Mars unterwegs. Seither hat er rund 40 Kilometer zurückgelegt und wird in absehbarer Zeit den Rekord des Rovers Opportunity einstellen, der in seiner knapp 15 Jahre dauernden Mission etwa 45 Kilometer schaffte.
Zu der Mission gehörte der autonome Hubschrauber, der zwischen April 2021 und Januar 2024 insgesamt 72 Mal geflogen ist – ursprünglich geplant waren lediglich fünf Flüge.
(wpl)
Künstliche Intelligenz
Lokale KIs mit OpenClaw nutzen: Agenten und Bildgenerierung auf eigener Hardware
In Kombination mit modernen Cloud-KIs von Anthropic, Google, OpenAI und Co. ist OpenClaw ein vielseitiges Werkzeug mit mächtigen Agenten-Funktionen. So können Nutzer ihrer KI verschiedene Jobs anvertrauen und sie etwa E-Mails senden, Buchungen vornehmen oder Skripte schreiben und ausführen lassen. Doch was ist mit lokalen KIs: Lassen sie sich sinnvoll in das OpenClaw-Framework integrieren?
Wir haben genau das ausprobiert und OpenClaw mit den lokalen Anwendungen Ollama (für agentische Sprachmodelle) und ComfyUI (zur Bildgenerierung) verbunden. Im Bereich typischer Endanwender-LLMs kommen einige infrage, die grundlegende agentische Funktionen wie Lesen und Schreiben von Dateien sowie Ausführen von Skripten über OpenClaw beherrschen und keine Monstergrafikkarten benötigen. Eines der Modelle passt in den Grafikspeicher von 16-GByte-Grafikkarten, etwa einer GeForce RTX 5060 Ti.
- OpenClaw kann nicht nur mit großen Cloud-KIs arbeiten, auch lokale LLMs lassen sich in das Agenten-Framework einbinden, wo sie Funktionen übernehmen können, die über reine Chats hinausgehen.
- Für den Artikel testen wir OpenClaw im Zusammenspiel mit Ollama. Das gewählte LLM passt in den Videospeicher einer 16-GByte-Grafikkarte. Es kann uns etwa Skripte schreiben und wiederkehrende Aufgaben in Form von Cronjobs abarbeiten, die wir zuvor mit einer Cloud-KI erstellt haben. So nimmt die lokale KI der großen aus der Cloud Arbeit ab und senkt den Verbrauch kostenpflichtiger Token.
- Auch die lokale Bildgenerierung über ComfyUI haben wir an OpenClaw angeschlossen. So kann man etwa im mobilen Messenger einen Prompt eingeben, den die KI nutzt, um ein Bild in ComfyUI zu erstellen und anschließend via Messenger an den Nutzer zu senden.
Der Artikel erläutert, wie man Ollama-LLMs für agentische Funktionen über OpenClaw unter der Linux-Distribution Ubuntu einsetzen kann. Ein Praxisbeispiel erklärt, wie die lokale KI etwa in Cronjobs kleinere wiederkehrende Aufgaben erledigt. So nimmt sie den teuren Cloud-Modellen Arbeit ab und senkt den kostenpflichtigen Token-Verbrauch. Zudem verknüpfen wir ComfyUI zur lokalen Bildgenerierung mit OpenClaw. Auf einen Befehl, etwa über einen mobilen Messenger, gibt dann eine nichtlokale KI Befehle an die . So können Nutzer etwa komplexere Bildgenerierungs-Workflows in OpenClaw nutzen, die einfache Bildgeneratoren nicht bieten. Der Artikel setzt voraus, dass eine grundlegende Einrichtung von OpenClaw bereits stattgefunden hat. Eine kurze Einführung zur Installation und Konfiguration von OpenClaw finden Sie hier.
Das war die Leseprobe unseres heise-Plus-Artikels „Lokale KIs mit OpenClaw nutzen: Agenten und Bildgenerierung auf eigener Hardware“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Türkei: Restriktionen für Instagram, YouTube und Co. geplant
Die Türkei leitet Untersuchungen der Online-Dienste TikTok, Instagram, YouTube, Facebook, X und Discord ein. Das gab die türkische Datenschutzbehörde am Freitag bekannt. Geprüft werden soll dabei, wie die Plattformen Kinder und Jugendliche vor Risiken im Netz schützen und wie sie mit ihren Daten umgehen.
Weiterlesen nach der Anzeige
Die Untersuchungen erfolgen vor dem Hintergrund weitreichender Regulierungen des Online-Zugangs für Minderjährige in der Türkei. Künftig sollen Social-Media-Konten erst ab einem Alter von 15 Jahren angelegt werden können, berichtet die regierungsnahe Hürriyet Daily News. Vorher dürfe der Zugang nicht möglich sein. Für Menschen zwischen 15 und 18 Jahren seien zudem biometrische Restriktionen geplant.
Die Verantwortung dafür wolle der Staat an die Plattformen selbst abgeben. Bei Verstößen könnte etwa die Internet-Bandbreite der Dienste zeitweise reduziert werden. Erst im vergangenen Jahr wurden einige Dienste im Land als Antwort auf Proteste vorübergehend stark eingeschränkt.
Auch eine Klarnamenpflicht und die Überprüfung der Identität per Telefonnummer oder Ausweis sollen demnach eingeführt werden. Das geplante „Familienpaket“ enthält zudem die Möglichkeit, Social-Media-Inhalte ohne gerichtlichen Beschluss zu entfernen, so das Nachrichtenportal Turkish Minute. Eine entsprechende Gesetzesvorlage der Regierungspartei AKP wird innerhalb der nächsten Tage erwartet.
Ähnliche Maßnahmen auch in Deutschland?
Auch in Deutschland gibt es Diskussionen über ähnliche Maßnahmen. Diese werden mit dem Jugendschutz begründet. Der CDU-Parteitag hat am Wochenende etwa beschlossen, dass die Bundesregierung ein Social-Media-Verbot für Menschen unter 14 Jahren auf den Weg bringen soll. Die SPD hatte sich als Koalitionspartnerin im Vorfeld ebenfalls für diese Altersgrenze ausgesprochen. Kinder und Jugendliche unter 14 Jahren sollen demnach keinen Zugriff auf Social-Media-Plattformen haben. Zwischen 14 und 16 Jahren sollen sie zudem nur Jugendversionen der Dienste nutzen können. Die von Bundeskanzler Friedrich Merz geforderte Klarnamenpflicht ist dagegen vorerst vom Tisch.
Weiterlesen nach der Anzeige
()
Künstliche Intelligenz
Mit ChatGPT erstellte Passwörter sind nicht sicher
Auf den ersten Blick mag es als sinnvolle Idee erscheinen, KI-Chatbots mit der Erstellung von sicheren Passwörtern zu beauftragen. Doch das dürfte sich schnell als gefährlicher Irrtum herausstellen, wie Sicherheitsforscher warnen.
Weiterlesen nach der Anzeige
KI mit eingebauter Schwachstelle
Entsprechenden Tests der Firma Irregular zufolge lassen sich die per KI erstellten Passwörter nämlich leicht knacken – und das, obwohl sie für Laien durchaus sicher aussehen. Das Problem: Große Sprachmodelle (LLM), auf denen ChatGPT, Gemini oder Claude basieren, haben in diesem Zusammenhang eine eingebaute Schwachstelle.
Denn diese KI-Systeme sind darauf optimiert, vorhersehbare und plausible Ergebnisse zu generieren. Das sei mit einer sicheren Passworterzeugung nicht kompatibel, warnen die Experten. Oder einfacher gesagt: LLMs können keinen echten Zufall, da sie Zeichenfolgen anhand von Wahrscheinlichkeiten und den integrierten Trainingsdaten ausgeben.
Zeichenfolgen an vorhersehbaren Stellen
Dabei erzeugen die KI-Chatbots zwar Passwörter, die aussehen wie sichere Zeichenfolgen mit Sonderzeichen und Zahlen. Allerdings würden diese oft an identischen und damit vorhersehbaren Stellen platziert, so die Experten. Ein kryptografisch sicheres Passwort habe eine Entropie von rund 98 Bit. Die KI-generierten Passwörter haben in den Tests dagegen nur rund 27 Bit erreicht. Das bedeute, dass Hacker die KI-Passwörter per Brute-Force-Attacke selbst mit normalen Computern innerhalb von Stunden statt Jahrzehnten knacken könnten.
Getestet haben die Sicherheitsforscher Anthropics Claude Opus 4.6, OpenAIs GPT-5.2 und Googles Gemini 3 Flash. Bei allen drei KI-Systemen hätten sich feste Strukturen gezeigt, etwa identische Anfänge und nur geringe Variationen bei der Zeichenauswahl.
Muster in Open-Source-Code
Weiterlesen nach der Anzeige
Den Forschern zufolge ist das Problem längst nicht mehr theoretisch, sondern habe längst seinen Niederschlag in der Softwareentwicklung gefunden. So seien die identifizierten Muster in Open-Source-Code auf GitHub gefunden worden. Das sogenannte Vibe-Coding könne dadurch zum gefährlichen Einfallstor für Cyberangriffe werden.
Experten raten daher zur Nutzung von Passwort-Managern, die auf kryptografisch sichere Pseudozufallszahlengeneratoren setzen. Einige KI-Anbieter haben derweil schon auf die potenzielle Gefahr reagiert. Gemini etwa zeigt Warnhinweise an, dass die von der KI erstellten Passwörter nicht für echte Konten genutzt werden sollten.
Lesen Sie auch
Aber: Forscher der ETH Zürich und der Università della Svizzera italiana haben herausgefunden, dass einige beliebte Passwort-Manager mit Sicherheitsproblemen zu kämpfen haben. Die betroffenen Hersteller arbeiten eigenen Angaben zufolge nach schon an der Behebung der identifizierten Schwachstellen.
Dieser Beitrag ist zuerst auf t3n.de erschienen.
(jle)
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Apps & Mobile Entwicklungvor 3 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Apps & Mobile Entwicklungvor 3 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
