Apps & Mobile Entwicklung
Humble Bundle: Mega Spaß mit Mega Man – wenn’s denn gefällt
Nachdem es letztes Jahr September bereits ein Capcom-Bundle mit Ace Attorney und einigen Mega-Man-Spielen gegeben hatte, bietet Humble aktuell ein Bundle mit vollem Fokus auf Mega-Man an. Enthalten sind neun Titel, allerdings für einen ungewöhnlich hohen Preis.
Das Bundle umfasst vier Stufen. Die erste Stufe startet mit folgenden drei Titeln (inklusive Bewertung laut SteamDB):
- Mega Man Battle Network Legacy Collection Vol.1 – 83 Prozent
- Mega Man Battle Network Legacy Collection Vol.2 – 81 Prozent
- MEGA MAN X DiVE Offline – 77 Prozent
Auf Stufe 2 kommen die folgenden zwei Titel hinzu:
- Mega Man 11 – 86 Prozent
- Mega Man Zero/ZX Legacy Collection – 74 Prozent
Stufe 3 beinhaltet zudem:
- Mega Man Legacy Collection 2 – 81 Prozent
- Mega Man X Legacy Collection 2 – 74 Prozent
Die vierte und letzte Stufe enthält schließlich noch:
- Mega Man X Legacy Collection – 76 Prozent
- Mega Man Legacy Collection – 84 Prozent
Wer letztes Jahr schon beim Capcom-Bundle zugeschlagen hat, braucht dieses Jahr lediglich über die zweite Bundle-Stufe nachzudenken. Die vier Titel der dritten und vierten Stufe waren damals schon enthalten.
Nachschub erst 2027
Bei Mega Man handelt es sich um eine klassische Spielreihe, deren Anfänge bis in das Jahr 1987 zurückreichen. In den ersten Teilen der Serie muss Mega Man, ein humanoider Roboter, die Welt vor dem größenwahnsinnigen Dr. Wily und seinen Roboterschergen retten.
Bis 2018 erschienen insgesamt elf Titel für beinahe alle mehr oder weniger bekannten Konsolen sowie für PC und Smartphone. Während im letzten Jahr noch über einen neuen Teil der Serie spekuliert wurde, ist mittlerweile klar, dass mit „Mega Man: Dual Override“ im kommenden Jahr ein neuer Teil an den Start gehen wird.
Spielen und Gutes tun
Wie immer kommt ein Teil der Erlöse einer gemeinnützigen Organisation zu Gute. In diesem Fall ist das „Children’s Miracle Network Hospitals“, eine gemeinnützige Organisation in den USA und Kanada, die Spenden für über 170 Kinderkrankenhäuser sammelt. Sie finanziert Behandlungen, medizinische Forschung und Ausrüstung, um die Gesundheitsversorgung jährlich von Millionen von Kindern zu verbessern.
Preis und Verfügbarkeit
Ungewöhnlich, vor allem im Vergleich zum letztjährigen Capcom-Bundle, wirkt die aktuelle Preisgestaltung. Stufe 1 startet bei 20,19 Euro, Stufe 2 kostet 30,28 Euro, gefolgt von Stufe 3 mit 40,38 Euro und schließlich das gesamte Bundle mit allen neun Titeln für 50,49 Euro.
Erwähnenswert ist die Preisgestaltung dahingehend, dass es sechs von neun Titeln bereits im Capcom-Bundle im letzten Jahr gab. Dieses kostete aber nur 35,67 Euro und bot zudem noch mehrere Sammlungen der Ace-Attorney-Spiele und zwei Gutscheine. Die drei neuen Titel im Mega-Man-Bundle kosten auf Steam unrabattiert jeweils 29,99 Euro, sind aber wiederum bereits auf Stufe 1 und 2 zu haben. Logischer wäre es gewesen, die teuren Titel erst auf einer höheren Stufe zugänglich zu machen. So aber dürfen sich Sparfüchse freuen, die bereits im letzten Jahr zugeschlagen haben. Wie dem auch sei, alle neun Titel haben auf Steam einen Wert von 208,58 Euro, wodurch das Bundle für Mega-Man-Fans auch ohne Rechenspiele von Interesse sein kann – vor allem wenn auf Steam noch kein Titel vorhanden ist.
Das Mega-Man-Bundle ist noch bis zum 19. März erhältlich.
Apps & Mobile Entwicklung
Ende der Pseudonyme im Netz?: Mit LLMs lassen sich im großen Ausmaß Online-Konten deanonymisieren
Eine Studie von einer Forschungsgruppe der ETH Zürich zeigt: Selbst wenn Nutzer von Plattformen wie Hacker News ein Pseudonym verwenden, lassen diese sich mit aktuellen LLM-Agenten ohne großen Aufwand deanonymisieren. Die Forscher warnen daher vor den Risiken für die Privatsphäre, die von den modernen KI-Systemen ausgehen.
Dass pseudonyme Nutzerkonten identifizierbar sind, war schon vor dem Zeitalter der LLMs (Large Language Models) bekannt. In der Regel benötigen Angreifer auch nur wenige Datenpunkte, wie etwa das Netflix-Prize-Verfahren von 2008 zeigt.
Der Schutz war bislang vor allem der Aufwand, der nötig war, um Nutzer zu enttarnen. Daten mussten entweder strukturiert vorliegen oder Menschen mussten händisch Profile nach Hinweisen durchsuchen. „Unsere Ergebnisse zeigen, dass die praktische Verschleierung [„obscurity“], die pseudonyme Nutzer bislang online schützte, nicht länger Bestand hat und dass Bedrohungsmodelle für die Online-Privatsphäre neu überdacht werden müssen“, heißt es in dem Paper (via Decoder), an dem neben Forschern der ETH Zürich auch ein Mitarbeiter von Anthropic beteiligt ist.
Nutzer auf Hacker News lassen sich durch LinkedIn-Abgleich enttarnen
Um zu prüfen, inwieweit sich Hacker-News-Nutzer identifizieren lassen, erstellten die Forscher zunächst einen Datensatz mit 338 Profilen, die in der Bio einen Link zu einem LinkedIn-Konto hatten, sodass eine Zuordnung zu einem echten Menschen möglich ist. Dann wurden die Hacker-News-Profile anonymisiert; die Forscher nutzten ein LLM, um Informationen wie das LinkedIn-Profil, Namen oder Links zu Social-Media- oder GitHub-Konten zu entfernen. Ausgehend von den pseudonymen Beiträgen hatte dann ein LLM-Agent die Aufgaben, den jeweiligen Nutzer zu identifizieren, indem dieser autonom das Web durchsuchte, Quellen verglich und die Ergebnisse prüfte.
Das Resultat: 226 der 338 Hacker-News-Profile (67 Prozent) konnten mit 90-prozentiger Präzision identifiziert werden. Bei 25 Profilen war das Ergebnis also falsch, bei 201 Profilen enttarnte der Agent den jeweiligen Nutzer korrekt. Möglich ist es, weil der LLM-Agent anhand der Beiträge ein Profil eines Nutzers erstellt, das Informationen über Aspekte wie Alter, Geschlecht, beruflichen Werdegang und Interessen erhält.
Ergebnisse nicht direkt auf Praxis übertragbar
Testläufe mit kleineren Reddit-Datensätzen lieferten etwas schwächere Ergebnisse, aufgrund des Studien-Designs sind die Ergebnisse aber ohnehin nur bedingt für den praktischen Einsatz übertragbar. Der Grund sind die Grenzen des Ansatzes, weil im Prinzip nur Nutzer ausgewählt worden sind, bei denen aufgrund des geposteten LinkedIn-Kontos davon ausgegangen werden kann, dass sie offener mit ihren Daten sind. Völlig pseudonyme Konten waren nicht Teil der Analyse.
LinkedIn-Profile lassen sich auch Hacker-News-Konten zuordnen
In einem weiteren Testlauf ging es um die Frage, inwieweit sich bekannte LinkedIn-Konten einem Hacker-News-Profil zuordnen lassen. Die Grundlage bilden in diesem Fall LinkedIn-Konten, die auf Hacker-News-Profile verwiesen. So bestand der Datensatz aus 987 LinkedIn-Konten mit Verweis auf 995 Hacker-News-Profile. Dem gegenüber standen 89.000 Hacker-News-Profile.
Die Forscher nutzten nun ein mehrstufiges Verfahren, bei dem verschiedene KI-Modelle zum Einsatz kamen. Gemini wurde etwa verwendet, um die 89.000 Hacker-News-Profile in einenNearest-Neighbor-Index zu übertragen, mit Grok 4.1 Fast erfolgte dann eine erste Auswahl passender Kandidaten. Wurde GPT-5.2 im High-Reasoning-Modus für den finalen Abgleich genutzt, konnte das KI-basierte System 45,1 Prozent der Hacker-News-Profile mit 99-prozentiger Genauigkeit einem LinkedIn-Konto zuordnen – der Wert bei herkömmlichen Verfahren liegt bei 0,1 Prozent.
Je nach Präzision und Leistungsfähigkeit der Modelle variieren die Ergebnisse aber. GPT-5.2 im Low-Reasoning-Modus erreicht bei 99-prozentiger Präzision einen Wert von 36 Prozent.
Weitere Tests zeigen ebenfalls Erfolg des LLM-Ansatzes
Die Forscher der ETH Zürich bestätigen die Erkenntnisse auch in weiteren Experimenten:
- Von Forschern, die bei Anthropic ein Vorstellungsgespräch hatten, ließen sich anhand der Transkripte 9 von 33 Befragten korrekt enttarnen. Bei zwei war die Identifikation fehlerhaft.
- Reddit-Nutzer, die in verschiedenen Film-Subbredits unterwegs waren, ließen sich über mehrere Subreddits hinweg zuordnen.
Ein Trend ist generell, dass Nutzer sich umso einfacher identifizieren lassen, wenn sie mehr posten.
Konsequenzen für die Privatsphäre im Netz
Die Forschungsarbeiten zeigen also, dass LLMs es im großen Umfang ermöglichen, pseudonyme Nutzerkonten zu deanonymisieren. Was sich durch die LLM-Methoden gravierend ändert, ist in erster Linie der Kostenfaktor. Nutzer zu identifizieren war ohnehin möglich, aber kostspielig. Nun wird es deutlich günstiger. Wer wie die Forscher die gängigen KI-Modelle wie GPT-5.2 per API nutzt, zahlt laut der Forschungsgruppe pro Profil zwischen 1 und 4 US-Dollar.
Laut der Forschungsgruppe haben die Erkenntnisse erhebliche Konsequenzen für die Privatsphäre im Netz. Regierungen haben durch solche LLM-Systeme die Möglichkeit, pseudonyme Konten mit echten Personen zu verknüpfen – das gilt auch, wenn es sich um sensible Personengruppen wie Journalisten oder Aktivisten handelt. Unternehmen haben derweil die Möglichkeit, anonyme Forenbeiträge mit Kundenprofilen zu verbinden, um etwa gezielter Werbung zu schalten. Angreifer können solche Verfahren hingegen nutzen, um detaillierte Profile von Zielpersonen zu erstellen, die eine Vielzahl von Webaktivitäten beinhalten.
„Nutzer, Plattformen und politische Entscheidungsträger müssen anerkennen, dass die Privatsphäre-Annahmen, auf denen ein Großteil des heutigen Internets basiert, nicht länger bestehen“, so die Forscher in dem Paper. Relevant sind diese Erkenntnisse auch für den Konflikt zwischen Anthropic und dem Pentagon. Dieser eskalierte, weil das KI-Unternehmen neben der autonomen Waffensteuerung auch die Massenüberwachung im Inland technisch unterbinden wollte. Welche Möglichkeiten sich mit LLMs bieten, zeigt diese Studie.
Die Studie wurde vom Ethikrat der ETH Zürich genehmigt. Aufgrund von Datenschutzbedenken wurden die zugrundeliegenden Datensätze nicht veröffentlicht.
Apps & Mobile Entwicklung
Bulk Crap Uninstaller 6.0: Praktisches Tool mit großem Versionssprung

Trotz des Sprungs auf Version 6.0 fallen die Änderungen bei der Anwendung zum vollständigen Entfernen nicht mehr genutzter Programme für Windows gering aus. Bei der neuen Iteration haben die Entwickler den Fokus auf die Behebung einiger Fehler gelegt, neue Funktionen gehören somit nicht zur Veröffentlichung.
Bulk Crap Uninstaller ist eine Software zum vollständigen Entfernen nicht mehr genutzter Software. Dabei bietet die Software einige Zusatz-Funktionen, welche sie den Windows-Bordmitteln über die Einstellungen (Apps Deinstallieren) voraushat: Dazu gehört die „Reihen-Deinstallation“ oder das automatische Bereinigen verbliebener Überreste.
In der neuen Version wurde unter anderem eine Zeitüberschreitung von 40 Sekunden für es.exe hinzugefügt. Ebenso gibt die Anwendung nun eine Warnmeldung aus, wenn Nutzer versuchen, schreibgeschützte Deinstallationsprogramme umzubenennen. Darüber hinaus wurde die vorläufige Unterstützung für WoA64 integriert. Gleichzeitig wurde ein Problem behoben, bei dem das Fenster für den Deinstallationsfortschritt bei vertikal versetzten Bildschirmen außerhalb des sichtbaren Bildschirmbereichs angezeigt wurde.
In der Vergangenheit konnte es zudem beim Start des Programms zu Abstürzen kommen, wenn die InfoCache.xml beschädigt war. Dieses Verhalten sollte nun nicht mehr auftreten. Verbesserungen haben hingegen die Tooltips erhalten, die nun anzeigen, wenn SystemRestore nicht verfügbar sein sollte.
Eine komplette Übersicht über alle Änderungen bieten die Release Notes.
Ab sofort verfügbar
Bulk Crap Uninstaller 6.0 steht ab sofort auf der dazugehörigen Projektseite auf GitHub zum Download bereit. Alternativ kann die Anwendung ebenso über den Link am Ende dieser Meldung aus dem Download-Bereich von ComputerBase bezogen werden.
Die Software steht aktuell lediglich für 64-Bit-Systeme zur Verfügung, da es derzeit keine unterstützten x86-Versionen von Windows gibt. Wird dennoch eine solche Variante benötigt, können Nutzer zum portablen AnyCPU-Build greifen oder aus dem Quellcode einen eigenen x86-Build kompilieren.
Downloads
-
4,9 Sterne
Bulk Crap Uninstaller ist eine Software zum vollständigen Entfernen nicht mehr genutzter Software.
- Version 6.0 Deutsch
- Version 5.9 Deutsch
Apps & Mobile Entwicklung
Android XR ausprobiert: Das ist Googles Rückkehr in den Markt der Smart Glasses
Google will dieses Jahres erste Smart Glasses mit Audio-Ausgabe auf den Markt bringen. Später sind auch Varianten mit Display im Brillenglas geplant. Einen dieser Prototypen konnte ComputerBase zum MWC 2026 kurz ausprobieren. Gemini reagierte schnell, übersetzte Spanisch und Farsi und verwandelte den Stand in eine Raumstation.
Google Gemini nimmt zentrale Rolle ein
Entsprechende Pläne hatte Google erstmals zur eigenen Entwicklerkonferenz im Mai letzten Jahres bekannt gegeben. Rund zwölf Jahre nach der Google Glass will das Unternehmen gemeinsam mit Partnern und diesmal auf Android XR basierend wieder in den Markt der Smart Glasses mit Augmented Reality einsteigen. Eine wichtige Rolle wird dabei auch Google Gemini spielen. Der AI-Assistent soll neben Smartphones, Tablets, Smartwatches, Autos und Fernsehern auch auf Android XR zum Einsatz kommen.
Zwei Brillenpartner, auch mit Korrekturgläsern
Anders als bei den Pixel-Smartphones sind nach aktuellem Stand keine Smart Glasses direkt von Google geplant. Das Unternehmen setzt aktuell auf zwei Partner, die Googles Technologie integrieren und für die eigentlichen Brillen verantwortlich sein werden. Bei den Brillenherstellern holt Google das südkoreanische Unternehmen Gentle Monster und Warby Parker aus den USA ins Boot. Beide Unternehmen sollen „stylische“ Brillen mit Android XR anbieten. Möglich sein werden dabei auch Brillen mit optischer Korrektur. Zur Messe hat Google auf entsprechende Einsätze für den Prototyp gesetzt. Mit Samsung wiederum arbeitet Google an einer Referenzplattform, um mit anderen Unternehmen ein Ökosystem neuer Smart Glasses aufzubauen. Entwickler haben seit Ende 2025 Zugang zu dieser Plattform.
Zum MWC in Barcelona konnte ComputerBase kurz einen Prototyp von Google ausprobieren, der auch bereits mit einem Display im rechten Brillenglas ausgestattet war. Ein zusätzliche visuelle Informationen darstellendes Display ist optional für Android XR. Zur ersten Markteinführung noch im Laufe dieses Jahres sind zunächst einmal Modelle ausschließlich mit Audio-Ausgabe geplant. Die ersten Smart Glasses sollen mit einer Kamera, mehreren Mikrofonen und Lautsprechern ausgestattet sein. Hardware-Partner bei den Chipsätzen ist Qualcomm. Google hatte bereits zur I/O letztes Jahr preisgegeben, dass die neuen Brillen ein Smartphone voraussetzen werden, demnach zumindest nicht in jedem Punkt vollständig eigenständig agieren. Das erlaube Nutzern den Zugriff auf Apps, ohne in die Tasche greifen zu müssen. Bedacht werden muss auch das stark limitierte Power-Budget (in Watt) von Smart Glasses. Qualcomm gibt für Augmented-Reality-Brillen ein Budget von ungefähr 1 Watt an.
Live-Übersetzung, Musik abspielen, Bildgenerierung
Mit der von Google für die Demo zur Verfügung gestellten Brille ließ sich via Sprache und einer Schaltfläche im rechten Brillenbügel interagieren. Wie auf Smartphones lässt sich Gemini mittels „Hey Google“ starten, alternativ kann eine Schaltfläche im rechten Brillenbügel für zwei Sekunden gehalten werden, um den Assistenten zu aktivieren, der daraufhin zuhört. Im Anschluss erscheint eine kleine Gemini-Sprechblase im Display des rechten Brillenglas, über die sowohl die akustischen Eingaben des Nutzers als auch die Ausgaben dargestellt. Zusätzlich erfolgt die Audio-Ausgabe über die Lautsprecher im Gestell, wobei diese primär für den Träger zu hören ist. Außenstehende konnten die Ausgabe in deutlich minimierter Lautstärke wahrnehmen, wie weitere Journalisten vor Ort bestätigten.
Anwendungsbeispiele vor Ort waren die Live-Übersetzung mit Google Translate, die Bilderkennung mit anschließender Musikwiedergabe sowie die Bildgenerierung via Nano Banana. Ein Branchenkollege konnte zudem die Navigation mit Google Maps ausprobieren, diese Anwendung war aber nicht Teil der Demo für ComputerBase.
Die Live-Übersetzung ist entweder mittels Text- oder Audio-Ausgabe möglich. Für die Demo sprach der Google-Mitarbeiter einmal in Spanisch und einmal in Farsi mit dem Träger, beides konnte die Brille mit kleiner Verzögerung annähernd in Echtzeit übersetzen. Dabei erfolgte die Audio-Ausgabe in natürlicher Sprache in Englisch, die Zeiten starrer Roboterstimmen sind definitiv vorbei. Was derzeit nicht möglich ist, ist die Audio-Ausgabe auch für die andere Person, wenn dann zum Beispiel auf Englisch geantwortet wird, die andere Person aber überhaupt kein Englisch beherrscht. Die Ausgabe erfolgt in diesem Fall in Textform über die App auf dem Smartphone.
Die Brille kann über die integrierte Kamera zudem Objekte erkennen und Aktionen mit Bezug dazu ausführen. Am Stand ließ sich ein Schallplattencover fotografieren und anschließend die zugehörigen Musik in YouTube Music abspielen. Sobald die Kamera in der Front aktiv ist, zeigt die Brille dies auch mittels LED an. Ob Google damit das „Glasshole“-Problem und das Stigma omnipräsenter Sensoren wie unter anderem Kameras gelöst hat, ist schwer zu sagen. Die Bereitschaft dafür in der Gesellschaft scheint aktuell mehr gegebenen zu sein als vor mehr als einer Dekade mit Google Glass.
Anfragen gehen häufig in die Cloud
Darüber hinaus stehen auch vom Smartphone bekannte Funktionen wie die Bildgenerierung mittels Künstlicher Intelligenz zur Auswahl. Nano Banana verwandelte den Stand auf individuelle Nachfrage zum Beispiel in eine Raumstation. Dabei handelte es sich um eine eigens gewählte Anfrage und nicht nur um eine von Google „vorprogrammierte“ Funktion, die das Feature lediglich emuliert. Nano Banana wird dabei in der Cloud und nicht auf dem verbundenen Smartphone ausgeführt. Ob für solche und ähnliche Funktionen in Zukunft ein kostenpflichtiges Google-AI-Pro-Abonnement vorausgesetzt wird, konnte Google vor Ort nicht beantworten. Das wird sich zur nächsten I/O respektive später im Jahr zeigen müssen.
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 3 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Social Mediavor 2 TagenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Künstliche Intelligenzvor 2 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights


